Продвижение сайтов в GoGetLinks. Скрипты и плагины для отбора площадок в GGL

Logo
Продвижение сайтов в GoGetLinks. Скрипты и плагины для отбора площадок в GGL

В данной статье я расскажу о том, как эффективно продвигать сайт вечными ссылками в системе GoGetLinks. Основное внимание будет уделено отбору качественных площадок, а также решению возможных проблем при работе с системой.

Полученных знаний будет достаточно для самостоятельного продвижения сайтов вечными ссылками и отказа от услуг оптимизаторов (в плане ссылочного). Если вас интересуют арендные ссылки, то рекомендую ознакомиться со статьей по продвижению в Sape.

После прочтения статьи вы научитесь делать следующее:

  1. Создавать кампании для продвижения сайтов в GGL, находить качественные площадки и отправлять заявки на покупку ссылок.
  2. За несколько часов анализировать все площадки биржи GoGetLinks и быстро формировать качественные черный и белый списки сайтов для эффективной работы в системе и покупки только качественных ссылок.

Для полноценной работы нам понадобятся всего лишь 2 инструмента:

  1. Браузер Mozilla Firefox (или любой другой с возможностью удобного запуска скриптов из консоли).
  2. Плагин XTool Checker для съема данных по площадкам, таких как посещаемость, Alexa Rank, количество входящих/исходящих ссылок и т.д.

Как вы уже поняли, работа будет производиться в полуавтоматическом режиме. Сначала при помощи плагина мы получим нужные для анализа площадок параметры, после чего из консоли вручную запустим скрипты для отбора сайтов.

Кому-то это может показаться не слишком удобным. С другой стороны, любой желающий сможет использовать данный метод и заточить его под себя, не прибегая к сторонней помощи.

Итак, первым делом научимся создавать кампанию для продвижения. Если вы уже умеете это делать – пропустите данный пункт.

Создание кампании в системе GoGetLinks

Для начала работы переходим на главную страницу GoGetLinks и регистрируемся в системе.

Регистрация в системе GoGetLinks

После регистрации и активации аккаунта авторизируемся, переходим во вкладку «Оптимизатору» — «Мои кампании» и жмем «Создать новую».

Руководство по работе с GoGetLinks - кнопка добавления новой кампании

Дальнейший процесс создания кампании аналогичный описанному в статье по работе с GetGoodLinks. Все же здесь есть некоторые отличия, поэтому коротко рассмотрим каждый шаг.

Создание кампании в GoGetLinks - основная информация

  • Название кампании – произвольно.
  • Типы обзоров – обычно это контекстные ссылки и заметки. При необходимости можно оставить «Ссылки-картинки».
  • Текст ссылки, ключевые слова и URL – можно оставить пустыми, так как зачастую для продвижения используется несколько значений (чем больше, тем лучше), поэтому мы будем использовать загрузку данных из файла.
  • Склонение ссылок – лично я разрешаю вебмастерам склонять тексты ссылок для придания им большей естественности. К тому же у многих ленивых вебмастеров попросту не хватает фантазии на то, чтобы вписать анкоры в исходном виде, что влечет за собой отправки на доработку и лишнюю трату времени.

Для загрузки нескольких анкоров и адресов, жмем на ссылку «Хочу добавить больше анкоров» или «Хочу добавить больше URL».

Создание кампании в GoGetLinks - ссылки для добавления нескольких анкоров и URL

В открывшемся окне либо вручную заполняем поля таблицы, либо загружаем данных из txt файла.

Создание кампании в GoGetLinks - загрузка анкоров из файла

При загрузке из файла используйте следующий синтаксис:

Адрес продвигаемой страницы;анкор;ключевые слова;сколько раз использовать анкор в рамках кампании

При этом файл обязательно должен быть сохранен в кодировке ANSI. В противном случае могут возникать ошибки.

Пример содержимого файла для импорта:

http://dmitriydenisov.com/;продвижение;продвижение, раскрутка, оптимизация сайта;1
http://dmitriydenisov.com/;раскрутка;продвижение, раскрутка, оптимизация сайта;1
http://dmitriydenisov.com/;оптимизация;продвижение, раскрутка, оптимизация сайта;1

После загрузки данных не забываем указать действие на случай, если все тексты ссылок исчерпаны, а также способ раздачи анкоров. После этого жмем на кнопку «Готово».

Создание кампании в GoGetLinks - настройка использования анкоров

В результате этого во вкладке с основной информацией начнут отображаться загруженные анкоры.

Создание кампании в GoGetLinks - загруженные анкоры

После загрузки анкоров можем переходить к настройке других параметров кампании.

Создание кампании в GoGetLinks - параметры площадок

  • Тематика – я выбираю все, так как из-за жесткой фильтрации практически не остается доступных площадок.
  • Игнорировать сайты, участвующие в автобиржах – отметьте чекбокс, если вы не хотите покупать ссылки с сайтов, участвующих в Sape или других системах с возможностью автоматической продажи ссылок.

Создание кампании в GoGetLinks - параметры страниц и комментарии

  • Количество внешних ссылок на странице – произвольно. Обычно, чем меньше, тем лучше.
  • Внутренних ссылок – произвольно. На мой взгляд, оптимальное значение – до 100 ссылок на странице.
  • Уровень вложенности – до третьего. Не вижу смысла покупать ссылки со страниц находящихся дальше третьего уровня вложенности.
  • Характер страниц – отмечаем оба чекбокса, но в идеале лучше покупать ссылки только с новых страниц.
  • Описание и комментарии к заданию – произвольно. Вы можете самостоятельно составить требования к размещению ссылок или же использовать мои:
1. Ссылка должна быть в новой статье. 2. Минимальный объем статьи - 2000 знаков. 3. Текст статьи должен быть уникальным и содержать хотя бы одно изображение. 4. Ссылку желательно размещать как можно выше на странице (в первой половине статьи). 5. Ссылка должна быть вписана в текст максимально естественно. 6. Ссылка должна быть окружена тематическим текстом. Чтобы не возникало вопросов по поводу окружающего текста, перед публикацией обязательно ознакомьтесь с содержимым страницы.

Создание кампании в GoGetLinks - установка цен

  • Цены – произвольно. Лично я использую средние цены по системе с целью экономии времени.

После внесения всех данных сохраняем результат и можем переходить к отбору площадок для покупки ссылок.

Базовый анализ площадок в GoGetLinks

На текущий момент в системе GoGetLinks зарегистрировано порядка 13 тысяч сайтов. Большая часть из них является непригодной для работы по причине отсутствия трафика, заспамленности, необоснованно завышенным ценам и т.д. Таким образом, покупка ссылок с таких площадок является не только невыгодным вложением, но и может оказать неблагоприятное влияние на продвигаемый проект.

С целью отсева некачественных площадок и упрощения процесса покупки ссылок в GoGetLinks, я предлагаю всю ту же проверенную схему анализа и отбора доноров, которую использую при работе с Sape. Единственное отличие – немного измененный код скриптов.

Для съема данных мы, как и прежде, будем использовать плагин для браузера Xtool checker. Подробнее о его настройке и использовании можно почитать в данной статье.

Итак, первым делом нам нужно исключить из поиска сайты без трафика. Практика показывает, что после начала продажи ссылок большая часть проектов перестает развиваться. Зачастую это связано с тем, что они изначально ориентированы на продажу ссылок, поэтому такие проекты следует сразу добавлять в черный список.

Для этого, первым делом, авторизируемся в системе GetGoodLinks и запускаем поиск площадок с нужными нам параметрами (Меню – Поиск площадок).

Руководство по работе с GoGetLinks - раздел поиска площадок

Изначально система позволяет выводить до 50 результатов на странице. Это ограничение можно обойти, изменив исходный код страницы. Для этого устанавливаем плагин для браузера FireBug и выполняем действия, как показано на изображении.

Изменение количества выводимых результатов на странице поиска в Gogetlinks

  1. Жмем кнопку «Инспектировать объект».
  2. Жмем на список, отвечающий за количество элементов на странице.
  3. Изменяем значение любого элемента в списке, кроме уже выбранного.
  4. Выбираем из списка элемент с измененным значением.

После выбора нового значения страница перезагрузится и на ней выведется столько элементов, сколько вы указали в исходном коде страницы. Рекомендую выводить не более 2-4 тыс. на одной странице, так как могут возникать проблемы с браузером, такие как зависание и перезагрузка программы из-за критических ошибок при съеме данных плагином.

Далее запускаем редактор JavaSctipt в браузере. Для этого используем комбинацию клавиш Shift + Ctrl + K (в FireFox) и жмем на кнопку, как это показано на изображении ниже.

Кнопка вызова редактора JavaScript в барузере Moxilla FireFox

В открывшееся окно копируем следующий код:

var urls = new Array;
var i = 0;
var repT = ' тыс.';
var repM = ' млн.';
var regexT = new RegExp(repT, 'g');
var regexM = new RegExp(repM, 'g');
$('#div_search_table #table_content #body_table_content tr td.col-1').each(function() {
var Trf = $(this).find('input[name*=xToolCheckTrfButton]').attr('value');
if (Trf.length>0) { Trf = parseInt(Trf); if (isNaN(Trf)) { Trf = 0.1; } } else { Trf = 0.1; }
var AR = $(this).find('input[name*=xToolCheckARButton]').attr('value');
if (AR.length>0) { AR = AR.replace(regexT, '000').replace(regexM, '000000'); AR = parseInt(AR); if (isNaN(AR)) { AR = 25000000; } } else { AR = 25000000; }
if (AR > 1000000 || Trf < 1000 ) {
var url = $(this).find('a.link-compaing-url').attr('href');
urls[i] = '<span title="Alexa Rank: ' + AR + ' Trf: ' + Trf + '" href="' + url + '">' + url + '</span>';
$(this).parent().remove();
i++;
}
});
$(window.open().document.body).html(urls.join('</br>'));

Для выполнения кода используем комбинацию клавиш Ctrl + R или кнопку из меню программы.

Вышеприведенный код выберет все сайты, у которых показатели посещаемости по LiveInternet за последние сутки меньше 1000 человек или AlexaRank больше 1 млн. При этом для большего удобства они будут удалены со страницы, а их адреса вынесены списком в отдельную вкладку из которой вы можете их скопировать и вручную добавить в черный список.

Сомнительные сайты без статистики я тоже исключаю. Практика показывает, что большая часть из них непригодна для работы. К тому же при покупке вечных ссылок хочется быть максимально уверенным в результате.

Базовый анализ позволит вам отсеять большую часть непригодных для работы сайтов без каких-либо финансовых затрат. После базового отсева площадок можно будет переходить к следующему этапу – глубокому анализу.

Глубокий анализ площадок в GoGetLinks

При глубоком анализе кроме посещаемости и Alexa Rank мы также будем использовать такие параметры, как количество входящих и исходящих ссылок. Съем этих данных является платным, поэтому рекомендую заказать порядка 1000 запросов в сервисе XTool. На текущий момент они обойдутся вам всего в 150 рублей.

Если вы правильно произвели базовую фильтрацию, то 1000 запросов будет вполне достаточно для глубокого анализа всех оставшихся сайтов в системе Gogetlinks, так как основная масса площадок будет уже исключена из поиска.

Для начала работы переходим на страницу поиска площадок и снимаем при помощи плагина XTool такие показатели, как посещаемость, Alexa Rank и траст домена (кнопка XTD).

Съем данных плагином Xtool Checker

Далее открываем редактор JavaSctipt, копируем в него нижеприведенный код и запускаем его.

var urls = new Array;
var i = 0;
var repT = ' тыс.';
var repM = ' млн.';
var regexT = new RegExp(repT, 'g');
var regexM = new RegExp(repM, 'g');
$('#div_search_table #table_content #body_table_content tr td.col-1').each(function() {
var Trf = $(this).find('input[name*=xToolCheckTrfButton]').attr('value');
if (Trf.length>0) { Trf = parseInt(Trf); if (isNaN(Trf)) { Trf = 0.1; } } else { Trf = 0.1; }
var AR = $(this).find('input[name*=xToolCheckARButton]').attr('value');
if (AR.length>0) { AR = AR.replace(regexT, '000').replace(regexM, '000000'); AR = parseInt(AR); if (isNaN(AR)) { AR = 25000000; } } else { AR = 25000000; }
var XTDInput = $(this).find('input[name*=xToolCheckXTButtonD]');
if (XTDInput.length>0) {
var XTD = XTDInput.attr('value'); if (XTD.length>0) { XTD = parseFloat(XTD); if (isNaN(XTD)) { XTD = 0; } } else { XTD = 0; }
if (XTD != 0) {
var XTDAlt = XTDInput.attr('alt');
var obj = JSON.parse(XTDAlt);
var lin = obj.lin; if ( lin === null ) { lin = 1; } else { if (lin.length>0) { lin = parseInt(lin); if (isNaN(lin)) { lin = 0; } } else { lin = 0; } }
var lout = obj.lout; if ( lout === null ) { lout = 1000000; } else { if (lout.length>0) { lout = parseInt(lout); if (isNaN(lout)) { lout = 0; } } else { lout = 0; } }
var spam = obj.spam; if ( spam === null ) { spam = 0; } else { if (spam.length>0) { spam = parseFloat(spam); if (isNaN(spam)) { spam = 0; } } else { spam = 0; } }
var nepot = obj.nepot; if ( nepot === null ) { nepot = 0; } else { if (nepot.length>0) { nepot = parseInt(nepot); if (isNaN(nepot)) { nepot = 0; } } else { nepot = 0; } }
if (XTD < 4 || AR > 1000000 || lout/lin > 1 || Trf < 1000 ) {
var url = $(this).find('a.link-compaing-url').attr('href');
urls[i] = '<span title="XTD: ' + XTD + ' Alexa Rank: ' + AR + ' Домены out/in: ' + (lout/lin).toFixed(2) + ' Trf: ' + Trf + ' Вероятность непота: ' + nepot + ' Заспамленность: ' + spam + '" href="' + url + '">' + url + '</span>';
$(this).parent().remove();
i++;
}
} else {
var url = $(this).find('a.link-compaing-url').attr('href');
urls[i] = '<span style="color: red; font-weight: bold;" title="XTD: NO Trf: ' + Trf + ' Alexa Rank: ' + AR + '" href="' + url + '">' + url + '</span>';
$(this).parent().remove();
i++;
}
}
});
$(window.open().document.body).html(urls.join('</br>'));

Вышеприведенный код отберет и исключит все сайты, у которых:

  1. Посещаемость меньше 1000 человек за последние сутки.
  2. Alexa Rank больше 1 млн.
  3. Исходящих ссылок больше чем входящих.
  4. Траст домена по мнению Xtool меньше 4 (XTD < 4).

После отработки скрипта проверяем результат и заносим адреса сайтов в черный список. Оставшиеся сайты, которых будет не так уж много, можно проверить вручную, отправляя площадки в черный или белый список при помощи соответствующих кнопок на сайте.

Занесение сайтов в черный и белые списки вручную

После тщательной ручной проверки площадок, можно смело приступать к покупке ссылок. Процесс покупки ничем не отличается от описанного в статье по работе с GetGoodLinks.

На этом данная статья подошла к концу. Желаю удачи и успехов в продвижении сайтов вечными ссылками.

Обнаружили ошибку? Выделите ее и нажмите Ctrl+Enter

Комментарии 2

  • Олег

    Спасибо, Дмитрий! Очередная полезная и интересная статья.

    Подскажите, что вы думаете по поводу заявления Садовского по поводу отмены учета ссылок в ранжировании сайтов?
    Какие факторы, по вашему мнению, выйдут на первый план? И как с этими факторами работать?

  • Дмитрий

    Олег, я всегда делал упор на качество сайта, поэтому не сильно переживаю на этот счет. В любом случае, ссылки не забрасываю. Несмотря на заявление, они по прежнему работают. Во всяком случае на текущий момент. Что касается факторов, то сразу так не отвечу. В последнее время я не особо над этим задумываюсь. Просто делаю проекты максимально качественными, насколько мне позволяют знания и опыт. И это работает.

Оставить комментарий

отменить ответ