Site icon Cospi.ru

Моя схема отбора площадок в Sape

Добрый день. Сегодняшнюю статью я хочу посветить такой щепетильной теме, как закупка ссылок в Sape. Речь пойдёт о фильтрации плохих доноров и выборе хороших площадок, которые точно будут передавать ссылочный вес.

Данный пост я в первую очередь подготовил для себя, чтобы постоянно была схема перед глазами, а то всё на листочках хранится :).

Введение и настройка

Отбор и сортировку площадок я выполняю с помощью плагина Винка для Mozilla Firefox и RDS Bar.

Первым делом надо настроить плагин, для этого выставляем вот такие настройки:

Фильтр адресов страниц

Эта функция выделяет страницы, которые включают в своём адресе не желательные комбинации — профили, форумы, страницы тегов, поиска и.т.п. Находится она в первой вкладке окна настроек. Список таких адресов у меня вот такой:

index.php?fid=|module|catalog|forum|user|=[0-9a-f]{32}|viewtopic|showtopic|showthread|profile|showuser|search|tag|archive|displayimage|thumbnails|dn=photos|.php?vac_id=

Вы можете его дополнять своими не желательными адресами.

Настройки для проверки по Яндексу

На этой вкладке желательно выставить примерно вот такие настройки:

Одним из важных фильтров, является проверка на «дату сохранения страницы в кэше Яндекса». Если последний раз бот Яндекса заходил на страницу 2 – 3 месяца назад, то очень большая вероятность того, что переиндексация этой страницы будет не скоро и вам очень повезет, если ваша ссылка попадёт в индекс в течение 4 – 6 недель.
Я всегда выставляю этот показатель на 25 дней и благодаря этому, 95% купленных ссылок попадают в индекс в следующие 2-3 апа после покупки.

Проверка ссылок

Все настройки задаются для кнопочки [BC], при клике по ней, плагин будет отмечать страницы, у которых число внешних ссылок отличается от заявленных и контролировать объём текста на странице.


Контроль объёма текста нужен для того, чтобы отсеять ГС и интернет магазины, которые пропустил «фильтр адресов».

Проверка Трафика и Исходящих ссылок с домена

Общий трафик я проверяю по Alexa Rank, если он больше 8 миллионов (в настройках это как 8к), то такие сайты я отправляют в BL. Не использую фильтрацию по LiveInternet, потому что не везде счётчик стоит и чаще всего статистика закрыта и данные по посещаемости взять не реально.

Дальше идёт настройки для проверки внешних ссылок по Solomono. На этом этапе всё условно, но в среднем, чем меньше ссылок с сайта, тем лучше, особенно для наращивания ТИЦ.

Надо так же смотреть на кол-во страниц у сайта, если их несколько тысяч, то 300 – 400 исходящих ссылок вполне нормально. Но вот сайты с малым количеством страниц (100-200) и которые имеют такое же количество исходящих ссылок, будут явно заспамленными и вес передадут минимальный.

Базовая настройка плагина Винка закончена, теперь давайте перейдём к самой схеме фильтрации доноров.

Последовательность фильтрации площадок в Sape

Все эти действия, желательно выполнять последовательно, для экономии времени.

1. Проверка количества страниц в индексе

Первым делом надо удалить сайты под АГС или явно маленькие сайты которые в скором времени попадут под него, из-за продажи ссылок. В настройках у меня указан фильтр на 20 страниц в индексе.

Данные берутся по данным Sape, то есть эта проверка практически без полезна :), потому что система довольно редко обновляет статистику по добавленным сайтам. Но тем не менее, можно отсеять часть плохих сайтов.

2. Вторая проверка кол-ва страниц в индексе Яндекса

На этом этапе, плагин уже берёт данные у Яндекса и мы уже точно сможет отсеять сайты под АГС.

3. Контроль URL страниц

Теперь видно страницы, на которых нежелательно покупать ссылки.

4. Проверка трафика по Alexa Rank

Удаляем площадки с очень маленьким трафиком. Если мало площадок вашей тематики, то можно пропустить этот шаг.

5. Исходящие ссылки с домена по Solomono

Удаляем площадки с большим количеством внешних ссылок, как уже писал выше – это значение условно и иногда приходится покупать без этой проверки, к примеру когда мало тематических доноров.

6. Объём текста и ссылки на странице

Проверяем на объём текста и количество внутренних и внешних ссылок. Сайты, которые не подходят под наши настройки – удаляем в Black List.

Основной «отсев» площадок закончен, после этих шести пунктов, отсеивается примерно 70-80% найденных сайтов, в зависимости от тематики.

Теперь, когда основная часть плохих площадок удалена, можно уже проверять страницы на индекс и дату сохранения.

7. Индекс и дата сохранения

Проверять на индекс страницу [YP] после этого не надо, потому что [YC] отмечает — проиндексирована страница или нет:

Вот и всё, после этих 7 пунктов проверки и фильтрации, у вас должны остаться только хорошие площадки, которые будут передавать ссылочный вес. Дальше надо уже визуально просматривать сайты и отсеивать то, что плагин пропустил.

Я описал всё это, с уклоном для продвижения в Яндексе, для Google можно проверять то же самое, только добавить проверку на «индексацию страницы» в Google и определение PR.

На этом всё, спасибо за внимание и не забывайте про ретвит ??

Оценить статью post