Путь к статье: Главная » Продвижение блога

Добрый день. Сегодняшнюю статью я хочу посветить такой щепетильной теме, как закупка ссылок в Sape. Речь пойдёт о фильтрации плохих доноров и выборе хороших площадок, которые точно будут передавать ссылочный вес.

Данный пост я в первую очередь подготовил для себя, чтобы постоянно была схема перед глазами, а то всё на листочках хранится :).

Введение и настройка

Отбор и сортировку площадок я выполняю с помощью плагина Винка для Mozilla Firefox и RDS Bar.

Первым делом надо настроить плагин, для этого выставляем вот такие настройки:

Фильтр адресов страниц

Фильтр адресов страниц

Эта функция выделяет страницы, которые включают в своём адресе не желательные комбинации - профили, форумы, страницы тегов, поиска и.т.п. Находится она в первой вкладке окна настроек. Список таких адресов у меня вот такой:

index.php?fid=|module|catalog|forum|user|=[0-9a-f]{32}|viewtopic|showtopic|showthread|profile|showuser|search|tag|archive|displayimage|thumbnails|dn=photos|.php?vac_id=

Вы можете его дополнять своими не желательными адресами.

Настройки для проверки по Яндексу

На этой вкладке желательно выставить примерно вот такие настройки:

Настройки для проверки по Яндексу

Одним из важных фильтров, является проверка на "дату сохранения страницы в кэше Яндекса". Если последний раз бот Яндекса заходил на страницу 2 – 3 месяца назад, то очень большая вероятность того, что переиндексация этой страницы будет не скоро и вам очень повезет, если ваша ссылка попадёт в индекс в течение 4 – 6 недель.
Я всегда выставляю этот показатель на 25 дней и благодаря этому, 95% купленных ссылок попадают в индекс в следующие 2-3 апа после покупки.

Проверка ссылок

Проверка ссылок

Все настройки задаются для кнопочки [BC], при клике по ней, плагин будет отмечать страницы, у которых число внешних ссылок отличается от заявленных и контролировать объём текста на странице.

Контроль объёма текста нужен для того, чтобы отсеять ГС и интернет магазины, которые пропустил «фильтр адресов».

Проверка Трафика и Исходящих ссылок с домена

Проверка Трафика и Исходящих ссылок с домена

Общий трафик я проверяю по Alexa Rank, если он больше 8 миллионов (в настройках это как 8к), то такие сайты я отправляют в BL. Не использую фильтрацию по LiveInternet, потому что не везде счётчик стоит и чаще всего статистика закрыта и данные по посещаемости взять не реально.

Дальше идёт настройки для проверки внешних ссылок по Solomono. На этом этапе всё условно, но в среднем, чем меньше ссылок с сайта, тем лучше, особенно для наращивания ТИЦ.

Надо так же смотреть на кол-во страниц у сайта, если их несколько тысяч, то 300 – 400 исходящих ссылок вполне нормально. Но вот сайты с малым количеством страниц (100-200) и которые имеют такое же количество исходящих ссылок, будут явно заспамленными и вес передадут минимальный.

Базовая настройка плагина Винка закончена, теперь давайте перейдём к самой схеме фильтрации доноров.

Последовательность фильтрации площадок в Sape

Все эти действия, желательно выполнять последовательно, для экономии времени.

1. Проверка количества страниц в индексе

Проверка количества страниц в индексе

Первым делом надо удалить сайты под АГС или явно маленькие сайты которые в скором времени попадут под него, из-за продажи ссылок. В настройках у меня указан фильтр на 20 страниц в индексе.

Данные берутся по данным Sape, то есть эта проверка практически без полезна :), потому что система довольно редко обновляет статистику по добавленным сайтам. Но тем не менее, можно отсеять часть плохих сайтов.

2. Вторая проверка кол-ва страниц в индексе Яндекса

Вторая проверка кол-ва страниц в индексе Яндекса

На этом этапе, плагин уже берёт данные у Яндекса и мы уже точно сможет отсеять сайты под АГС.

3. Контроль URL страниц

Контроль URL страниц

Теперь видно страницы, на которых нежелательно покупать ссылки.

4. Проверка трафика по Alexa Rank

Проверка трафика по Alexa Rank

Удаляем площадки с очень маленьким трафиком. Если мало площадок вашей тематики, то можно пропустить этот шаг.

5. Исходящие ссылки с домена по Solomono

Исходящие ссылки с домена по Solomono

Удаляем площадки с большим количеством внешних ссылок, как уже писал выше – это значение условно и иногда приходится покупать без этой проверки, к примеру когда мало тематических доноров.

6. Объём текста и ссылки на странице

Объём текста и ссылки на странице

Проверяем на объём текста и количество внутренних и внешних ссылок. Сайты, которые не подходят под наши настройки – удаляем в Black List.

Основной "отсев" площадок закончен, после этих шести пунктов, отсеивается примерно 70-80% найденных сайтов, в зависимости от тематики.

Теперь, когда основная часть плохих площадок удалена, можно уже проверять страницы на индекс и дату сохранения.

7. Индекс и дата сохранения

Индекс и дата сохранения

Проверять на индекс страницу [YP] после этого не надо, потому что [YC] отмечает - проиндексирована страница или нет:

Индекс и дата сохранения

Вот и всё, после этих 7 пунктов проверки и фильтрации, у вас должны остаться только хорошие площадки, которые будут передавать ссылочный вес. Дальше надо уже визуально просматривать сайты и отсеивать то, что плагин пропустил.

Я описал всё это, с уклоном для продвижения в Яндексе, для Google можно проверять то же самое, только добавить проверку на «индексацию страницы» в Google и определение PR.

На этом всё, спасибо за внимание и не забывайте про ретвит 😉


Поделитесь записью:


Комментарии
  1. vegrecipes

    Спасибо, на самом деле качественная схема) Очень похожа на мою, за мелкими исключениями… Добавил в закладки, буду смотреть как шпаргалку))

  2. admin

    А текстовый фильтр TF почему не используешь? Также можно отсеять много мусора 😉

  3. admin

    Очень хорошая статья для молодых оптимизаторов, так как в сапе в основном 80-90% сайтов — шлак.

  4. Cospi

    Не знаю, как-то странно фильтровать разные сайты только по определённым словам. И могут ведь использоватся разные синонимы, окончания и.т.п., а плагин ищет только по точным вхождениям, которые указаны в настройках.

  5. admin

    Хорошо натолкнутся на хороший пост вовремя и в сапе отфильтровать нужные сайты

  6. admin

    А почему не покупаете с форумов? Я наоборот всегда рад купить тематичную ссылку с обсуждения какого-нибудь по той же теме.

  7. admin

    Я на форумах покупаю только тогда, когда тематических нормальных сайтов не остаётся и ссылок не хватает. А так вес они передают слабый из-за большого количества внутренних и внешних ссылок на форумах.
    А если наращивать ТИЦ, то вообще не советую покупать с форумов… очень плохой эффект.

  8. окна

    Почемуже плохо наращивается тиц с форумов? Скорость правда наращивания небольшая но стабильна.

  9. admin

    Спасибо за полезную статью. А я использую текстовый фильтр, не хочу покупать ссылки со страниц, где употребляют адалт слова.

  10. maxirk

    Пользуюсь фильтрами от Seowit Так же попробую вашу схему для следующего запроса..

  11. admin

    Спасибо за статью, разобрался успешно 🙂 Но осталось пару вопросов: Ты сразу все страницы с сайтов выводишь или сперва по одной, чтобы отсеять ГС, а потом уже выбирать страницу? «Сайты, которые не подходят под наши настройки — удаляем в Black List.» Каждый сайт в ручную в Black List пихать или есть массовое добавление?

  12. Cospi

    Всё что находит сапа по фильтру я дальше фильтрую плагином, в той последовательности, что описана в статье. Потому что так, можно максимально быстро отсеиваются плохие доноры.

    В GBL добавляю руками, может есть программы для массового добавления в «Чёрный список» (например CS Sape Master), но я ими не пользуюсь.

  13. admin

    Хорошая статья, некоторая информация оказалась полезной. Всегда пользуюсь плагином Винка, но никогда не настраивал проверку на «дату сохранения страницы в кэше Яндекса». Обычно если ссылки не индексировались больше 40 дней добавлял эти сайты в GBL.

  14. admin

    Спасибо за статью. Её можно распространять как руководство для работы с этим ссылочным монстром. А с учетом того что визард появился, так такие статьи на вес золота! Кстати стоило бы обновить кнопочки, вроде как они поменялись.

  15. admin

    Да, кнопки некоторые обновились. Я думаю проблем не будет найти новые кнопки.

  16. Сергей Медведев

    Спасибо за дельное руководство. Тоже подумываю над поднятие ТИЦ, хотя раньше как-то не парился…

  17. admin

    Также дл удобства рекомендую использовать программу Sape Master. При больших объемах значительно упрощает жизнь 🙂

  18. admin

    Спасибо за совет, но у меня объёмы не большие поэтому руками я справляюсь. А вот читателям может и пригодится!

  19. Николай Гуцан

    Можно еще добавить — ?limitstart= Джумловская постраничная шняга. Я фильтрую и индексацию по Гуглу, считаю это не лишним. И LI тоже в кассу, пусть не у всех, но…

  20. admin

    Здравствуйте. Спасибо огромное за пост. У меня, как у новичка в SEO, вот уже несколько дней — ваша статья, как 1я настольная книга;) Подскажите плз, не пойму как удалять url из результатов поиска Сапы. То есть, эти фильтры лишь помечают нежелательные урлы — а кнопи «удалить» нет, только «купить». Если руками в черный список помечать площадки — 1. это долго, 2. оно не удаляется сразу, только если повторно перезапустить, 3. уходит ведь вся площадка — а если в ней не все урлы «негодные». И получается, что нужно ручками снимать уйму галочек, чтоб выбрать только те, кот. хочешь купить((

  21. admin

    Кстати да, присоединяюсь к вопросу Ани. Как убрать из результатов отфильтрованные страницы, помеченные галочкой?

  22. Cospi

    Выделяете эти все сайты и нажимаете на кнопку «Добавить в BL», то есть добавляете все сайта в Чёрный список и они больше не будут показываться при следующих поисках сайтов в вашем проекте.

  23. admin

    Огромное спасибо автору за такую статью!!! В закладочки закинул, отличная инструкция!

  24. admin

    Нет такой кнопки, есть возможность только купить все выделенные ссылки. Как быть?

  25. Cospi

    Это кнопка не в плагине Винка, а в самой системе Sape — добавление сайтов в Black List (BL) после этого они не будут в поиске участвовать!

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *