jabbaxatt
Добрый модератор
- Регистрация
- 21 Янв 2009
- Сообщения
- 902
- Реакции
- 432
- Автор темы
- #1
Аффилиатный фильтр яндекса.
Как я понимаю - это фильтр, который призван удалять из индекса все сайты сделанные одной конторой кроме одного, (имеется в виду сетка на одну тему и с пересекающимся ядром запросов). Все это делается ради того, чтобы выдача по определенному запросу не была забита сайтами одной конторы.
Пишут, что это очень старый фильтр Яши, значит должен быть хорошо изучен. Но нормальной информации не нашел ни на самом Яше ни в блогах.
Ранее не сталкивался, но сейчас идет работа над несколькими сайтами, и появилось подозрение, что эта проблема может вылезти.
- Цели "забить выдачу" своими сайтами у меня нет, скорее наоборот, нужно что-бы этого не было. Ключевики стараюсь делать разные и геозависимые. Все сайты будут иметь четкую географическую привязку (разные регионы).
- Контактная информация везде разная, названия тоже.
- Тематика почти некоммерческая(не магазины, не продажа товаров\услуг)
- Понятное дело, речь идет об СДЛ.
- Домены на мое имя все. Поскольку домены русские - не смотря на приват персон и разные мыльники и телефоны, Яша почти наверняка поймет что это сайты одного человека. (Ибо теперь я почти уверен, что русские регистраторы в Яндекс стучат).
- Будь моя воля, переликовал бы, прямо указав - вот еще наши сайты, но делать этого не буду исключительна по причине долбоящера Яндекса. Я к тому, что ничего криминального с точки зрения логики нет, а обосновать почему сайтов 20 а не 1 очень легко. Но обосновать можно человеку, а робот - это просто тупорылый робот, который логики не понимает.
Все что вычитал в сети:
Как я понимаю - это фильтр, который призван удалять из индекса все сайты сделанные одной конторой кроме одного, (имеется в виду сетка на одну тему и с пересекающимся ядром запросов). Все это делается ради того, чтобы выдача по определенному запросу не была забита сайтами одной конторы.
Пишут, что это очень старый фильтр Яши, значит должен быть хорошо изучен. Но нормальной информации не нашел ни на самом Яше ни в блогах.
Ранее не сталкивался, но сейчас идет работа над несколькими сайтами, и появилось подозрение, что эта проблема может вылезти.
- Цели "забить выдачу" своими сайтами у меня нет, скорее наоборот, нужно что-бы этого не было. Ключевики стараюсь делать разные и геозависимые. Все сайты будут иметь четкую географическую привязку (разные регионы).
- Контактная информация везде разная, названия тоже.
- Тематика почти некоммерческая(не магазины, не продажа товаров\услуг)
- Понятное дело, речь идет об СДЛ.
- Домены на мое имя все. Поскольку домены русские - не смотря на приват персон и разные мыльники и телефоны, Яша почти наверняка поймет что это сайты одного человека. (Ибо теперь я почти уверен, что русские регистраторы в Яндекс стучат).
- Будь моя воля, переликовал бы, прямо указав - вот еще наши сайты, но делать этого не буду исключительна по причине долбоящера Яндекса. Я к тому, что ничего криминального с точки зрения логики нет, а обосновать почему сайтов 20 а не 1 очень легко. Но обосновать можно человеку, а робот - это просто тупорылый робот, который логики не понимает.
Все что вычитал в сети:
Фильтр аффилиатных сайтов.
Это один из самых старых фильтров Яндекса и действует он весьма эффективно до сих пор. Что подразумевается под термином "аффилиатные сайты"? Тут речь идет о сайтах, которые принадлежат одному владельцу и продвигаются по одному (или реже - нескольким) ключевым словам. Поясним на примере. Допустим, существует фирма, которая продает кондиционеры (или другой популярный товар), директор же этой конторы заказывает десять сайтов с целью вывести их в топ по основному ключевому слову, что в результате существенно снизит конкуренцию (все посетители из топовой страницы будут приходить только в вышеназванную фирму через 10-ть топовых сайтов). В подобной ситуации включается алгоритм фильтровки аффилиатов - 10ть сайтов склеиваются в один и в выдаче появляется только тот, который поисковик считает наиболее релевантным. Конечно, пример, который мы привели, очень грубый, но, думается, вам стало понятно, в чем основной смысл фильтра. Еще следует заметить, что по имеющимся данным первыми в мире применили такое фильтрование на поисковике Yahoo еще в середине 90-х годов и, по всей видимости, аффилиатный фильтр - это один из дедушек интернета. Фильтр пытаются обойти разными способами - например, регистрацией аффилиатных сайтов на разные имена и т.п. Однако в целом - алгоритм фильтрации весьма технологичен и в 90% случаев справляется со своей работой на пять баллов. На сегодняшний день качественные афилиатные сайты заиметь весьма сложно.