скриптобратных ссылок, страницы вошли в индекс

Статус
В этой теме нельзя размещать новые ответы.
doxx, однозначно запрещать индексацию этих ссылок.
 
Всем спасибо за ответы,
как видно со дня темы прошло почти 2 месяца , запретил в роботсе эту попдаку со скриптом, результат такой, что всё так и осталось в индексе:(
Из-за чего такое может быть?
Плюс еще один момент, возможно связанный с этим, проверил сайт по "сайтурл" в гугле - выдало около 600 страниц,
добавил к запросу знак "&" - найдено 9 страниц! Я так понимаю это показывает сколько страниц в основном поиске, это что получается пятихатка страниц в соплях висит? Как быть?
Заранее говорю, что никаких "теговых" страниц, и тому подобного в индексе нет, на все что нужно,( технические страницы) стоит запрет индексации... Мог ли этот скрипт повлиять на гугл так? или это не связанные между собой вещи? Можно ли попасть в основном поиск теперь?
 
Всем спасибо за ответы,
как видно со дня темы прошло почти 2 месяца , запретил в роботсе эту попдаку со скриптом, результат такой, что всё так и осталось в индексе:(
Из-за чего такое может быть?
Плюс еще один момент, возможно связанный с этим, проверил сайт по "сайтурл" в гугле - выдало около 600 страниц,
добавил к запросу знак "&" - найдено 9 страниц! Я так понимаю это показывает сколько страниц в основном поиске, это что получается пятихатка страниц в соплях висит? Как быть?
Заранее говорю, что никаких "теговых" страниц, и тому подобного в индексе нет, на все что нужно,( технические страницы) стоит запрет индексации... Мог ли этот скрипт повлиять на гугл так? или это не связанные между собой вещи? Можно ли попасть в основном поиск теперь?

Та же фигня только цифры несколько иные. 10 и 2500.
При этом на сайте на самом деле порядка 800 страниц, из них около 400-500 - уникальные новости и статьи, остальное - форум, блоги и комментарии. Что-то бред выходит какой-то...
=(
 
Робот просматривает страницы если они изменились, т.е. параметр ласт модифед отличается от того, который был в базе у ПС. Если они не менялись он может не просматривать их.
Второй вариант поставить пару ссылок с блогов, что бы на страницы зашел быстро-робот и понял, что туда нос свой соввать нельзя.
И третий вариант: у яндекса и гугла есть сервисы в вебмастерах, позволяющие удалять страницы из индекса.
 
в чем проблема? в роботс вписываем Disallow: /links/


и вопрос решен )
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху