- Автор темы
- #1
При создании сайта немного "ступил" и не запретил индексацию динамических страниц в robots.txt. К тому времени, как до меня дошло, гугл успел проиндексировать 5000+ страниц, из которых 99% - динамический "мусор". Сейчас robots.txt уже поправлен, но из индекса гугля страницы не выкинулись.
Внимание, вопрос: достаточно ли запредить доступ робота к странице для удаления этой страницы из индекса, или все-таки надо править META robots на noindex, nofollow? (для этого придется затратить довольно много времени на переписывания скриптов сайта).
Внимание, вопрос: достаточно ли запредить доступ робота к странице для удаления этой страницы из индекса, или все-таки надо править META robots на noindex, nofollow? (для этого придется затратить довольно много времени на переписывания скриптов сайта).