Nedikoff
Создатель
- Регистрация
- 15 Авг 2009
- Сообщения
- 28
- Реакции
- 14
Может они не правильно прописаны?Недавно гугль индексировал даже страницы, которые запрещены в роботсе.. Сам заметил на 3 своих сайтах.. Сейчас вроде уже все норм
Для каждого порта должен быть создан собственный файл robots.txt.
Например если используются протоколы http и https, то для каждого протокола потребуются отдельные файлы robots.txt.