Закрытие в robots.txt

Статус
В этой теме нельзя размещать новые ответы.

mall

Постоялец
Регистрация
23 Апр 2009
Сообщения
121
Реакции
17
привет всем, подскажите пожалуйста как закрыть в robots.txt страницы такого типа /test.html?cid=1320, /test.html?cid=1321 и т.д. а вот страницу /test.html оставить в выдаче?
 
как то так
Disallow: *?*

или так
Disallow: /test.html?*
 
  • Нравится
Реакции: mall
Да я вот тоже думал что так Disallow: /test.html?* но прочитав потом хелп яндекса что то засомневался )) Думал что по другому, на всякий случай наверное еще стоит allow: /test.html прописать может?
 
Clean-param: cid /test.html
 
Насколько знаю, "Clean-param" тянут далеко не все боты...
 
mall учти что таким образом:
Код:
Disallow: /test.html?*
ты заблокируешь всю ветку, что бы не находилось после символа "?"
 
mall учти что таким образом:
Код:
Disallow: /test.html?*
ты заблокируешь всю ветку, что бы не находилось после символа "?"

Но мне и надо всю ветку заблокировать, мне главное чтобы страница /test.html осталась
 
mall, по идее, Disallow: /test.html?* запрещает только если содержит знак вопроса. без вопроса не должно прятать, так как не подходит под регулярку
 
  • Нравится
Реакции: mall
что мешает воспользоваться Для просмотра ссылки Войди или Зарегистрируйся и проверить если есть сомнения
вообщем можешь так сделать
Даже и не знал про такой инструмент, круто спасибо. Disallow: /*cid не подойдет потому что есть адреса где присутствует cid а они нужны.
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху