Как удалить из кэша Яши страницы?

Статус
В этой теме нельзя размещать новые ответы.

danneo

Честный
Регистрация
13 Ноя 2007
Сообщения
1.527
Реакции
121
Случилась такая ерунда:
переносил сайты на другой хостинг. Два сайта на ДЛЕ. Случайно дамп от одного сайта залил на другой. И на сайте был контент с другого сайта несколько дней. Базу, разумеется заменил.
Яндекс страницы проиндексировал. Теперь висят в кэше.
Написал в сапорт, что так вот произошло, что с Яши посетителей вообще нет на сайте. Попросили запросы, по которым раньше заходили пользователи. Уже давненько ни ответа, ни привет от сапорта.
Можно как-то удалить их из кэша? А то уже долго висят-то. А Яша переиндексировать восстановленный сайт не хочет.
 
Для удаления необходимо, чтобы при запросе указанного URL сервер возвращал код ошибки 404 или индексирование страницы было запрещено в файле robots.txt, либо метатегом noindex.
Через Для просмотра ссылки Войди или Зарегистрируйся
 
У меня была похожая ситуация, была закэширована старая версия сайта.
В общем боролся каким способом, отлавливал в Я.Вебмастер старые ссылки и делал редирект на новые страницы.
Тех страниц которых не было в новой версии, блокировал индексацию в robots.txt

Правда пришлось подождать, после нескольких апдейтов яши все стало ОК
 
Последнее редактирование:
пишет, что сайт не отдает 404, а значит нет повода удалять...
Я Вам написал 3 условия в которых есть волшебное условие "ИЛИ"!!!
Хотя 404 можно делать искусственно (как, написал оппонент выше).
 
а может быть есть софтина для сбора url из результата поиска? А то страниц много. Ручками некогда собирать... я бы этот список в noindex занес
 
а может быть есть софтина для сбора url из результата поиска? А то страниц много. Ручками некогда собирать... я бы этот список в noindex занес
noindex будет мало, уже давно ходят слухи, что noindex тоже индексируется поисковиками. Так что тебе надо будет конкретно или блокировать в robots.txt или делать редирект.

У тебя подключен Яндекс.Вебмастер? там из статистики можно получить полный список страниц сайта, которые проиндексированы. Далее его можно экспортировать.
Можно и софтом... думаю для этих целей подойдет любой связанный с SEO. Я к примеру использую SEO PowerSuite. Указываешь адрес сайта, а дальше он сам ищет.
 
noindex будет мало, уже давно ходят слухи, что noindex тоже индексируется поисковиками. Так что тебе надо будет конкретно или блокировать в robots.txt или делать редирект.
У тебя подключен Яндекс.Вебмастер? там из статистики можно получить полный список страниц сайта, которые проиндексированы. Далее его можно экспортировать.
ну да, я имел в виду robots.txt
но не могу найти кнопку экспорта списка в вебмастере :)
 
а может быть есть софтина для сбора url из результата поиска? А то страниц много. Ручками некогда собирать... я бы этот список в noindex занес
Вы имеете в виду метатег ноиндекс?

Не проще, просто отдавать 404 по всем урлам которых нету в базе сайта? И они вылетят достаточно быстро. И собирать урлы не придётся, тем более что они в перемешку с новыми будут. А если в индексе только ненужные страницы - можно весь сайт закрыть от индексации: Disallow: /
и сами страницы удалить, через неск апов вылетят из индекса. если боты редко сайт посещают, то простимулировать посещение этих страниц ссылками с твиттера и я.ру
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху