Закрыть от индексации страницы

TYMON_krot

Постоялец
Регистрация
18 Авг 2017
Сообщения
77
Реакции
9
Здравствуйте. У меня есть куча страниц с пагинацией которые я бы хотел закрыть от индексации (так надо), вот пример:

Для просмотра ссылки Войди или Зарегистрируйся
Для просмотра ссылки Войди или Зарегистрируйся

и т.д.

Подскажите, пожалуйста, как закрыть от индексации все страницы со словом results?

Вот так помогло:

Disallow: */results
 
Последнее редактирование:
WP
PHP:
/**
 * Закрытие страниц пагинации от индексирования
 */
add_action( 'wpseo_head', 'art_noindex_paged', 0 );
function art_noindex_paged() {

	if ( is_paged() ) {
		add_filter( 'wpseo_canonical', '__return_false' ); // отключаем канонические ссылки
		add_filter( 'wpseo_disable_adjacent_rel_links', '__return_true' );// отключаем теги prev|next
		echo '<meta name="robots" content="noindex,nofollow">';

	}
}
 
WP
PHP:
/**
* Закрытие страниц пагинации от индексирования
*/
add_action( 'wpseo_head', 'art_noindex_paged', 0 );
function art_noindex_paged() {

    if ( is_paged() ) {
        add_filter( 'wpseo_canonical', '__return_false' ); // отключаем канонические ссылки
        add_filter( 'wpseo_disable_adjacent_rel_links', '__return_true' );// отключаем теги prev|next
        echo '<meta name="robots" content="noindex,nofollow">';

    }
}
Так можно ведь просто закрыть в robots.txt все виды страниц пагинации, если у них есть признак по урлу.

например:
Disallow: /page/*
 
Так можно ведь просто закрыть в robots.txt все виды страниц пагинации, если у них есть признак по урлу.

например:
Disallow: /page/*
Закрытые в robots не является гарантией того, что они не будут проиндексированы, это рекомендация.
 
Закрытые в robots не является гарантией того, что они не будут проиндексированы, это рекомендация.

Почему нет? для нормальных поисковиков(Yandex, Google, Yahoo) эта рекомендация и есть гарантия, но есть еще куча непонятных, которые живут по своим правилам... (mail.ru, rambler например....)
 
Назад
Сверху