antares538
Создатель
- Регистрация
- 24 Июн 2009
- Сообщения
- 16
- Реакции
- 4
Ссылки от роботов можно закрыть в robot.txt. Напроимер так:Как убрать ссылки на служебые страницы в nofollow, noindex?
* Зарегистрироваться
* Вход с паролем
* Обратная связь
Сейчас они выводятся в container_topbar_left <!-- cpt_container_start -->
и внизу страницы
---------- Post added at 15:56 ---------- Previous post was at 14:21 ----------
Я победил этого монстра программистской мысли!!!
Полезная вещь для SEO: прячем ссылки на служебные страницы от поисковиков
в файле /published/SC/html/scripts/modules/test/class.test.php
ищем строку:
и добавляем необходимые теги: noindex, nofollowPHP:print '<li><a href="'.xHtmlSetQuery($page['ukey']?'?ukey='.$page['ukey']:'?did='.$page['id']).'">'.xHtmlSpecialChars($page['name']).'</a></li>';
В результате, все меню по типу
* Зарегистрироваться
* Вход с паролем
* Обратная связь
оказываются закрытыми для поисковиков.
User-agent: *
Disallow: /cgi-bin/
Disallow: /pricelist/
Disallow: /search/
Disallow: /*sort=*
Disallow: /auth/
Disallow: /cart/
Disallow: /checkout/
Disallow: /feedback/
Disallow: /installer/
Disallow: /login/
Disallow: /logout/
Disallow: /myaccount/
Disallow: /order_status/
Disallow: /published/wbsadmin/
Disallow: /register/
Disallow: /remind_password/
Disallow: /*view=*