CS-Cart 4.2.3 MultiVendor RU и Ultimate RU Nulled

Подскажите пожалуйста, как этот движок существует с поисковыми системами, моему магазину уже 2 месяца, а его нет в поисковиках(((
 
с поисковыми системами, моему магазину уже 2 месяца, а его нет в поисковиках(((
ключевые фразы - Robots.txt , sitemap , тэги/метатэги(ключевые слова) , создать аккаунты гугл вебмастер и янденкс вемастер, метрику подключить...и т.д.
 
Подскажите пожалуйста, как этот движок существует с поисковыми системами, моему магазину уже 2 месяца, а его нет в поисковиках(((
У меня давно был сайт на этом движке, не магазин а каталог делал, так вот больше 1.5 года прошло гугл мне до сих пор выдает "Не найдена страница" со старого сайта)))
 
У меня давно был сайт на этом движке, не магазин а каталог делал, так вот больше 1.5 года прошло гугл мне до сих пор выдает "Не найдена страница" со старого сайта)))
так надо было смотреть, по логам веб сервера - получают ли доступ к файлу robots.txt / sitemap поисковые роботы. Если этого не происходит, то и индексировать нечего.
также в инструментах гугл вебмастер по-моему, если память не изменяет, то можно принудительно посмотреть на сайт как гугл бот.
 
ключевые фразы - Robots.txt , sitemap , тэги/метатэги(ключевые слова) , создать аккаунты гугл вебмастер и янденкс вемастер, метрику подключить...и т.д.

аккаунты создал, вот мой файл Robots.txt
User-agent: *
Disallow: /app/
Disallow: /store_closed.html

это видит яндекс
 
аккаунты создал, вот мой файл Robots.txt
User-agent: *
Disallow: /app/
Disallow: /store_closed.html

это видит яндекс

исправил на, правильно?
User-agent: *

Disallow: /images/thumbnails/
Disallow: /skins/
Disallow: /payments/
Disallow: /store_closed.html
Disallow: /core/
Disallow: /lib/
Disallow: /install/
Disallow: /js/
Disallow: /schemas/
Disallow: /*currency=
Disallow: /*variant_id=
Disallow: /*display=
Disallow: /*page=
Disallow: /*return_url=
Disallow: /*dispatch=products.search
Disallow: /*more_filters=
Disallow: /*features_hash=
Disallow: /*subcats=
Disallow: /*sl=
Disallow: /*layout=
Disallow: /*sort_by=

Host: Для просмотра ссылки Войди или Зарегистрируйся адрес/
Sitemap: Для просмотра ссылки Войди или Зарегистрируйся адрес/sitemap.xml

User-agent: Googlebot

Disallow: /images/thumbnails/
Disallow: /skins/
Disallow: /payments/
Disallow: /store_closed.html
Disallow: /core/
Disallow: /lib/
Disallow: /install/
Disallow: /js/
Disallow: /schemas/
Disallow: /*currency=
Disallow: /*variant_id=
Disallow: /*display=
Disallow: /*page=
Disallow: /*return_url=
Disallow: /*dispatch=products.search
Disallow: /*more_filters=
Disallow: /*features_hash=
Disallow: /*subcats=
Disallow: /*sl=
Disallow: /*layout=
Disallow: /*sort_by=

User-agent: Yandex

Disallow: /images/thumbnails/
Disallow: /skins/
Disallow: /payments/
Disallow: /store_closed.html
Disallow: /core/
Disallow: /lib/
Disallow: /install/
Disallow: /js/
Disallow: /schemas/
Disallow: /*currency=
Disallow: /*variant_id=
Disallow: /*display=
Disallow: /*page=
Disallow: /*return_url=
Disallow: /*dispatch=products.search
Disallow: /*more_filters=
Disallow: /*features_hash=
Disallow: /*subcats=
Disallow: /*sl=
Disallow: /*layout=
Disallow: /*sort_by=
 
аккаунты создал, вот мой файл Robots.txt
User-agent: *
Disallow: /app/
Disallow: /store_closed.html

это видит яндекс
почитайте пожалуйста Для просмотра ссылки Войди или Зарегистрируйся там же про индексацию и добавление сайта. В гугл инструментах почти аналогично.
 
так надо было смотреть, по логам веб сервера - получают ли доступ к файлу robots.txt / sitemap поисковые роботы. Если этого не происходит, то и индексировать нечего.
также в инструментах гугл вебмастер по-моему, если память не изменяет, то можно принудительно посмотреть на сайт как гугл бот.

У меня с robots было все отлично, я говорю про то что страницы с сайта на движке cscart полтора года в базе уже сидят и по сей день пишет страница не найдена 404, хотя по идее должны быть удалены поисковиком давным давно.
 
После добавления, в веб мастере можно будет просматривать время послед посещения поисковым роботом вашего сайта. Также эти следы посещения останутся в логе вашего веб сервера.
Потом можно будет просматривать в вебмастере сколько страниц робот унес с собой.

У меня с robots было все отлично, я говорю про то что страницы с сайта на движке cscart полтора года в базе уже сидят и по сей день пишет страница не найдена 404, хотя по идее должны быть удалены поисковиком давным давно.
вам Для просмотра ссылки Войди или Зарегистрируйся

С Новым Годом!
 
Последнее редактирование модератором:
вам Для просмотра ссылки Войди или Зарегистрируйся
Зачем? мне это неинтересно, я сам знаю как удалить страницы, просто нет необходимости в этом, а написал я к тому что гугл проиндексировал сайт без проблем и не хочет даже выкидывать страницы по истечении большого срока времени учитывая 404 ошибку.
 
Назад
Сверху