robots.txt
Владимир, добрый день. И спасибо, что Вы с нами мучаетесь=)
Маленький вопрос, может у вас есть рыба robots.txt, где отсекаются все системные категории ..... типа
User-agent: * Crawl-delay: 8 Disallow: /cart/
....поиск...и так далее, системные категории.
для вашей темы prostore
Добавить ответ
Здравствуйте!
У меня подобной болванки нет.
Вы можете использовать официальную инструкцию Webasyst.
Обязательно прочитайте комментарии.
И можно в ваш robots.txt ещё добавить директиву: