Загрузка...
Загрузка...
Типичные ошибки в robots.txt, приводящие к потере индексации и трафика. Как избежать и исправить.
Подробное руководство по созданию и оптимизации robots.txt файлов. Настройка для различных CMS, лучшие практики и типичные ошибки. Практические примеры для веб-разработчиков и SEO-специалистов.
SEOГотовые примеры robots.txt для WordPress, 1С-Битрикс, Joomla и других CMS. Рекомендуемые директивы и настройка для SEO.
SEOРуководство по SEO мониторингу сайта. Какие показатели отслеживать, как автоматизировать проверки, как быстро реагировать на просадки позиций и трафика.
SEOТипичные ошибки sitemap.xml: неверный формат, битые ссылки, 404, лишние URL. Диагностика и пошаговое исправление.
Поделитесь с коллегами или изучите другие материалы блога
Robots.txt — простой файл, но ошибки в нём могут привести к тому, что поисковые роботы перестанут индексировать важные страницы или, наоборот, будут индексировать служебные разделы. В этой статье разберём семь наиболее опасных ошибок и способы их исправления.
User-agent: *
Disallow: /
Эта директива запрещает индексацию всего сайта. Роботы не будут краулить страницы.
Только для временного закрытия (например, на время разработки) или для служебных поддоменов (staging, test).
Удалите Disallow: / или замените на конкретные пути:
User-agent: *
Disallow: /admin/
Disallow: /temp/
Sitemap: https://example.com/sitemap.xml
User-agent: *
Disallow: /catalog/
Disallow: /product/
Если /catalog/ и /product/ — основные разделы сайта, они полностью исчезнут из индекса.
Disallow: /catalo/ вместо Disallow: /catalog/ — но тогда закрывается несуществующий путь)Проверьте структуру URL сайта. Закрывайте только служебные разделы: админка, поиск, корзина, личный кабинет, кэш.
Используйте Анализатор robots.txt reChecker — он покажет, какие пути будут запрещены или разрешены.
User-agent: *
Disallow: /*?*
Многие страницы используют query-параметры: фильтры, сортировка, пагинация, UTM. Паттерн /*?* закрывает все URL с параметрами.
?id=123 могут не индексироватьсяЗакрывайте только конкретные параметры:
Disallow: /*?*utm_
Disallow: /*?*sort=
Disallow: /*?*filter=
Или не закрывайте параметры вообще, если не уверены. Лучше использовать canonical для дублей.
User-agent: *
Disallow: /upload/
Disallow: /images/
Disallow: /media/
Для интернет-магазинов и контент-сайтов изображения важны для SEO (Google Images, карточки товаров).
Разрешите индексацию изображений:
Disallow: /upload/
Allow: /upload/iblock/
Allow: /upload/resize_cache/
Allow: /images/
Проверьте структуру: возможно, изображения лежат в /upload/ или /media/. Используйте Allow для нужных подпапок.
В robots.txt нет директивы Sitemap:.
Роботы не получают явный указатель на карту сайта. Индексация может быть медленнее, особенно для больших сайтов.
Добавьте в конец robots.txt:
Sitemap: https://example.com/sitemap.xml
Для нескольких sitemap:
Sitemap: https://example.com/sitemap_index.xml
Sitemap: https://example.com/sitemap-products.xml
Sitemap: https://example.com/sitemap-blog.xml
Disallow: /admin/disallow: /admin/ (должно быть Disallow)Disallow: /admin/ /temp/User-agent и его правилами (в некоторых парсерах может сломать группу)Согласно спецификации:
User-agent и Disallow/Allow — с заглавной буквы (хотя многие роботы нечувствительны к регистру)User-agent: *
Disallow: /admin/
Disallow: /temp/
Allow: /public/
Sitemap: https://example.com/sitemap.xml
User-agent: *
Disallow: /catalog/
Allow: /catalog/products/
Порядок важен. В стандарте robots.txt более специфичный путь имеет приоритет. Allow: /catalog/products/ должен разрешить доступ к /catalog/products/, даже если /catalog/ запрещён. Но не все роботы одинаково интерпретируют специфичность.
Более длинный путь обычно считается более специфичным. Allow: /catalog/products/ переопределяет Disallow: /catalog/ для Google.
Проверьте логику: если /catalog/ запрещён, а /catalog/products/ должен быть доступен — Allow должен идти после Disallow и быть более конкретным. Для проверки используйте Анализатор robots.txt reChecker.
Disallow: / (если сайт должен индексироваться)/*?*)Самые опасные ошибки — закрытие всего сайта (Disallow: /), важных разделов и изображений. Избегайте широких паттернов вроде /*?*, добавляйте Sitemap и проверяйте структуру через анализатор robots.txt. Небольшая ошибка может привести к потере значительной части индексации и трафика.