Загрузка...
Загрузка...
Нашли баг, сбой или ошибку в работе reChecker? Есть предложение по улучшению? Напишите нам, чтобы мы проверили и исправили проблему в сервисе.
Типичные ошибки в robots.txt, приводящие к потере индексации и трафика. Как избежать и исправить.
Быстрые определения и связанные понятия из SEO-глоссария reChecker.
Robots.txt — текстовый файл в корне сайта, управляющий доступом поисковых роботов к страницам. Узнайте как правильно настроить robots.txt для SEO.
Читать в глоссарии →XML Sitemap — файл со списком всех страниц сайта в формате XML. Помогает поисковым роботам быстрее находить и индексировать страницы.
Читать в глоссарии →Sitemap (карта сайта) — XML-файл, перечисляющий все страницы сайта для поисковых роботов. Узнайте как создать и проверить sitemap.xml.
Читать в глоссарии →Пагинация — разбивка контента на страницы (/page/2, ?page=2). Важно правильно настроить canonical и ссылки чтобы пагинированные страницы не мешали SEO.
Читать в глоссарии →Подробное руководство по битым ссылкам: влияние на SEO, поиск 404 ошибок, инструменты проверки и методы исправления. Практические советы для вебмастеров.
SEOПоиск дублированного контента на сайте. Причины появления дублей, инструменты диагностики, исправление через canonical и редиректы. Практическое руководство.
SEOПошаговое руководство по исправлению ошибок SEO аудита: редиректы, битые ссылки, мета-теги, скорость загрузки. Практические инструкции и приоритизация.
SEOГотовые примеры robots.txt для WordPress, 1С-Битрикс, Joomla и других CMS. Рекомендуемые директивы и настройка для SEO.
Поделитесь с коллегами или изучите другие материалы блога
Robots.txt — простой файл, но ошибки в нём могут привести к тому, что поисковые роботы перестанут индексировать важные страницы или, наоборот, будут индексировать служебные разделы. В этой статье разберём семь наиболее опасных ошибок и способы их исправления.
User-agent: *
Disallow: /
Эта директива запрещает индексацию всего сайта. Роботы не будут краулить страницы.
Только для временного закрытия (например, на время разработки) или для служебных поддоменов (staging, test).
Удалите Disallow: / или замените на конкретные пути:
User-agent: *
Disallow: /admin/
Disallow: /temp/
Sitemap: https://example.com/sitemap.xml
User-agent: *
Disallow: /catalog/
Disallow: /product/
Если /catalog/ и /product/ — основные разделы сайта, они полностью исчезнут из индекса.
Disallow: /catalo/ вместо Disallow: /catalog/ — но тогда закрывается несуществующий путь)Проверьте структуру URL сайта. Закрывайте только служебные разделы: админка, поиск, корзина, личный кабинет, кэш.
Используйте Анализатор robots.txt reChecker — он покажет, какие пути будут запрещены или разрешены.
User-agent: *
Disallow: /*?*
Многие страницы используют query-параметры: фильтры, сортировка, пагинация, UTM. Паттерн /*?* закрывает все URL с параметрами.
?id=123 могут не индексироватьсяЗакрывайте только конкретные параметры:
Disallow: /*?*utm_
Disallow: /*?*sort=
Disallow: /*?*filter=
Или не закрывайте параметры вообще, если не уверены. Лучше использовать canonical для дублей.
User-agent: *
Disallow: /upload/
Disallow: /images/
Disallow: /media/
Для интернет-магазинов и контент-сайтов изображения важны для SEO (Google Images, карточки товаров).
Разрешите индексацию изображений:
Disallow: /upload/
Allow: /upload/iblock/
Allow: /upload/resize_cache/
Allow: /images/
Проверьте структуру: возможно, изображения лежат в /upload/ или /media/. Используйте Allow для нужных подпапок.
В robots.txt нет директивы Sitemap:.
Роботы не получают явный указатель на карту сайта. Индексация может быть медленнее, особенно для больших сайтов.
Добавьте в конец robots.txt:
Sitemap: https://example.com/sitemap.xml
Для нескольких sitemap:
Sitemap: https://example.com/sitemap_index.xml
Sitemap: https://example.com/sitemap-products.xml
Sitemap: https://example.com/sitemap-blog.xml
Disallow: /admin/disallow: /admin/ (должно быть Disallow)Disallow: /admin/ /temp/User-agent и его правилами (в некоторых парсерах может сломать группу)Согласно спецификации:
User-agent и Disallow/Allow — с заглавной буквы (хотя многие роботы нечувствительны к регистру)User-agent: *
Disallow: /admin/
Disallow: /temp/
Allow: /public/
Sitemap: https://example.com/sitemap.xml
User-agent: *
Disallow: /catalog/
Allow: /catalog/products/
Порядок важен. В стандарте robots.txt более специфичный путь имеет приоритет. Allow: /catalog/products/ должен разрешить доступ к /catalog/products/, даже если /catalog/ запрещён. Но не все роботы одинаково интерпретируют специфичность.
Более длинный путь обычно считается более специфичным. Allow: /catalog/products/ переопределяет Disallow: /catalog/ для Google.
Проверьте логику: если /catalog/ запрещён, а /catalog/products/ должен быть доступен — Allow должен идти после Disallow и быть более конкретным. Для проверки используйте Анализатор robots.txt reChecker.
Disallow: / (если сайт должен индексироваться)/*?*)Самые опасные ошибки — закрытие всего сайта (Disallow: /), важных разделов и изображений. Избегайте широких паттернов вроде /*?*, добавляйте Sitemap и проверяйте структуру через анализатор robots.txt. Небольшая ошибка может привести к потере значительной части индексации и трафика.