Добавить комментарий
Нажимая кнопку «Отправить», я соглашаюсь с условиями обработки персональных данных и политикой конфиденциальности
17.11.2025
Robots.txt - это текстовый файл, который содержит параметры индексирования сайта для роботов поисковых систем. В robots.txt можно ограничить индексирование роботами страниц сайта, что может снизить нагрузку на сайт и ускорить его работу. Правильная настройка этого файла направляет поисковых ботов на важные страницы, не тратя время на технические и дублирующие разделы.
Robots.txt – это текстовый файл, который лежит в корне, главная задача которого сообщать поисковым системам, какие страницы/файлы можно сканировать, а какие запрещено. Большинство поисковых роботов (например, Googlebot и YandexBot) следуют указанным инструкциям, но некоторые, например, спам-боты, могут их игнорировать.
Когда поисковый робот заходит на сайт, он ищет файл по пути https://site.ru/robots.txt. Если файл найден, робот считывает из него директивы и следует им, прежде чем приступить к сканированию.
Файл robots.txt состоит из правил, каждый из которых начинается с директивы User-agent.
Правильно настроенный файл robots.txt это первый шаг на пути к эффективному управлению краулинговым бюджетом и индексацией. Давайте разберем, как создать файл robots.txt и настроить для самых популярных систем управления контентом (CMS).
Создание и настройка файла robots.txt не требует специальных навыков. Следует придерживаться следующих правил:
В первой строке всегда указывайте User-agent. Далее, на новой строке, прописывайте Disallow или Allow для каждого правила. Каждая директива располагается на отдельной строке. Значение правила Disallow/Allow должно начинаться либо с символа /, либо с *.
Строки, начинающиеся с символа # считаются комментариями и не учитываются User-agent.
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /cart/
Sitemap: https://domain.ru/sitemap.xml
В примере выше мы запретили ПС сканировать папки cgi-bin, tmp и cart, так как они содержат служебную информацию и не несут ценности для пользователей.
Для популярных систем управления сайтом, таких как WordPress, 1С-Битрикс, Joomla, Drupal, Tilda, ModX и OpenCart, есть стандартные рекомендации, которые помогают закрыть от индексации служебные файлы и папки.
WordPress по умолчанию создаёт много технических страниц и файлов, которые не должны быть в индексе.
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/themes/
Disallow: /wp-json/
Disallow: /*?*
Disallow: /author/
Disallow: /tag/
Disallow: */feed/
Sitemap: https://domain.ru/sitemap.xml
Система 1С-Bitrix имеет свои стандартные служебные папки, которые необходимо закрыть.
User-agent: *
Disallow: /bitrix/
Disallow: /upload/
Disallow: /404.php
Disallow: /auth/
Disallow: /*?logout=yes
Sitemap: https://domain.ru/sitemap.xml
Joomla также создаёт много служебных URL, которые необходимо закрывать.
User-agent: *
Disallow: /index.php?option=com_
Disallow: /component/
Disallow: /plugins/
Disallow: /modules/
Disallow: /templates/
Sitemap: https://domain.ru/sitemap.xml
User-agent: *
Disallow: /core/
Disallow: /modules/
Disallow: /themes/
Disallow: /sites/all/
Sitemap: https://domain.ru/sitemap.xml
OpenCart популярный движок для интернет-магазинов, где важно закрыть страницы корзины, авторизации и служебные разделы.
User-agent: *
Disallow: /index.php?route=checkout/
Disallow: /index.php?route=account/
Disallow: /index.php?route=product/search
Disallow: /admin/
Sitemap: https://domain.ru/sitemap.xml
Tilda это конструктор сайтов, который автоматически создает robots.txt. В большинстве случаев он уже оптимизирован.
User-agent: *
Disallow: /tilda/
Disallow: /system/
Disallow: /project/
Sitemap: https://domain.ru/sitemap.xml
Laravel — это фреймворк, и у него нет стандартных служебных папок, как у CMS. Robots.txt для Laravel обычно зависит от конкретной реализации, но есть и общие рекомендации.
User-agent: *
Disallow: /storage/
Disallow: /routes/
Disallow: /vendor/
Sitemap: https://domain.ru/sitemap.xml
User-agent: *
Disallow: /core/
Disallow: /assets/components/
Disallow: /connectors/
Disallow: /manager/
Sitemap: https://domain.ru/sitemap.xml
Многие
Googlebot:
YandexBot:
Пример использования Clean-param: Clean-param: sort_by&color&price /catalog/. Это правило говорит Яндексу, что страницы с параметрами сортировки, цвета и цены не являются уникальными, и ему не нужно их сканировать.
Генераторы robots.txt — это онлайн-сервисы, которые автоматически создают файл robots.txt и подходят для новичков, которым нужно быстро создать базовый набор правил, чтобы избежать хаотичной индексации.
Но есть и минусы: генераторы не учитывают особенности вашего сайта, они создают стандартные правила, которые могут быть неэффективны или даже навредить.
Эти инструменты можно использовать как черновик, но финальную версию robots.txt нужно проверять вручную и корректировать. Для профессиональной настройки лучше писать директивы самостоятельно с нуля.
Некорректная настройка robots.txt может привести к тому, что сайт или его важные страницы пропадут из поисковой выдачи.
Ошибка 1: Закрыть от сканирования, но не закрыть от индексации
ошибочно думать, что директива Disallow полностью закрывает страницу от индексации поисковых систем. На самом деле, она лишь запрещает роботу сканировать контент, но не мешает индексировать URL.
Если на страницу, закрытую с помощью Disallow, есть ссылки с других сайтов, Google может отразить в индексе её. В результате, URL появится в поисковой выдаче, но без заголовка и описания.
Для надёжного закрытия страницы от индексации используйте метатег
noindex. Он должен быть размещён
в <head> страницы.
Пример:
<meta name="robots" content="noindex, follow">
Это говорит роботу: «Не индексируй эту страницу, но можешь следовать по ссылкам, которые на ней размещены».
Ошибка 2: Синтаксические недочеты
Файл robots.txt чувствителен к синтаксису: опечатка или дополнительный пробел могут привести к тому, что весь файл будет проигнорирован:
Используйте официальные валидаторы. Это самые надёжные инструменты для проверки синтаксиса.
Ошибка 3: Файл недоступен для роботов
Если робот не может получить доступ к файлу robots.txt, он будет сканировать весь сайт:
Убедитесь, что файл доступен по пути https://domain.ru/robots.txt и что сервер возвращает ответ 200 OK.
Чтобы избежать ошибок, используйте официальные инструменты:
Работа с указанными инструментами должна стать вашей привычкой при взаимодействии с robots.txt.
1. robots.txt нужен для каждого сайта?
Да. Даже если вы хотите, чтобы все страницы были проиндексированы, лучше создать пустой файл robots.txt или
указать в нём только путь к Sitemap. Это избавит
2. Можно ли закрыть сайт от индексации только с помощью robots.txt?
Нет. robots.txt не даёт 100% гарантии. Если на закрытую с помощью Disallow страницу есть ссылки с других сайтов, Google может отразить в индексе её. Для закрытия страницы от индексации нужно использовать метатег noindex или пароль.
3. Что будет, если robots.txt отсутствует?
Если файл robots.txt отсутствует, роботы будут сканировать весь сайт, включая те страницы, которые не предназначены для индексации. Это может привести к потере краулингового бюджета и индексации мусорных страниц.
4. Как быстро учитываются изменения в robots.txt?
Изменения вступают в силу в течение 48 часов, но процесс может занять и больше времени, в зависимости от активности роботов на вашем сайте.
5. Влияет ли robots.txt на скорость загрузки сайта?
Нет, файл robots.txt загружается моментально и не оказывает никакого влияния на скорость загрузки сайта.
6. Влияет ли robots.txt на SEO-позиции?
Напрямую — нет, но правильная настройка помогает управлять краулинговым бюджетом и избегать дублей, что косвенно влияет на ранжирование и формирует фундамент для успешного SEO-продвижения.
7. Можно ли в robots.txt запретить сканировать файлы?
Да. Вы можете запретить сканирование отдельных файлов, используя их расширения, например, Disallow: /*.png.
16.01.2021
Что такое и как работает контекстная реклама Я.Директ и Google Adwords? Современная контекстная реклама в 2022 году. Понятия, виды, принципы контекста, правила и особенности размещения!
Читать далее11.01.2022
Подробная пошаговая инструкция по самостоятельной SEO-оптимизации сайта (внутренняя и внешняя оптимизация, описание процесса раскрутки сайта, особенности продвижения).
Читать далее14.10.2019
Правила оформления сайтов стоматологических клиник - статьи от компании Intelsib.
Читать далее17.11.2025
Sitemap XML – файл который содержит ссылки на страницы сайта и сообщает о них поисковым системам. Он должен находиться в корне сайта site.ru/sitemap.xml.
Читать далее05.03.2015
Поисковое продвижение сайта в Яндексе в ТОП-10 с гарантией. Эффективная раскрутка сайтов на Яндекс - цены от 100 руб.
Читать далее12.12.2013
Продвижение сайтов туристической тематики. Этапы раскрутки сайтов, посвященных туризму. Средства привлечения дополнительных клиентов на сайты по туризму.
Читать далееНажимая кнопку «Отправить», я соглашаюсь с условиями обработки персональных данных и политикой конфиденциальности
Оставьте заявку На продвижение и получите нашу книгу в подарок
Наш менеджер свяжется с вами в течение часа, уточнит детали и ваши цели. Затем технические специалисты подберут запросы и разработают стратегию продвижения вашего сайта.
В подарок вы получите бумажную версию нашей книги про
Книга одобрена Министерством образования и науки РФ и является официальным пособием в 24 вузах страны, в том числе в нашем родном НГУ.
Нажимая кнопку «Получить предложение и книгу», я соглашаюсь с условиями обработки персональных данных и политикой конфиденциальности
Укажите сайт и контактные данные, наш
Нажимая кнопку , я соглашаюсь с условиями обработки персональных данных и политикой конфиденциальности