
В статье рассказали что такое robots.txt и как его создать, зачем нужен, пробежались по синтаксису и приложили готовые примеры.
Содержание
Что такое robots.txt?
Robots.txt — это простой текстовый файл, расположенный в корневом каталоге веб-сайта, который служит руководством для автоматизированных программ, известных как веб-роботы или краулеры. Наиболее известными из таких программ являются поисковые роботы Googlebot (от Google) и YandexBot (от Яндекса). Основная функция этого документа — сообщать этим автоматическим посетителям, к каким разделам на сайте они могут или не могут обращаться для сканирования и последующей индексации. Протокол, который регулирует эти правила, называется «Стандарт исключения роботов» (Robots Exclusion Protocol). Важно понимать, что данный файл не является механизмом принуждения. Большинство добропорядочных и уважаемых поисковый роботов следуют указаниям, изложенным в robots txt, однако злонамеренные боты или сканеры безопасности могут их проигнорировать. Следовательно, это, в первую очередь, просьба, а не команда. Он идеально подходит для управления поведением «хороших» роботов, но для защиты действительно конфиденциальной информации следует использовать более надежные методы, такие как пароль или аутентификация. Сам он должен быть доступен для чтения любым поисковый, иначе тот, не найдя инструкций, может просканировать весь сайт по своему усмотрению.
Важный практический момент — robots.txt должен быть компактным. По данным Веб-альманаха за 2025 год 98% файлов robots.txt имеют размер до 100 КБ. А наиболее распространённый подход — общий набор директив для всех роботов. Универсальный User-agent: *встречается примерно на ~77% сайтов. Бльшинство предпочитают простую схему и это разумно: чем проще правила, тем меньше риск случайного закрытия важных разделов.
Не знаете с чего начать разработку приложения?
Расскажите нам о своей идее, а мы поможем воплотить её в жизнь и предложим оптимальное решение.

Зачем нужен robots.txt
Роль многогранна и выходит за рамки простого запрета на сканирование. Его правильное использование напрямую влияет на эффективность индексации и, как следствие, на видимость сайта в поисковых системах. Вот ключевые причины, зачем он нужен:
- Управление краулинговым бюджетом. Краулинговый бюджет — это количество страниц, которое поисковый робот может просканировать на вашем сайте за один сеанс. Если у вас крупный портал с тысячами URL, важно направить усилия на сканирование сайта и релевантных страниц, а не тратить его время на служебные файлы, параметры сортировки или страницы с дублирующимся контентом. Запрещая сканирование таких разделов через robots txt, вы экономите краулинговый бюджет для главного.
- Сокрытие служебного и технического контента. Многие разделы сайта, такие как панель администратора (/wp-admin/), служебные скрипты, папки с резервными копиями или результаты внутреннего поиска, не должны появляться в поисковой выдаче. Он позволяет эффективно скрыть их от индексации.
- Предотвращение индексации дублирующегося контента. Часто один и тот же контент может быть доступен по разным URL (например, при использовании параметров для сортировки товаров в интернет-магазине). Чтобы поисковый движок не рассматривал это как дубликаты, можно закрыть от сканирования технические версии страниц.
- Указание местоположения карты сайта (Sitemap). Одна из самых полезных директив — это Sitemap. Она сообщает, где находится XML-карта сайта, что ускоряет и упрощает процесс обнаружения и индексации новых страниц.
- Блокировка ресурсов. Хотя современные поисковый системы могут индексировать и отображать в поиске не только HTML-страницы, но и картинки, PDF-файлы и видео, иногда это нежелательно. С помощью robots.txt можно запретить сканирование определенных типов медиафайлов.
Правильный файл robots.txt: как создать
Создание корректного и работоспособного robots.txt — задача несложная, но требующая внимательности. Вот пошаговая инструкция:
- Выбор текстового редактора. Используйте простой текстовый редактор, такой как Блокнот (Windows) или TextEdit (в режиме plain text на Mac). Никогда не используйте текстовые процессоры вроде Microsoft Word, так как они могут добавить в него скрытое форматирование.
- Создайте новый документ и назовите его robots.txt. Регистр букв может иметь значение на некоторых серверах, поэтому предпочтительнее использовать нижний регистр.
- Написание правил. Внутри вы прописываете инструкции, используя специальный синтаксис. Каждая инструкция состоит из двух частей: директива и ее значение. Основные директива — User-agent и Disallow (запрет доступа). Группа правил для одного User-agent отделяется пустой строкой от следующей группы.
- Сохранение и кодировка. Сохраните его в кодировке UTF-8, чтобы избежать проблем с отображением специальных символов.
- Размещение на сайте. Загрузите готовый txt в корневую директорию вашего сайта с помощью FTP-клиента или менеджера вашего хостинга. После загрузки он должен быть доступен по адресу вашсайт.ru/robots.txt.
- Проверка доступности. Откройте браузер и перейдите по адресу, чтобы убедиться, что он загружается корректно и не выдает ошибку 404.
Пример самого простого, но уже рабочего txt, который разрешает сканирование всего сайта и указывает на карту сайта:
User-agent: *
Disallow:
Sitemap: https://вашсайт.ru/sitemap.xml
Пустая директива Disallow означает отсутствие запретов.
Синтаксис robots.txt - основные и дополнительные директивы, спецсимволы
Синтаксис файла robots.txt довольно прост, но он имеет свои нюансы. Понимание директива и спецсимволов — ключ к точному управлению.
Основные директивы:
- User-agent: Определяет, для какого предназначены следующие правила. Звездочка (*) означает всех роботов. Можно указывать конкретных, например, User-agent: Googlebot или User-agent: YandexBot.
- Disallow: Указывает путь или txt, который запрещено сканировать. Одна пустая строка Disallow: разрешает сканирование всего. Одна косая черта Disallow: / запрещает сканирование всего сайта.
- Allow: Эта директива позволяет явно разрешить сканирование пути, даже если он частично запрещен родительским правилом Disallow. Особенно полезна в сочетании с Disallow.
- Sitemap: Указывает полный URL карты сайта. Эту директива можно разместить в любом месте txt, но обычно ее ставят в конце.
Спецсимволы:
* (Звездочка): Обозначает любую последовательность символов. Используется в поле User-agent для обозначения всех роботов, а в полях Allow/Disallow — для указания шаблона пути. Например, Disallow: /*.jpg запретит сканирование всех JPG-файлов на сайте.
$ (Знак доллара): Обозначает конец строки. Используется для точного совпадения. Например, Disallow: /pdf$.html запретит только pdf.html, но не pdf-version.html.
Дополнительные директивы (поддерживаются не всеми):
- Crawl-delay: Указывает паузу (в секундах), которую робот должен выдерживать между загрузкой страниц. Это может быть полезно для снижения нагрузки на сервер. Однако крупные поисковики предпочитают, чтобы эту настройку задавали через их инструменты для веб-мастеров.
- Clean-param: Используется для указания параметров URL, которые не меняют содержание страницы (например, идентификаторы сессий). Эта директива помогает боту избегать сканирования дублирующегося контента. Поддерживается Яндексом.
Пример использования комбинаций:
User-agent: *
Disallow: /admin/
Disallow: /tmp/
Disallow: /*.pdf$
Allow: /public-*.pdf
Sitemap: https://site.ru/sitemap.xml
Примеры robots.txt для разных CMS
Разные системы управления контентом имеют свои особенности структуры, поэтому оптимальный robots.txt может незначительно отличаться.
- Пример для WordPress:
WordPress часто генерирует дублирующийся контент через теги, архивы и панель администратора. Стандартный txt для него может выглядеть так:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-login.php
Disallow: /wp-content/plugins/
Disallow: /*?*
Disallow: /search/
Allow: /wp-admin/admin-ajax.php
Sitemap: https://вашсайт.ru/sitemap_index.xml
Здесь мы закрываем служебные папки WordPress, параметры URL (чтобы избежать дублей) и страницу поиска. При этом мы разрешаем сканирование файла admin-ajax.php, который может быть важен для работы некоторых функций.
- Пример для Joomla:
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /logs/
Disallow: /tmp/
Sitemap: https://вашсайт.ru/sitemap.xml
Robots.txt или meta robots - что лучше?
Часто возникает вопрос: что эффективнее для управления индексацией — robots.txt или мета-тег robots? Ответ зависит от задачи, так как это инструменты с разным назначением.
Robots.txt управляет сканированием (краулингом). Он говорит: «Тебе нельзя заходить в эту комнату». Если путь запрещен в robots.txt, поисковый робот даже не загрузит и не проанализирует содержимое страницы. Это экономит трафик и краулинговый бюджет.
Мета-тег robots (например, <meta name="robots" content="noindex">) управляет индексацией. Он расположен в HTML-коде самой страницы и говорит: «Ты можешь зайти в эту комнату и посмотреть, что тут, но не записывай информацию о ней в свой каталог». Чтобы прочитать этот тег, он должен сначала загрузить страницу.
Когда использовать robots.txt:
- Для блокировки сканирования несущественных или служебных ресурсов (CSS, JS, картинки, панель админа).
- Для сохранения краулингового бюджета на больших сайтах.
- Когда вы не хотите, чтобы страница вообще была загружена роботом.
Когда использовать meta robots:
- Когда нужно запретить индексацию конкретной страницы, но при этом позволить роботу переходить по ссылкам на ней (с помощью nofollow).
- Когда вы хотите, чтобы поисковый робот увидел страницу (например, для перехода по ссылкам), но не добавлял ее в поисковую выдачу.
Проверка robots.txt - инструменты
После создания или редактирования файла robots.txt критически важно проверить его на ошибки. Неправильная директива может случайно заблокировать весь сайт для поисковых систем.
- Инструменты для веб-мастеров от Google и Яндекс.
- Google Search Console: В разделе «Особенности» -> «Файл robots.txt» находится удобный валидатор. Он показывает текущую версию файла, подсвечивает синтаксические ошибки и позволяет тестировать URL на доступность для робота Googlebot.
- Яндекс.Вебмастер: Аналогичный функционал предоставляет Яндекс. В разделе «Инструменты» -> «Анализ robots.txt» можно проверить ваш файл на ошибки и протестировать доступность конкретных страниц для Яндекса.
- Онлайн-валидаторы. Существует множество сторонних сервисов, которые могут проверить синтаксис вашего robots txt. Они полезны для быстрой первичной проверки.
- Ручная проверка в браузере. Просто откройте адрес вашсайт.ru/robots.txt в браузере, чтобы убедиться, что файл доступен и его содержимое отображается корректно.
- Проверка краулинга. Используя симулятор в Google Search Console, введите URL важных страниц вашего сайта и убедитесь, что они не заблокированы правилами robots.txt. Это поможет избежать случайных ошибок, которые могут «выключить» ключевой раздел из поиска.
Регулярный аудит этого файла должен быть частью рутинного технического обслуживания любого сайта.
В заключении
Файл robots.txt — это небольшой, но мощный инструмент, который лежит в основе грамотной технической оптимизации любого веб-ресурса. Он выступает мостом между владельцем сайта и бесчисленной армией поисковый роботов, позволяя на понятном им языке направлять их усилия в нужное русло. Как мы выяснили, основная задача этого файла — не запрещать, а рационально управлять: краулинговым бюджетом, индексацией служебного контента и доступом к ресурсам. Создание правильного robots txt не требует глубоких programming-знаний, но нуждается в аккуратности и понимании базового синтаксиса директива. Используйте готовые примеры для вашей CMS как основу, но всегда адаптируйте их под уникальную структуру своего проекта. Не забывайте, что этот файл — лишь один из элементов комплексной SEO-стратегии, и его следует использовать в связке с другими методами, такими как мета-теги и карта сайта. Регулярная проверка и обновление robots.txt с помощью специализированных инструментов от Google и Яндекса гарантирует, что ваш сайт будет сканироваться и индексироваться максимально эффективно, что в конечном итоге положительно скажется на его видимости и посещаемости.

Автор текста
Николай Гаевой, фронтенд-разработчик




