Robots.txt в 2026: как создать, проверить и не сломать индексацию
Практический гайд по robots.txt: что можно закрывать, что нельзя, почему robots не удаляет страницы из Google и как связать файл с sitemap.
Практический гайд по robots.txt: что можно закрывать, что нельзя, почему robots не удаляет страницы из Google и как связать файл с sitemap.
Дерево решений robots.txt
Robots управляет сканированием. Это не инструмент приватности или деиндексации.
Robots.txt — маленький файл с большим риском. Одна строка может закрыть важные страницы от сканирования, а другая — оставить в обходе мусорные фильтры, параметры и технические разделы.
Главное правило: robots.txt управляет сканированием, а не гарантированным удалением URL из поиска. Google прямо предупреждает: не используйте robots.txt как способ спрятать веб-страницы из результатов.
Что можно делать через robots.txt
| Задача | Подходит robots.txt? | Комментарий |
|---|---|---|
| Уменьшить crawl waste | да | фильтры, параметры, служебные папки |
| Закрыть CSS/JS | обычно нет | Google должен понимать страницу |
| Удалить страницу из индекса | нет | нужен noindex или удаление URL |
| Указать sitemap | да | полезно для поисковых систем |
| Скрыть приватные данные | нет | используйте авторизацию, не robots |
Базовый пример
User-agent: *
Disallow: /wp-admin/
Disallow: /*?sort=
Allow: /wp-admin/admin-ajax.php
Sitemap: https://example.com/sitemap.xml
Перед публикацией проверьте, не закрываете ли вы страницы услуг, блог, изображения, CSS и JS, которые нужны для рендеринга.
Типичные ошибки конкурентов
- закрывают весь сайт строкой
Disallow: /; - блокируют ресурсы темы и ломают понимание страницы;
- закрывают URL, но ждут, что они исчезнут из индекса;
- забывают sitemap;
- не проверяют robots после редизайна или миграции.
Следующий шаг: если есть сомнения, начните с технического аудита, затем проверьте сайт в UNmiss и добавьте sem.chat, чтобы пользователи не терялись после перехода из поиска.
Источники
50+ mega-prompts для ChatGPT и Gemini: рутина SEO-специалиста в 2026
Практическая библиотека SEO-промптов для семантики, контента, GEO, технического аудита, UX и конверсии с правилами проверки результата.
Читать →Как проверить текст на AI в 2026: признаки, риски и нормальный workflow
Как отличить слабый AI-текст от полезного материала: признаки генерации, проверка фактов, E-E-A-T, редактура и влияние на SEO.
Читать →Как создать контент для AI-ответов: AEO и GEO-гайд 2026
Как создавать страницы, которые могут попадать в AI Overviews, ChatGPT, Gemini и другие ответные системы: структура, источники, сущности и UX.
Читать →Хотите применить это к своему сайту?
Разберем текущую ситуацию, найдем первые точки роста и предложим формат работы без лишней теории.