Robots.txt у 2026: як створити, перевірити й не зламати індексацію
Практичний гід по robots.txt: що можна закривати, що не можна, чому robots не видаляє сторінки з Google і як зв'язати файл із sitemap.
Практичний гід по robots.txt: що можна закривати, що не можна, чому robots не видаляє сторінки з Google і як зв'язати файл із sitemap.
Дерево рішень robots.txt
Robots керує скануванням. Це не інструмент приватності або деіндексації.
Robots.txt — маленький файл із великим ризиком. Один рядок може закрити важливі сторінки від сканування, а інший — залишити в обході сміттєві фільтри, параметри й технічні розділи.
Головне правило: robots.txt керує скануванням, а не гарантованим видаленням URL із пошуку. Google прямо попереджає: не використовуйте robots.txt як спосіб сховати вебсторінки з результатів.
Що можна робити через robots.txt
| Завдання | Підходить robots.txt? | Коментар |
|---|---|---|
| Зменшити crawl waste | так | фільтри, параметри, службові папки |
| Закрити CSS/JS | зазвичай ні | Google має розуміти сторінку |
| Видалити сторінку з індексу | ні | потрібен noindex або видалення URL |
| Вказати sitemap | так | корисно для пошукових систем |
| Сховати приватні дані | ні | використовуйте авторизацію, не robots |
Базовий приклад
User-agent: *
Disallow: /wp-admin/
Disallow: /*?sort=
Allow: /wp-admin/admin-ajax.php
Sitemap: https://example.com/sitemap.xml
Перед публікацією перевірте, чи не закриваєте сторінки послуг, блог, зображення, CSS і JS, потрібні для рендерингу.
Типові помилки конкурентів
- закривають весь сайт рядком
Disallow: /; - блокують ресурси теми й ламають розуміння сторінки;
- закривають URL, але чекають, що вони зникнуть з індексу;
- забувають sitemap;
- не перевіряють robots після редизайну або міграції.
Наступний крок: якщо є сумніви, почніть із технічного аудиту, потім перевірте сайт в UNmiss і додайте sem.chat, щоб користувачі не губилися після переходу з пошуку.
Джерела
50+ mega-prompts для ChatGPT і Gemini: рутина SEO-спеціаліста у 2026
Практична бібліотека SEO-промптів для семантики, контенту, GEO, технічного аудиту, UX і конверсії з правилами перевірки результату.
Читати →Як перевірити текст на AI у 2026: ознаки, ризики і нормальний процес
Як відрізнити слабкий AI-текст від корисного матеріалу: ознаки генерації, перевірка фактів, E-E-A-T, редактура та вплив на SEO.
Читати →Як створювати контент для AI-відповідей: AEO та GEO-гід 2026
Як створювати сторінки, які можуть потрапляти в AI Overviews, ChatGPT, Gemini та інші системи відповідей: структура, джерела, сутності й UX.
Читати →Хочете застосувати це до свого сайту?
Розберемо поточну ситуацію, знайдемо перші точки зростання й запропонуємо формат роботи без зайвої теорії.