
TikTok розширює можливості Smart+ Catalog Ads: підтримка сайтів і додатків

Microsoft Advertising запроваджує обов’язковий Consent Mode з травня

Поради Google щодо SEO для кращого ранжування – Search Central Live NYC
5 хвилин
Від блокування небажаних ботів до точного налаштування доступу — robots.txt відіграє ключову роль у SEO. Дізнайтеся, як ефективно ним користуватися.
Robots.txt — це набір інструкцій для веб-сканерів, який вказує, що вони можуть і не можуть робити на вашому сайті.
Він допомагає приховати певні частини сайту або уникати індексації непотрібних сторінок. Завдяки цьому можна покращити SEO та забезпечити стабільну роботу сайту.
Створити robots.txt досить просто. Він використовує основні команди для керування тим, як сканери взаємодіють із сайтом.
Основні команди:
Ось два базових приклади використання robots.txt:
Цей файл дозволяє всім ботам сканувати весь сайт:
User-agent: *
Disallow:
А цей — забороняє доступ до папки “Keep Out”:
User-agent: *
Disallow: /keep-out/
Також можна заборонити доступ окремим ботам:
User-agent: Googlebot
Disallow: /
Цей приклад повністю забороняє Googlebot індексувати сайт (що не рекомендується, але показує принцип роботи).
Як видно з прикладів, символ “*” дозволяє створювати гнучкі правила. Він застосовується до багатьох ботів або сторінок без потреби вказувати їх окремо.
Якщо потрібно заблокувати не всю папку, а лише окремі сторінки, можна зробити так:
User-agent: *
Disallow: /keep-out/file1.html
Disallow: /keep-out/file2.html
Так ви збережете доступність важливого контенту.
Раніше була доступна лише команда Disallow, і Google застосовував найсуворіші правила у файлі.
Тепер з’явилася команда Allow, що дає більше гнучкості у налаштуванні доступу.
Наприклад, щоб дозволити ботам індексувати лише папку “Important”, а решту сайту заблокувати:
User-agent: *
Disallow: /
Allow: /important/
Можна поєднувати команди для створення складних правил:
User-agent: *
Disallow: /private/
Allow: /private/public-file.html
Це дозволяє залишити доступними лише певні файли.
Іноді потрібні складніші налаштування. Наприклад, якщо сайт генерує дублі через параметри URL, можна використати robots.txt для їх виключення:
User-agent: *
Disallow: /*?*
Або, якщо на сайті з’являються випадкові низькоякісні URL, можна заблокувати всі папки, крім потрібних:
User-agent: *
Disallow: /
Allow: /essential-content/
Allow: /valuable-content-1/
Allow: /valuable-content-2/
Коментарі (позначаються знаком #) допомагають зробити файл більш зрозумілим. Наприклад, можна додати дату останнього оновлення:
#robots.txt для www.example-site.com – оновлено 22.03.2025
User-agent: *
#Забороняємо низькоякісний контент
Disallow: /bogus-folder/
Щоб запобігти перевантаженню сервера, можна встановити затримку між запитами ботів:
User-agent: *
Crawl-delay: 10
Це просить ботів чекати 10 секунд між запитами.
Google і Bing рекомендують надсилати XML-карту сайту через відповідні сервіси. Але можна також додати її у robots.txt:
User-agent: *
Disallow:
Sitemap: https://www.my-site.com/sitemap.xml
Головне — вказати повний URL.
Загалом, файл robots.txt слід тримати простим. Проте сучасні оновлення зробили його потужним інструментом для керування доступом ботів.
Щоб дізнатися більше, перегляньте ці матеріали від Google Search Central:
Ця стаття доступна англійською мовою.
Якщо ви знайшли помилку, будь ласка, виділіть фрагмент
тексту та натисніть Ctrl+Enter. Дякуємо!
performance_marketing_engineers/
performance_marketing_engineers/
performance_marketing_engineers/
performance_marketing_engineers/
performance_marketing_engineers/
performance_marketing_engineers/
performance_marketing_engineers/
performance_marketing_engineers/
Послуги digital маркетингу для середнього та великого бізнесу. Digital стратегія. Performance маркетинг. Веб-аналітика.
Ми зосереджені на створенні креативних стратегій, бренд-комунікацій, нестандартних механік і діджиталу.
School of Digital Advertising UAMASTER – навчаємо новим цифровим дисциплінам. Переходь на сайт і знайомся з програмою курсу "Digital маркетинг"
Професійне налаштування Google Analytics 4 Коректний збір даних в GA4. Зрозуміла та корисна звітність.