Генератор robots.txt
Створюйте robots.txt з кількома блоками user-agent, правилами Allow/Disallow, необов’язковими Crawl-delay, Host та рядками Sitemap. Попередній перегляд оновлюється під час введення.
Блоки User-agent
Загальні
Примітки:
Host враховують деякі сканери (наприклад, Yandex). Crawl-delay не використовується Google, але може використовуватись іншими. Підстановки * і $ широко підтримуються (не входять до основного RFC).
Попередній перегляд (robots.txt)
Тестер URL
Нагадування:
robots.txt є публічно доступним і слугує рекомендацією для добросовісних сканерів; це не механізм контролю доступу.
Коментарі (0)
Поділіться своєю думкою — будь ласка, будьте ввічливі та по темі.
Увійдіть, щоб коментувати