Ще немає — додайте з наведеного списку.

Ресторан, подорожі, оренда…
Організуйте групові витрати з гнучкістю електронної таблиці.
Файл robots.txt вказує краулерам, які частини сайту вони повинні відвідувати, пропускати або обробляти за спеціальними правилами перед початком отримання сторінок.
Цей інструмент дозволяє вибрати стандартну політику краулінгу, додати явні дозволи та заборони, встановити необов'язкову затримку краулінгу та додати директиви карти сайту або хоста без написання файлу вручну.
Robots.txt є директивою для краулінгу, а не системою контролю доступу, тому чутливий вміст все ще слід захищати за допомогою аутентифікації або інших обмежень на стороні сервера.
Різні краулери підтримують різні директиви. Наприклад, директива хоста не є універсальною, а затримка краулінгу може ігноруватися деякими ботами, тому завжди перевіряйте свої остаточні правила на краулерах, які вас цікавлять.

У нас є більше утиліт для вас...
Виберіть кілька утиліт і додайте їх на панель приладів.