Nenhum ainda — adicione da lista abaixo.

Restaurante, viagem, aluguel…
Organize despesas do grupo com a agilidade de uma planilha.
Um arquivo robots.txt informa aos crawlers quais partes de um site eles devem visitar, pular ou tratar com regras especiais antes de começarem a buscar páginas.
Esta ferramenta permite que você escolha uma política de rastreamento padrão, adicione caminhos de permissão e negação explícitos, defina um atraso de rastreamento opcional e anexe diretivas de sitemap ou host sem precisar escrever o arquivo manualmente.
Robots.txt é uma diretiva de rastreamento, não um sistema de controle de acesso, portanto, conteúdo sensível ainda deve ser protegido com autenticação ou outras restrições do lado do servidor.
Diretivas diferentes são suportadas por diferentes crawlers. Por exemplo, a diretiva host não é universal e o crawl-delay pode ser ignorado por alguns bots, então sempre valide suas regras finais com os crawlers que você se importa.

Temos mais utilitários para você...
Selecione várias utilidades e coloque-as em um painel.