Nessuno ancora — aggiungi dall'elenco qui sotto.

Ristorante, viaggi, noleggi…
Organizza le spese di gruppo con l'agilità di un foglio di calcolo.
Un file robots.txt indica ai crawler quali parti di un sito devono visitare, saltare o trattare con regole speciali prima di iniziare a recuperare le pagine.
Questo strumento ti consente di scegliere una politica di scansione predefinita, aggiungere percorsi espliciti di autorizzazione e divieto, impostare un ritardo di scansione opzionale e aggiungere direttive sitemap o host senza scrivere il file a mano.
Robots.txt è una direttiva di scansione, non un sistema di controllo accessi, quindi i contenuti sensibili devono comunque essere protetti con autenticazione o altre restrizioni lato server.
Diversi crawler supportano direttive diverse. Ad esempio, la direttiva host non è universale e il ritardo di scansione potrebbe essere ignorato da alcuni bot, quindi valida sempre le tue regole finali contro i crawler che ti interessano.

Abbiamo più utilità per te...
Seleziona più utilità e mettile in un dashboard.