尚无 — 从下面的列表中添加。

Restaurant, travel, rentals…
Organize group expenses with the agility of a spreadsheet.
Robots.txt 文件告诉爬虫网站的哪些部分应该访问、跳过或在开始获取页面之前应用特殊规则。
此工具允许您选择默认的爬取策略,添加明确的允许和拒绝路径,设置可选的爬取延迟,并在不手动编写文件的情况下附加网站地图或主机指令。
Robots.txt 是一种爬取指令,而不是访问控制系统,因此敏感内容仍应通过身份验证或其他服务器端限制进行保护。
不同的爬虫支持不同的指令。例如,主机指令不是通用的,某些机器人可能会忽略爬取延迟,因此始终根据您关心的爬虫验证最终规则。

We got more utilities for you...
Select several utilities and put them in a dashboard.