尚无 — 从下面的列表中添加。

餐厅、旅行、租赁…
用电子表格的灵活性组织团体开支。
Robots.txt 文件告诉爬虫哪些网站部分应该访问、跳过或在开始获取页面之前应用特殊规则。
该工具允许您选择默认爬虫策略,添加明确的允许和不允许路径,设置可选的爬虫延迟,并在不手动编写文件的情况下附加网站地图或主机指令。
Robots.txt 是一种爬虫指令,而不是访问控制系统,因此敏感内容仍应通过身份验证或其他服务器端限制进行保护。
不同的爬虫支持不同的指令。例如,主机指令不是通用的,某些机器人可能会忽略爬虫延迟,因此始终根据您关心的爬虫验证最终规则。

我们为您提供更多实用工具...
选择多个实用工具并将它们放入仪表板。