-1
A
回答
0
你不禁止任何事情。 robots.txt只是webcrawlers的一套准则,可以选择是否遵循它们。
粗鲁的爬虫当然应该被禁止IP。但是你无法避免webcrawler可能会遇到该页面。无论如何,你可以将它添加到你的robots.txt和谷歌webcrawler可能服从。
相关问题
- 1. 链接忽略我的oauth_callback
- 2. 忽略网站
- 3. 忽略列中的链接
- 4. 如何忽略网站某些部分的CSS img样式?
- 5. UITapGestureRecognizer忽略网页链接请求
- 6. 忽略我重写规则的链接
- 7. 链接我的网站
- 8. 如何将移动网站链接到我的PC版网站
- 9. 我如何从Python网站抓取网站上的pdf链接
- 10. 如何让Git忽略符号链接?
- 11. 如何让mercurial忽略符号链接?
- 12. 我们如何忽略Java中的一些SonarQube规则?
- 13. 我该如何忽略Xcode中的一些错误?
- 14. 春忽略某些网址
- 15. 如何将我的网站链接与cname链接?
- 16. 我如何忽略在UIWebView中按住链接一秒的actionSheet的动作
- 17. 我如何链接到我的网站中的.mp4视频?
- 18. 使用Tab键导航时,我可以忽略一些网站元素吗?
- 19. 我有一个网站的链接如何从网站下载所有文件?
- 20. 网站的链接,从我的网页
- 21. 如何让pyflakes忽略一些错误?
- 22. 如何忽略一些Tkinter碰撞?
- 23. git status:如何忽略一些变化
- 24. 杰克逊,如何忽略一些值
- 25. 如何忽略一些rails_best_practices gem警告?
- 26. SVN - 忽略符号链接
- 27. 如何通过链接更改我网站的一部分?
- 28. 忽略包含在链接中的@mentions
- 29. 忽略TortoiseHG中的符号链接
- 30. 忽略.gitignore中的符号链接