2011-08-28 52 views

回答

2

这只是告诉代理人,他们自称spider足够温和,不能浏览网站。

这没有特别的意义。

的robots.txt文件只能由机器人使用,这样的方式来排除所有的机器人是用*

User-Agent: * 
Disallow:/
+0

感谢,所以它基本上都说清楚地识别你的蜘蛛? –