我想停止搜索引擎爬行我的整个网站。如何阻止搜索引擎抓取整个网站?
我有一个公司的成员使用的Web应用程序。它位于Web服务器上,以便公司的员工可以访问它。没有人(公众)会需要它或找到它有用。
因此,我想添加另一层安全(理论上),通过完全删除所有搜索引擎机器人/搜寻器对其的访问来尝试和防止未经授权的访问。谷歌将我们的网站编入索引以使其成为可搜索内容从业务角度来看是毫无意义的,并且为黑客添加另一种方式来首先找到该网站来尝试并破解它。
我知道在robots.txt
你可以告诉搜索引擎不要抓取某些目录。
是否有可能告诉机器人不要爬网整个网站,而不必列出所有目录不要抓取?
这最好是用robots.txt
完成,还是用.htaccess或其他方法做得更好?
您的网站是通过黑帽黑客即使没有搜索引擎索引你的网站访问。黑帽黑客并没有通过谷歌搜索找到你。他们有自己的网络爬行网络,忽略'robots.txt'。此外,通过让员工难以通过谷歌搜索找到您的网站,您正在损害互联网。当你这样做时,Google不喜欢它,并且你没有让你的网站更安全。 Plus Google通过引入客户来帮助您。就像TSA一样,从你身上拿走你的1英寸刀片,他们不会让事情变得更安全,而且他们正在讨论每个人。 – 2013-03-22 15:41:34