2010-04-29 34 views
1

我有我的服务器上的目录,我不希望搜索引擎抓取和我已经设置robots.txt中什么是使某些目录保密的最佳安全措施?

这个规则我想已经登录的人能够访问该目录,而不必须输入密码或任何东西。

我在考虑在登录后放入用户计算机上的cookie是最好的,如果他们有cookie,他们可以访问该目录。这是可能的,还是有更好的方法?

我希望人们没有这个cookie来无权访问该目录 - 会员只有

在这个最好的设计任何建议访问?

+0

谷歌是否仍然允许搜索'inurl:robots.txt'。发布目录的位置以保密它并不是世界上最好的举措。 – 2010-04-29 21:38:09

回答

1

答案取决于所使用的网络服务器以及服务器端语言(如果有的话)。判断你的问题历史,我敢打赌它是Apache HTTPD

如果这是真的,那么你可以在文件夹中放一个.htaccess文件来控制访问HTTP basic authentication。如果你想要更多的灵活性,你需要使用服务器端语言进行控制。基本上你只需要将登录用户存储在会话中,并检查每个请求,如果用户在那里,并且它是否被允许执行请求。也就是说,既然你也标记了Javascript,那么知道JS是一种客户端语言,因此可以被客户端完全控制/禁用/欺骗/黑客入侵可能是一件好事。在谈论安全性时忘记它。 JS通常只对逐步增强网页有好处。