看起来我们将很快开始在这里开始负载平衡我们的网络服务器。如何在负载平衡的环境中动态编辑robots.txt?
我们有一个动态编辑robots.txt的功能请求,这对一个主机来说不是问题 - 但是一旦我们启动了负载均衡器,听起来好像我将不得不将scp文件转移到其他主机。
这听起来非常糟糕。你将如何处理这种情况?
我已经让客户编辑的元标记“机器人”,这(IMO)要切实做同样的事情,因为他从robots.txt的编辑想,但我真的不知道很多关于搜索引擎优化。
也许有处理这种完全不同的方式?
UPDATE
看起来我们将它S3现在存储和memcache它正面...
我们如何做,现在
所以我们用Merb的。 .I将路线映射到我们的robots.txt,如下所示:
match('/robots.txt').to(:controller => 'welcome', :action => 'robots')
然后,相关代码如下所示:
def robots
@cache = MMCACHE.clone
begin
robot = @cache.get("/robots/robots.txt")
rescue
robot = S3.get('robots', "robots.txt")
@cache.set("/robots/robots.txt", robot, 0)
end
@cache.quit
return robot
end
在serverfault上这个问题可能会更好,但您的复制代理无法处理它吗?无论如何,你需要在服务器之间进行某种复制策略,是否有理由不能这样做? – 2009-10-05 19:43:50
叶..我想如果这是存储在该会为现在的工作分贝......听起来非常的fugly ... – eyberg 2009-10-05 19:57:26