我一直在练习使用Mechanize和Nokogiri编写一些Ruby scrapers。例如在这里(但是,似乎在发出一定数量的请求(在这种情况下约为14000)之后,出现错误提示我有连接超时错误:Ruby机械化连接超时
/var/lib/gems/1.8/gems /net-http-persistent-2.5.1/lib/net/http/persistent/ssl_reuse.rb:90:in`initialize':连接超时 - connect(2)(Errno :: ETIMEDOUT)
我有我可以得到的最好答案是,我向服务器发出太多请求,有没有办法通过限制或其他方法来解决这个问题?
请参阅此主题有关节流:http://stackoverflow.com/questions/9241625/regulating-rate-limiting-ruby-mechanize也考虑回落到版本1.0,它不使用持久http连接 – pguardiario 2012-03-10 06:01:09
版本1.0 for机械化还是Nokogiri? – ZenBalance 2012-03-16 06:46:23
机械化,对不起 – pguardiario 2012-03-16 08:28:25