我目前正在开发一个Rails应用程序,它需要一长串链接作为输入,使用后台工作人员(Resque)擦除它们,然后将结果提供给用户。但是,在某些情况下,有很多URL,我希望能够并行/并发地发出多个请求,这样会花费更少的时间,而不是等待一个请求完成到一个页面,然后抓取它,并且前进到下一个。如何用Rails和Heroku制作多个并行并发请求
有没有办法在heroku/rails中做到这一点?我在哪里可以找到更多信息?
我遇到了resque-pool,但我不确定它是否可以解决此问题和/或如何实施。我还了解了使用不同类型的服务器来运行rails以使并发成为可能,但不知道如何修改我的当前情况以利用它。
任何帮助将不胜感激。
我会看看Sidekiq。后者关于每个工作者一个URL是否对我有意义,但是我对如何知道所有URL何时被刮掉的过程感到困惑?思考? – Kevin
@Kevin看到我编辑的答案。 – Adrian
嗨艾德里安,我仍然困惑。所以我会调用上面的Scrapeworker.perform_async(链接),然后我会调用Scrapeworker.perform,然后它会在不同的线程中同时在async中执行队列中的所有作业?它会暂停/处理,直到解决了URL被完成时的问题。 – Kevin