0
假设我需要通过HTTP从远程主机下载很多小文件,并且我有一个要下载的URL列表。假设远程主机只允许K
连接到我的本地网络。我的本地网络有M
电脑,我想平均分配文件。我所有的电脑都运行Linux
。现在我想知道如何组织下载。如何用几台Linux电脑下载很多远程文件?
现在我假设一台计算机足以处理所有K
连接并将所有这些文件存储在其本地文件系统中。因此,我将分配一台计算机将文件“下载”到以M
本地主机命名的M
文件夹中。本地主机将文件从这些文件夹复制(移动)到其文件系统。是否有意义 ?实现它的最简单方法是什么?
恐怕这不是“一次性任务”。你会推荐什么样的分布式方法? – Michael
那么,我仍然建议只有在必须的时候才采用分布式方法。所以这里是我将如何做到这一点,我会得到一个web服务运行在每台可以下载文件的机器上。现在我将运行一个与所有机器交互的主程序。因此,可以说我有10台机器,每台机器可以一次下载5个文件。现在我将发送5个文件的第一个请求到每台机器,当每台机器回应成功的下载时,我会发送下一个请求。 – Lokesh
我明白了。谢谢。 – Michael