我们有一个文件夹,130GB大小,数百万个微小(5-20k)图像文件,我们需要将它从旧服务器(EC2)移动到我们的新服务器(德国Hetzner)。传输数以百万计的图像-RSync不够好
我们的SQL文件非常快速 - 至少20-30mb/s - 并且第一个〜5GB左右的图像传输速度也非常快。
然后,我们回家了一天,今天早上回来,我们的图像已经放缓到只有~5kb/s的转移。 RSync似乎放慢了工作负载的中间。我已经研究过替代品,例如gigasync(似乎不起作用),但每个人似乎都认为rsync是最好的选择。
我们有这么多的文件,做ls -al
需要一个多小时,我所有的尝试使用python将我们的传输分成更小的部分已经吃掉所有可用的RAM,但没有成功完成。
如何使用随时可用的工具和一些轻型脚本以合理的速度传输所有这些文件?
不应该是'cd/folder/with/data; tar cvzf - | ssh target'cd/target/folder; tar xvzf -'' – Tilo
@Tilo这样也行,如果你省略'f'选项,stdin/stdout将被隐式使用。 – glglgl
这么多年,我打字4个字符太多了:D – Tilo