我在脚本中使用Python和Boto从本地磁盘复制多个文件,将它们转换为.tar文件并上传到AWS Glacier。使用Python Boto和Amazon Glacier concurrent.ForcurrentUploader保证数据完整性?
我根据我的脚本: http://www.withoutthesarcasm.com/using-amazon-glacier-for-personal-backups/#highlighter_243847
它使用concurrent.ConcurrentUploader
我只是好奇,我有多大的把握可以是数据都是在冰川成功后获得一个ID后面? concurrentUploader是否执行任何类型的散列检查以确保所有位都到达?
我想从我的本地磁盘中删除文件,但担心我应该实施某种散列检查...我希望这是发生在引擎盖下。我试过并成功检索了一些档案,并能够解除焦油。只是要非常小心。
是否有人知道是否有检查引擎盖内的所有传输成功上传?如果没有,有没有人有任何python示例代码如何实现与散列检查上传?
非常感谢!
博托并发上传文档: http://docs.pythonboto.org/en/latest/ref/glacier.html#boto.glacier.concurrent.ConcurrentUploader
UPDATE: 望着实际宝途码(https://github.com/boto/boto/blob/develop/boto/glacier/concurrent.py)线132似乎表明散列自动计算的,但我不清楚是什么的
[None] * total_parts
的意思。这是否意味着哈希值确实被计算出来,还是留给用户来执行?