我有超过1/2百万个文件散列多个文件夹 md5/crc散列花费的时间太长一些文件的大小是1GB〜11GB 我想只是散列文件的一部分使用头md5/sha1散列大文件
所以下面的工作,当涉及到散列发现和哈希的一切。
我只是知道如何进一步采取这样的步骤,只是做哈希的文件,例如
find . -type f -exec head -c 256kB | sha1sum
不知道头部是好的,在会中这种情况下使用的第一发言权256KB dd会更好吗? 上面的命令不工作,所以寻找想法如何我可以做到这一点
我想输出是与在本地md5sum中看到的相同,例如在下面的格式(去文本文件)
<Hash> <file name>
林不知道如果以上是可能的单线或会用于/ do循环需要使用.....性能使用bash上RHEL6
其管道抛出你的过程。把你的头.. | sha1sum'在脚本中。还要添加一个“$ @”作为参数。祝你好运。 – shellter 2015-03-02 18:43:53
这不是部分废除散列的使用吗?也就是说,如果几个字节发生变化 - 不管它们的位置如何 - 散列值会发生变化? – 2015-03-02 19:27:33
考虑使用'GNU并行'来完成工作,使用所有您付费的可爱内核都处于闲置状态。这很简单,只需发送一个命令列表,你可以运行到'parallel' – 2015-03-02 19:29:54