我知道HDFS在数据节点中使用常规linux文件系统存储数据。我的HDFS块大小是128 MB
。假设我在我的hadoop集群中有10 GB
磁盘空间,这意味着,HDFS最初有作为可用存储空间。HDFS块大小vs实际文件大小
如果我创建了一个说12.8 MB
的小文件,#可用的HDFS块将变为79.如果我创建另一个小文件12.8 MB
,会发生什么情况? #availbale街区会保持在79点还是会降至78点?在前一种情况下,HDFS基本上根据可用的可用磁盘空间重新计算每个块分配后的#available块,因此只有在消耗超过128 MB的磁盘空间后,#available块才会变为78。请澄清。
这就是我猜测的。现在它更清晰。感谢您的详细解释和实验! – sachin2182 2013-02-25 17:45:16