默认块大小Hadoop 2.x为128MB。 64MB有什么问题?Hadoop 2.x中的默认块大小
2
A
回答
1
HDFS的块大小非常巨大以尽量减少查找时间。最佳块大小取决于平均文件大小,查找时间和传输速率。
磁盘越快,数据块越大,但有一个限制。
要利用数据局部性分割具有相同大小的数据块,因为我们为每个分割开始一个线程,太大的块会减少并行性。 所以最好的是:
- 保持寻道时间低。 ( - >在快速磁盘上增加块大小)
- 保持分割不能太低。 ( - >减少块大小)
- 利用数据局部性。 ( - >保持分割大小与块大小接近)
128MB是当今磁盘速度和大小以及计算性能的不错选择。
2
增加块大小有一些原因。如果您正在管理大型Hadoop数据集的peta字节,它可以提高性能。
如果你正在管理的1地图字节集群,64 MB块大小的结果为15+百万块,其是很难的Namenode有效地管理。
在执行MapReduce的过程中,拥有大量的块也会导致大量的映射器。
根据您的数据要求,你可以微调dfs.blocksize
通过正确设置你的块大小(64MB或128 MB或256 MB或512 MB),你可以acheive
- Namenode性能的提高
- 由于映射器的数量直接取决于块大小,所以Map reduce作业的性能有所提高。
有关更多详细信息,请参阅此link。
+0
谢谢你的回答。 如果是这种情况,那么为什么Hadoop 1.x中的默认块大小不是128MB? –
相关问题
- 1. 默认大小
- 2. 默认大小
- 3. Hadoop中输入拆分的默认大小
- 4. hadoop map漏油大小和块大小
- 5. Hadoop块大小问题
- 6. Hadoop fs查找块大小?
- 7. SystemIcons默认大小
- 8. 将Hadoop块大小更改为低于最小块大小
- 9. Blocking collection的默认大小
- 10. 我可以修改git-add的默认**大块大小吗?
- 11. 默认/找到hadoop 1.x中的mapper和reducer的数量
- 12. 将ggplot中的图例大小减小到默认大小
- 13. Foundation中的默认字体大小?
- 14. MULE中的默认线程池大小
- 15. Excel 2010中的默认图表大小
- 16. Nutch在Hadoop 2.x
- 17. TinyMCE默认字体大小
- 18. ERLANG - 默认浮点大小
- 19. WPF控件默认大小
- 20. 增加默认大小
- 21. Google图表默认大小
- 22. Vimeo默认视频大小
- 23. 默认UITableViewCellStyleSubtitle字体大小?
- 24. iterm2默认窗口大小
- 25. 如何在OpenCV中更改默认棋盘格块大小
- 26. Hadoop每个文件块大小
- 27. iOS滑块的默认缩略图大小?
- 28. 在Windows中设置默认堆大小
- 29. 在Linux中启动默认堆大小?
- 30. 如何在opencart 2.x的默认滑块中添加一些文本?
我想,应该有适当的理由。 我在Deloitte采访中遇到过这个问题。 –
https://community.hortonworks.com/questions/16278/best-practises-beetwen-size-block-size-file-and-re.html – ozw1z5rd