4
A
回答
1
HDFS应用程序需要一次写入一次读取多个文件访问模型。一次创建,写入和关闭的文件不需要更改。这种假设简化了数据一致性问题并实现了高吞吐量数据访问。 MapReduce应用程序或Web爬行器应用程序完全符合此模型。 (来源: HDFS Design)
HDFS是围绕文件很少更新的想法而构建的。相反,它们被读取为某些计算的数据,并且可能附加的数据可能会不时附加到文件中。 例如,即使数据非常大,航空公司预订系统也不适合 DFS,因为数据频繁更改为 。 (来源:Mining of Massive Datasets)
相关问题
- 1. 使用Spark多次写入hadoop分布式文件系统
- 2. 分布式文件系统.NET
- 3. 分布式文件系统为Android
- 4. 测试分布式文件系统
- 5. Ubuntu中的分布式文件系统
- 6. 如何控制hadoop分布式系统中不同从站的文件分配?
- 7. 分布式系统
- 8. 分布式系统
- 9. Hadoop的分发文件系统
- 10. Hadoop分布式文件系统是否支持Google文件系统的任何更新操作?
- 11. 分析分布式系统
- 12. Hadoop发行文件系统
- 13. 我们如何开发一个HDFS代理(Hadoop分布式文件系统)
- 14. 的Hadoop文件系统是物理文件系统或虚拟文件系统
- 15. 分布式系统与ZeroMQ?
- 16. 分布式开发系统
- 17. Java分布式系统
- 18. MongoDB的分布式系统
- 19. 分布式系统拓扑
- 20. 分布式系统时钟
- 21. 分布式日志系统
- 22. 分布式系统设计
- 23. 查询预处理:Hadoop或分布式系统
- 24. Hadoop文件系统统计信息(FileSystem.Statistics)
- 25. 分布式反垃圾邮件系统
- 26. 分布式缓存文件Hadoop
- 27. hadoop猪mapreduce分布式缓存文件
- 28. Hadoop分布式缓存 - 修改文件
- 29. 遍历分布式文件系统上的文件
- 30. 速度快的分布式文件系统对于小文件
你在哪里读的?他们说了什么来支持这种说法? –