2015-06-14 134 views
4

HDFS是建立在最有效的数据处理模式是一次写入,多次读取模式的基础上的。Hadoop分布式文件系统

我可以有任何实时的例子HDFS多少次写入和准备好吗?我想深入了解这些核心概念。

+0

你在哪里读的?他们说了什么来支持这种说法? –

回答

1

HDFS应用程序需要一次写入一次读取多个文件访问模型。一次创建,写入和关闭的文件不需要更改。这种假设简化了数据一致性问题并实现了高吞吐量数据访问。 MapReduce应用程序或Web爬行器应用程序完全符合此模型。 (来源: HDFS Design

HDFS是围绕文件很少更新的想法而构建的。相反,它们被读取为某些计算的数据,并且可能附加的数据可能会不时附加到文件中。 例如,即使数据非常大,航空公司预订系统也不适合 DFS,因为数据频繁更改为 。 (来源:Mining of Massive Datasets

另见Why HDFS is write once and read multiple times?