最近我用hadoop的批量加载把数据存入hbase 首先,我调用HDFS API把数据写入hadoop hdfs的文件中,总共有7000,000行数据,大小是503MB。其次,我使用org.apache.hadoop.hbase.mapreduce.ImportTsv和org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles将数据放入hbase。HBase表的大小比hadoop中的文件大很多hdfs
我做的最重要的事情是使用bulkload工具将数据放入hbase,在完成bulkload之后,我发现hbase表为1.96GB。 hdfs复制是1. 我不知道为什么。
如何比较尺寸? – Tariq
我生成7000,000行数据并将数据写入Windows XP文件系统的file.txt,文件大小为503MB。当我直接将7000,000行数据放入hbase时,大小为1.96GB。我设置hdfs复制1,hbase表复制与hdfs复制无关吗?你知道如何设置hbase复制吗? – sabrina