2017-11-25 124 views
0
hive>LOAD DATA INPATH '/hadoop/abc/POC2_Setup/input/warr2_claims_5441F.csv' OVERWRITE INTO TABLE baumuster_pre_analysi_text; 

失败:1:17 SemanticException线的路径无效 '/hadoop/abc/POC2_Setup/input/warr2_claims_5441F.csv '':没有文件 匹配路径 HDFS ://本地主机:9000/Hadoop的/ ABC/POC2_Setup /输入/ warr2_claims_5441F.csv局部加载数据到数据库蜂房面临的问题

+0

你有文件 - hdfs:// localhost:9000/hadoop/abc/POC2_Setup/input/warr2_claims_5441F.csv。任何你有/ user/hadoop文件而不是/ hadoop的机会? – Ramesh

回答

1

如果我们从本地文件系统加载,我们需要使用关键字“本地”,如下图,

LOAD DATA LOCAL INPATH'你的本地文件路径'覆盖表中你的hive-table;

如果从HDFS加载,

LOAD DATA INPATH '你的HDFS文件路径' 覆盖INTO TABLE您的蜂巢表;

0

如果您正在加载从本地数据,那么你就不得不提到LOCAL

hive>LOAD LOCAL DATA INPATH '/hadoop/abc/POC2_Setup/input/warr2_claims_5441F.csv' OVERWRITE INTO TABLE baumuster_pre_analysi_text;

,如果你的默认目录未设置为本地,那么你必须在路径之前提到file:/

0

加载从本地机器,你可以使用下面的命令数据:

LOAD DATA LOCAL INPATH '/hadoop/abc/POC2_Setup/input/warr2_claims_5441F.csv' OVERWRITE INTO TABLE baumuster_pre_analysi_text;