0
当试图将文件放入hdfs时出现此错误。尝试连接到hadoop datanode时发生超时错误
org.apache.hadoop.net.ConnectTimeoutException: 60000 millis timeout while
waiting for channel to be ready for connect. ch :
java.nio.channels.SocketChannel[connection-pending remote=/10.1.1.14:50010]
我抬起头来解决方案,我看你需要把这个属性添加到HDFS-site.xml中:
<property>
<name>dfs.client.use.datanode.hostname</name>
<value>true</value>
</property>
我使用ambari来管理我的Hadoop服务。如何添加属性没有它重置为默认值后我重新启动hdfs ambari?我位于运行HDP 2.6.1.0的单节点群集上。
更新:管理将属性添加到HDFS-site.xml中
<property>
<name>dfs.datanode.use.datanode.hostname</name>
<value>true</value>
</property>
<property>
<name>dfs.client.use.datanode.hostname</name>
<value>true</value>
</property>
不过,我仍然得到同样的超时错误。
我的属性已经设置 dfs.namenode.name.dir /Hadoop的/ HDFS /名称节点,到/ mnt /资源/的Hadoop/HDFS/namenode的 真正 dfs.datanode.data.dir /Hadoop的/ HDFS /数据,到/ mnt /资源/的Hadoop/HDFS /数据 真正 他们应该是不同的东西? –
ProgrammingUnicorn
你是如何安装hadoop的,以及你的配置是什么。 – Chauhan
秒,试试hdfs dfs -ls。或hadoop fs -ls /并看看这些工作是否正常或不?还有一件事可以描述你的集群配置 – Chauhan