![1]这个问题可能看起来很明显,但由于hadoop集群上主机文件配置错误,我经常遇到它。如何为Hadoop生态系统配置hosts文件
任何人都可以描述如何为hadoop和类似的环境使用(如cloudera)设置主机文件和其他相关网络配置。
特别是当我必须将这两个主机名和FQDN
更新
下面是从主机名cdh4hdm机器之一的主机文件有Hadoop的法师角色
127.0.0.1 cdh4hdm localhost
#127.0.1.1 cdh4hdm
# The following lines are desirable for IPv6 capable hosts
172.26.43.40 cdh4hdm.imp.co.in kdc1
172.26.43.41 cdh4hbm.imp.co.in
172.26.43.42 cdh4s1.imp.co.in
172.26.43.43 cdh4s2.imp.co.in
172.26.43.44 cdh4s3.imp.co.in
172.26.43.45 cdh4s4.imp.co.in
::1 ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
请参阅附加的图像
在群集这里一些节点正在获得FQDN等我正在获取主机名。
主机的IP也并不恰当,并显示127.0.0.1,而不是主机的IP
请建议
你的意思是'的/ etc/hosts'文件? – vefthym
@vefthym请参阅更新的问题与详细信息,如果您需要任何其他详细信息,请随时问 –