3
我想按照这个指令 http://hadoop.apache.org/docs/r2.3.0/hadoop-project-dist/hadoop-common/SingleNodeSetup.html继续得到首发二次namenodes [0.0.0.0]
伪分布式模式安装Hadoop的,但我不断收到
Starting secondary namenodes [0.0.0.0]
0.0.0.0: starting secondarynamenode, logging to
/home/ec2-user/hadoop-2.4.0/logs/hadoop-ec2-user-secondarynamenode-ip-x-x-x-x.out
我只是复制粘贴配置(.xml)并使用start-dfs.sh命令。
其他谁经历过这似乎指出配置文件中的错字,但我看不出什么错。下面是我的配置文件
等/ Hadoop的2.4.0 /核心site.xml中:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
等/ Hadoop的2.4.0/HDFS-site.xml中:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
等/ Hadoop的2.4.0/mapred-site.xml中:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
我在做什么错?
会给这个镜头。无论如何,fs.default.name和fs.defaultFS propery之间有什么区别?根据https://issues.apache.org/jira/browse/AMBARI-2789,fs.default.name已被弃用。根据吉拉 – user2773013
,没有什么区别,只是我已经以旧的方式完成了,并发送给你。两者都应该正常工作。 – sagar