2014-06-11 24 views
3

我想按照这个指令 http://hadoop.apache.org/docs/r2.3.0/hadoop-project-dist/hadoop-common/SingleNodeSetup.html继续得到首发二次namenodes [0.0.0.0]

伪分布式模式安装Hadoop的,但我不断收到

Starting secondary namenodes [0.0.0.0] 
0.0.0.0: starting secondarynamenode, logging to 
/home/ec2-user/hadoop-2.4.0/logs/hadoop-ec2-user-secondarynamenode-ip-x-x-x-x.out 

我只是复制粘贴配置(.xml)并使用start-dfs.sh命令。

其他谁经历过这似乎指出配置文件中的错字,但我看不出什么错。下面是我的配置文件

等/ Hadoop的2.4.0 /核心site.xml中:

<configuration> 
<property> 
    <name>fs.defaultFS</name> 
    <value>hdfs://localhost:9000</value> 
</property> 
</configuration> 

等/ Hadoop的2.4.0/HDFS-site.xml中:

<configuration> 
<property> 
    <name>dfs.replication</name> 
    <value>1</value> 
</property> 
</configuration> 

等/ Hadoop的2.4.0/mapred-site.xml中:

<configuration> 
<property> 
    <name>mapred.job.tracker</name> 
    <value>localhost:9001</value> 
</property> 
</configuration> 

我在做什么错?

回答

0

那么是什么问题,让它启动次要名称节点。你有什么异常吗?或像HDFS没有启动等任何其他问题?

在核心的site.xml你应该有

<configuration> 
    <property> 
    <name>fs.default.name</name> 
    <value>hdfs://ipaddress:port</value> 
    </property> 
<property> 
    <name>hadoop.tmp.dir</name> 
    <value>/home/$user/hdfs/tmp</value> 
    <description>A base for other temporary directories.</description> 
</property> 
</configuration> 

请参阅本answer更多的细节配置。

+0

会给这个镜头。无论如何,fs.default.name和fs.defaultFS propery之间有什么区别?根据https://issues.apache.org/jira/browse/AMBARI-2789,fs.default.name已被弃用。根据吉拉 – user2773013

+0

,没有什么区别,只是我已经以旧的方式完成了,并发送给你。两者都应该正常工作。 – sagar