2013-03-24 55 views
0

我使用压缩包版本上安装CDH4努力工作,但面临的问题是在我拍的步骤如下:集群不CDH4压缩包安装

我下载的压缩包的链接https://ccp.cloudera.com/display/SUPPORT/CDH4+Downloadable+Tarballs

我先解压类Hadoop 0.20 MapReduce的0.20.2 + 1341 tar文件

我做了配置变化

hadoop-0.20-mapreduce-0.20.2+1341 since i wanted mrv1 not yarn . 

的第一件事一每人S在CDH4安装提到的是配置HDFS

core-site.xml 
hdfs-site.xml 
mapred-site.xml 
masters --- which is my namenode 
slaves ---- my datanodes 

相关变更集群

做了一个NameNode的格式复制所有节点上Hadoop的配置。

格式后,我不得不启动集群,但在bin文件夹不能

找到start-all.sh脚本。所以在这种情况下,我开始用命令

bin/start-mapred.sh 
在它显示日志

JobTracker的开始和TaskTracker共同开始从节点 但是当我做了JPS

我只能看到

jobtracker 
jps 

进一步去datanode启动datanode与下面的命令

bin/hadoop-daemon.sh start datanode . 

它显示datanode启动。

Namenode没有开始,tasktracker没有开始。

当我与我的日志检查我可以看到

ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: Exception in namenode join 
java.io.FileNotFoundException: webapps/hdfs not found in CLASSPATH 

不知道什么是我停止集群工作。

早些时候我有一个cdh3运行。所以我停止了cdh3集群。然后我开始安装cdh4。另外我改变了所有目录hdfs-site.xml,即指出它为namenode和datanode创建新的空目录,而不是cdh3中定义的目录。

但仍然没有任何帮助。

另外我关闭防火墙,因为我有一个根访问,但它同样的事情,它不适合我。

以上任何帮助将是很大的帮助。


感谢您的善意回复,但

我没有

start-dfs.sh file in bin folder 

只在/home/hadoop-2.0.0-mr1-cdh4.2.0/bin文件夹中的文件是为

start-mapred.sh 
stop-mapred.sh 
hadoop-daemon.sh 
hadoop-daemons.sh 
hadoop-config.sh 
rcc 
slaves.sh 
hadoop 

命令现在我使用如以下

启动数据节点:

for x in /home/hadoop-2.0.0-mr1-cdh4.2.0/bin/hadoop-* ; do $x start datanode ; done ; 

启动的NameNode:

bin/start-mapred.sh 

还是我的工作同样的问题。

回答

-1

的JobTracker恶魔会在你的主节点开始和tasktraker恶魔将在每个数据节点的运行命令

bin/start-mapred.sh 

后在的Hadoop集群搭建只有jobtacker上手恶魔将通过JPS命令显示在masternode和您可以看到的每个datanode中Tasktracker恶魔使用JPS命令运行。

然后,你必须在你的masternode

bin/start-dfs.sh 

运行以下命令来启动HDFS在你的NameNode的机器(在此配置您的masternode本身我相信)和Datanode的这个命令将启动的NameNode恶魔在你的每个奴隶节点中开始。

现在你可以在每个数据节点的运行JPS,它会给输出

tasktracker 
datanode 
jps 

我认为这个链接将是有用的 http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-multi-node-cluster/

1

嗨对不起上述误解以下命令可以运行开始你的数据节点和NameNode的

要启动的NameNode:

hadoop-daemon.sh start namenode 

要启动数据节点:

hadoop-daemons.sh start datanode 

要启动secondarynamenode:

hadoop-daemons.sh --hosts masters start secondarynamenode 
+0

谢谢。事情为我工作最后cdh4工程。 – user1278493 2013-03-28 07:37:48