我使用压缩包版本上安装CDH4努力工作,但面临的问题是在我拍的步骤如下:集群不CDH4压缩包安装
我下载的压缩包的链接https://ccp.cloudera.com/display/SUPPORT/CDH4+Downloadable+Tarballs
我先解压类Hadoop 0.20 MapReduce的0.20.2 + 1341 tar文件
我做了配置变化
hadoop-0.20-mapreduce-0.20.2+1341 since i wanted mrv1 not yarn .
的第一件事一每人S在CDH4安装提到的是配置HDFS
我
core-site.xml
hdfs-site.xml
mapred-site.xml
masters --- which is my namenode
slaves ---- my datanodes
相关变更集群
做了一个NameNode的格式复制所有节点上Hadoop的配置。
格式后,我不得不启动集群,但在bin文件夹不能
找到start-all.sh脚本。所以在这种情况下,我开始用命令
bin/start-mapred.sh
在它显示日志
JobTracker的开始和TaskTracker共同开始从节点 但是当我做了JPS
我只能看到
jobtracker
jps
进一步去datanode启动datanode与下面的命令
bin/hadoop-daemon.sh start datanode .
它显示datanode启动。
Namenode没有开始,tasktracker没有开始。
当我与我的日志检查我可以看到
ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: Exception in namenode join
java.io.FileNotFoundException: webapps/hdfs not found in CLASSPATH
不知道什么是我停止集群工作。
早些时候我有一个cdh3运行。所以我停止了cdh3集群。然后我开始安装cdh4。另外我改变了所有目录hdfs-site.xml,即指出它为namenode和datanode创建新的空目录,而不是cdh3中定义的目录。
但仍然没有任何帮助。
另外我关闭防火墙,因为我有一个根访问,但它同样的事情,它不适合我。
以上任何帮助将是很大的帮助。
感谢您的善意回复,但
我没有
start-dfs.sh file in bin folder
只在/home/hadoop-2.0.0-mr1-cdh4.2.0/bin文件夹中的文件是为
start-mapred.sh
stop-mapred.sh
hadoop-daemon.sh
hadoop-daemons.sh
hadoop-config.sh
rcc
slaves.sh
hadoop
命令现在我使用如以下
启动数据节点:
for x in /home/hadoop-2.0.0-mr1-cdh4.2.0/bin/hadoop-* ; do $x start datanode ; done ;
启动的NameNode:
bin/start-mapred.sh
还是我的工作同样的问题。
谢谢。事情为我工作最后cdh4工程。 – user1278493 2013-03-28 07:37:48