设置hadoop多节点集群后,我确实跑过了着名的wordcount map缩小例子。但我没有得到任何输出,但冻结了任务。这里我得到了什么......Apache hadoop map减少任务冻结
12/09/12 13:01:29 INFO input.FileInputFormat: Total input paths to process : 3
12/09/12 13:01:29 INFO util.NativeCodeLoader: Loaded the native-hadoop library
12/09/12 13:01:29 WARN snappy.LoadSnappy: Snappy native library not loaded
12/09/12 13:01:30 INFO mapred.JobClient: Running job: job_201209121300_0002
12/09/12 13:01:31 INFO mapred.JobClient: map 0% reduce 0%
12/09/12 13:01:45 INFO mapred.JobClient: map 33% reduce 0%
12/09/12 13:01:48 INFO mapred.JobClient: map 100% reduce 0%
12/09/12 13:01:54 INFO mapred.JobClient: map 100% reduce 11%
但是在主站和从站都没有例外。但在奴隶任务跟踪器中,连续打印日志。
2012-09-12 13:23:14,573 INFO org.apache.hadoop.mapred.TaskTracker: attempt_201209121300_0002_r_000000_0 0.11111112% reduce > copy (1 of 3 at 0.04 MB/s) >
在此之前,我配置hadoop单节点,运行上述任务,我得到了成功的输出。
p.s: 1.我有两个节点,分别作为主站和从站。两个IP地址都在两个节点的/ etc/hosts中。
2.可以不用密码ssh给每个主站和从站。 (无密码登录)
3.在master中运行start-dfs.sh之后,它也运行在slave机器上(我用jps进行了检查)
4.这里是我遵循的教程。 http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-multi-node-cluster/
5.两台机器都禁用了防火墙。
如何解决此问题?
类似的帖子:http://stackoverflow.com/questions/10165549/hadoop-wordcount-example-stuck-at-map-100-reduce-0 –
这可能有助于http://stackoverflow.com/questions/32511280/Hadoop的1-2-1-多节点集群减速器相位挂起换单词计数程序/ 32551259#32551259 –