我在失败的地图任务的系统日志中看到此异常,特定作业中的所有地图任务都遇到此错误。Hadoop Map任务获取StackOverflowError
任何猜测这里的原因,这是一个奇怪的看起来堆栈跟踪到我的眼睛。
2012-12-29 10:37:37,975 FATAL org.apache.hadoop.mapred.Child (main): Error running child : java.lang.StackOverflowError
at org.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:80)
at org.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:64)
at org.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:117)
at org.apache.hadoop.mapreduce.lib.input.DelegatingMapper.setup(DelegatingMapper.java:46)
at org.apache.hadoop.mapreduce.lib.input.DelegatingMapper.run(DelegatingMapper.java:54)
at org.apache.hadoop.mapreduce.lib.input.DelegatingMapper.run(DelegatingMapper.java:55)
at org.apache.hadoop.mapreduce.lib.input.DelegatingMapper.run(DelegatingMapper.java:55)
at org.apache.hadoop.mapreduce.lib.input.DelegatingMapper.run(DelegatingMapper.java:55)
at org.apache.hadoop.mapreduce.lib.input.DelegatingMapper.run(DelegatingMapper.java:55)
at org.apache.hadoop.mapreduce.lib.input.DelegatingMapper.run(DelegatingMapper.java:55)
<1014 duplicate lines cut>
日志在任何失败的单个节点上看起来如何? (你应该能够从求职者那里找到他们)。还是来自其中一个节点? –
它甚至在运行你的任何代码之前就失败了,它似乎与你的输入文件有关。这只是一个预感,但是你有很多输入文件吗?如果将输入减少到只有几个文件会发生什么? –