我在与使用这个简单的例子是“ClassNotFound的”异常的问题:火花提交ClassNotFound的异常
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
import java.net.URLClassLoader
import scala.util.Marshal
class ClassToRoundTrip(val id: Int) extends scala.Serializable {
}
object RoundTripTester {
def test(id : Int) : ClassToRoundTrip = {
// Get the current classpath and output. Can we see simpleapp jar?
val cl = ClassLoader.getSystemClassLoader
val urls = cl.asInstanceOf[URLClassLoader].getURLs
urls.foreach(url => println("Executor classpath is:" + url.getFile))
// Simply instantiating an instance of object and using it works fine.
val testObj = new ClassToRoundTrip(id)
println("testObj.id: " + testObj.id)
val testObjBytes = Marshal.dump(testObj)
val testObjRoundTrip = Marshal.load[ClassToRoundTrip](testObjBytes) // <<-- ClassNotFoundException here
testObjRoundTrip
}
}
object SimpleApp {
def main(args: Array[String]) {
val conf = new SparkConf().setAppName("Simple Application")
val sc = new SparkContext(conf)
val cl = ClassLoader.getSystemClassLoader
val urls = cl.asInstanceOf[URLClassLoader].getURLs
urls.foreach(url => println("Driver classpath is: " + url.getFile))
val data = Array(1, 2, 3, 4, 5)
val distData = sc.parallelize(data)
distData.foreach(x=> RoundTripTester.test(x))
}
}
在本地模式下,提交按照该文档生成上线31是“ClassNotFound的”异常, ClassToRoundTrip对象被反序列化。奇怪的是,第28行较早的使用是好的:
spark-submit --class "SimpleApp" \
--master local[4] \
target/scala-2.10/simpleapp_2.10-1.0.jar
不过,如果我添加为“驱动程序类路径”额外的参数,和“-jars”,它工作正常,当地。
spark-submit --class "SimpleApp" \
--master local[4] \
--driver-class-path /home/xxxxxxx/workspace/SimpleApp/target/scala-2.10/simpleapp_2.10-1.0.jar \
--jars /home/xxxxxxx/workspace/SimpleApp/target/scala-2.10/SimpleApp.jar \
target/scala-2.10/simpleapp_2.10-1.0.jar
然而,提交到本地开发高手,还是产生了同样的问题:
spark-submit --class "SimpleApp" \
--master spark://localhost.localdomain:7077 \
--driver-class-path /home/xxxxxxx/workspace/SimpleApp/target/scala-2.10/simpleapp_2.10-1.0.jar \
--jars /home/xxxxxxx/workspace/SimpleApp/target/scala-2.10/simpleapp_2.10-1.0.jar \
target/scala-2.10/simpleapp_2.10-1.0.jar
我可以从输出JAR文件正在被执行牵强看到。
日志用于执行程序的一个在这里:
标准输出:http://pastebin.com/raw.php?i=DQvvGhKm
标准错误:http://pastebin.com/raw.php?i=MPZZVa0Q
我使用星火1.0.2。 ClassToRoundTrip包含在JAR中。 我宁愿不必硬编码SPARK_CLASSPATH或SparkContext.addJar中的值。谁能帮忙?
更新 - 我已经能够通过设置‘spark.executor.extraClassPath’,并作出解决此JAR文件在路径上的每个执行程序的本地可用。我不明白为什么需要这样做:JAR由执行程序从Spark的内部HTTP服务器提取并复制到每个执行程序的工作目录中。 – puppet 2014-09-08 14:37:52
今天我看到同样的问题。 Jar正在被执行程序取回,并且它有类查找,即使它抛出ClassNotFoundException!我在1.0.2 btw – nir 2014-11-06 20:40:59
再次更新 - 我认为这可能与序列化有关。几天前我们发现改变序列化方法使问题消失。我仍然不确定为什么,但值得一试。 – puppet 2014-11-08 19:46:37