2017-10-18 32 views
1

我的我的scala代码在连接到Neo4j的spark上运行。我想测试一下我的Windows机器上,但似乎无法得到它的运行,我不断收到错误:Neo4j Spark连接器错误:import.org.neo4j.spark._对象neo4j未在软件包中找到org

Spark context Web UI available at http://192.168.43.4:4040 
Spark context available as 'sc' (master = local[*], app id = local-1508360735468). 
Spark session available as 'spark'. 
Loading neo4jspark.scala... 
<console>:23: error: object neo4j is not a member of package org 
     import org.neo4j.spark._ 
      ^

其中给出的后续错误:

changeScoreList: java.util.List[Double] = [] 
<console>:87: error: not found: value neo 
         val initialDf2 = neo.cypher(noBbox).partitions(5).batch(10000).loadDataFrame 
             ^
<console>:120: error: not found: value neo 

不知道我在做什么错了,我在执行这样的:

spark-shell --conf spark.neo4j.bolt.password=TestNeo4j --packages neo4j-contrib:neo4j-spark-connector:2.0.0-M2,graphframes:graphframes:0.2.0-spark2.0-s_2.11 -i neo4jspark.scala 

说找到所有的依赖尚未使用新代码时引发错误。不知道还有什么要尝试?不知道为什么这不适用于我的窗口框和我的Mac。星火2.2版相同,Neo4j的启动和运行相同版本,斯卡拉过,连渣(除少数小的修改版本差异)

回答

1

这是一个已知issue(有相关的一个here),该fix的是Spark 2.2.1发行版的一部分。

+0

ahh好吧(我以前在windows上工作过),所以我想我需要将这些jar添加到类路径中作为解决方法? – Codejoy

+0

我没有得到最新版本并尝试过,但我仍然有错误。我是否需要手动查找这些罐子并将它们移到我的窗口具有的类路径中? – Codejoy

+0

@Codejoy:Spark 2.2.1尚未发布。 – chunjef