2017-08-17 116 views
0

以下官方文档的简单代码:连接到Hbase1.2火花2.1

public static void main(String[] args) throws Exception { 

     SparkConf conf = new SparkConf().setAppName("MyApp") 
       .set("spark.serializer", "org.apache.spark.serializer.KryoSerializer"); 
     JavaSparkContext sc = new JavaSparkContext(conf); 

     Configuration cfg = HBaseConfiguration.create(); 
//  cfg.set("hbase.zookeeper.quorum", "localhost"); 
     JavaHBaseContext hc = new JavaHBaseContext(sc, cfg); 

     JavaRDD<List<String>> rdd = sc.parallelize(Arrays.asList(Tom, Jerry)); 
     System.out.println(rdd.collect()); 


    } 

及POM Maven中:

<dependency> 
    <groupId>org.apache.hbase</groupId> 
    <artifactId>hbase-spark</artifactId> 
    <version>2.0.0-alpha-1</version> 
</dependency> 

我得到一个错误:

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/Logging

如何解决那?

回答

0

组织/阿帕奇/火花/记录被火花1.5.2后除去。所以我觉得你得到这个错误。

你可以尝试把火花core_2.11-1.5.2.logging.jar单独项目的jar目录下,并重新运行应用程序。