我们如何使用Spark 2.0为Python 2/3创建Spark服务。每当我创建一个新的服务并将它与一个python笔记本关联起来时,它的Python 2和Spark 1.6都会被关联。为什么不能看到我在数据砖免费版中创建的服务的配置?我想使用Spark 2.0中引入的SparkSession api来创建您的spark会话变量,因此是个问题。Python 2与Spark 2.0
0
A
回答
2
您可以选择Python和Spark版本:
a。在数据科学经验中创建新笔记本:
DSX `Project` --> Overview--> `+ add notebooks` --> `Choose the language` (Python2/R/Scala/Python3) and Spark version (1.6/2.0/2.1).
b。更改现有笔记本电脑的内核:
From any running notebook, on the notebook menu choose `Kernel` and then choose the language and Spark version combination of your choice.
1
你看不到你正在创建的服务的配置,因为你没有创建与自己配置的服务。 Bluemix和Data Science Experience中的Apache Spark as a Service实例正在获取共享集群中的执行插槽。该共享集群的配置由IBM管理。
实例的Jupyter Notebook服务器针对语言和Spark版本的每种受支持组合提供内核规格。要将笔记本切换到其他组合,请选择“内核 - >更改内核 - >(不管)”。或者在创建笔记本时单独选择语言和Spark版本。
相关问题
- 1. Spark 2.0与Zeppelin 0.6.1 - SQLContext不可用
- 2. Apache Spark与python
- 3. Spark只能用python 2
- 4. Spark 2.0 Scala - RDD.toDF()
- 5. Spark 1.6 vs spark 2.0生产力
- 6. Spark与Cassandra python安装
- 7. 在python中组合2个RDD Spark
- 8. Apache Spark vs Apache Spark 2
- 9. Spark 2.0数据集vs DataFrame
- 10. 升级到Spark 2.0 dataframe.map
- 11. 使用HiveThriftServer2与sqlContext的Spark 2.x
- 12. Ubuntu与python 2
- 13. ArrayIndexOutOfBoundsException与Spark,Spark-Avro和Google Analytics数据
- 14. 与基于在XSLT 2个参数2.0
- 15. ASP.NET身份2.0与ASP.NET MVC 2
- 16. ClassNotFound:apache.hadoop.io.ImmutableBytesWritable使用Python集成Spark与Hbase
- 17. R 2与在python
- 18. Spark Python CSV写
- 19. 在多个列上应用自定义Spark聚合器(Spark 2.0)
- 20. 如何通过Spark Thrift Server将Tableau Desktop连接到Spark SQL 2.0?
- 21. 在Intellij/Eclipse中导入Spark 2.0 Jars
- 22. Spark 2.0+中的源代码API
- 23. ASP.NET MVC 2.0上一页1和SPARK?
- 24. 使用Spark 2.0将csv读入RDD
- 25. 无法在CDH 5.7.5中安装Spark 2.0
- 26. Spark Streaming 2.0 GC错误(Shuffle Issue)
- 27. Spark 2.0 - 将DataFrame转换为DataSet
- 28. Spark 2.0 - 将JSON文件拼合为CSV
- 29. Dataproc上的Spark 2.0和Scala 2.11?
- 30. Spark 2.0 Cassandra Scala Shell错误:NoClassDefFoundError