2016-08-19 29 views
0

我正在数据库上运行sql笔记本。我想分析一张有5亿条记录的表格。我可以对数据运行简单的sql查询。但是,我需要从日期更改日期列类型。如何将sql表转换为pyspark/python数据结构并返回到databricks笔记本中的sql

不幸的是,update/alter语句似乎并没有被sparkSQL支持,所以看起来我无法修改表中的数据。

什么是一行代码,可以让我在下一个单元格中将SQL表转换为python数据结构(在pyspark中)? 然后我可以修改该文件并将其返回给SQL。

+0

嗨,我的问题没有任何反馈downvoted。我可以要求一些反馈吗?这样我可以改进问题并获得我需要的帮助? – Semihcan

回答

3
dataFrame = sqlContext.sql('select * from myTable') 
+0

谢谢! 而我将如何返回到SQL,所以我可以回去在SQL中查询它在下一个单元格? 也许也是一条线。 是不是像'dataFrame.to_sql'这样的东西(没有线索,只是为了让你知道我的意思) – Semihcan

+0

我会很感激任何帮助!谢谢! – Semihcan

+0

@Semihcan,你需要registerTempTable函数http://spark.apache.org/docs/latest/sql-programming-guide.html#running-sql-queries-programmatically – David

相关问题