phoenix

    1热度

    1回答

    我想知道的是有没有办法使用socket.io客户端凤框架聊天应用。没有使用默认socket.js client.i时许变化nodejs聊天应用凤框架但我想保留我的旧前端客户端。这就是为什么我想弄清楚如何使用socket.io客户端与凤凰框架。 let socket = new Socket("/socket", {params: {user: user, status: status }}) s

    2热度

    1回答

    我正在用HDFS,Hive/HBase/Phoenix/Spark创建数据流的演示文稿。任何人都可以告诉我,下面的视图是否描述了正确的“序列”,以便说出数据流。因为一切都运行在HDFS之上,所以我设计它看起来像是在HDFS之上。

    0热度

    1回答

    我正在安装HBase 1.1.2和Phoenix 4.7 Hortonworks数据平台2.6群集。 我有一个巨大的HBase表,有很多列,如果添加新数据(数据由HBase API的Put机制添加),有时会添加新列。 现在我想使用凤凰这个表。我发现本教程,我必须创建一个基于HBase表格结构的单独Phoenix视图:https://khodeprasad.wordpress.com/2016/07

    0热度

    1回答

    我们正在运行Spark流作业从Kafka读取,转换为csv,然后写入Hbase。我正在使用API​​ CSVBulkLoad来运行批量加载作业。火花作业开始罚款,转换为CSV但csvBulkLoad.run()开始一个新的MR作业失败与此异常 Error: java.lang.ClassNotFoundException: org.apache.commons.csv.CSVFormat

    0热度

    3回答

    我想了解用于报告目的的最佳大数据解决方案是什么? 目前我把它缩小到HBase vs Hive。 用例是我们有几百TB的数据,有数百个不同的文件。数据是实时的,并且一直在更新。我们需要提供最有效的报告方式。我们有几十个不同的报告页面,每个报告由不同类型的数字和图形数据组成。例如: 显示所有在过去一小时内登录系统的用户,并且 其来源是美国。 以最多玩过的游戏来展示一个图表,以 最少玩过的游戏。 系统中

    1热度

    1回答

    我通过phoenix(4.11)从Spark 2.2.0查询服务器连接到hbase(版本1.2),但数据框返回的是空行的唯一表结构数据是目前在表中。 这是我用来连接到查询服务器的代码。 // ---jar ----phoenix-4.11.0-HBase-1.2-thin-client.jar<br> val prop = new java.util.Properties prop.setPr

    0热度

    1回答

    四处错误: ERROR 203 (22005): Type mismatch. VARCHAR and TIMESTAMP for '2017-08-30 06:21:46.732' SQLState: 22005 ErrorCode: 203 而与apache.pheonix执行的松鼠SQL客户端的查询之下 select * from USER_T where USR_CRT=cast(

    0热度

    1回答

    我只设置这样的配置: http://talat.uyarer.com/post/121179803796/how-to-connect-hbase-using-apache-phoenix-from ,但它不工作,它给我的错误:

    1热度

    1回答

    我想使用来自Java的CsvBulkLoadTool将csv数据文件放到HBase表中。 HBase和Phoenix正在Ubuntu VM上运行。 当我从Windows中运行CsvBulkLoadTool.run()我得到一个异常: java.lang.IllegalArgumentException: Pathname /C:/Users/My_User/.m2/repository/org/a

    1热度

    1回答

    是否有可能将套接字订阅到后端的某些Phoenix频道而不是客户端?假设我有一些用户属于的组,并且我希望用户在建立WS连接后连接到它们。向用户发送组ID并加入频道似乎是不必要的往返,特别是我想在一个回调中处理该组中的消息,所以我会在Socket上使用onMessage,并使用掩码进行匹配。我会怎么做?