snappydata

    1热度

    1回答

    SnappyData v.0.5 我似乎无法为特定架构创建行表。 这对于每个租户都有自己的模式的基于模式的多租户应用程序非常重要。 但是,当我使用RowStore DDL创建我的表时,它们可查询的是DB的所有模式。 这是我的步骤。我做错什么了吗? [email protected]:~$ snappy-shell SnappyData RowStore 1.5.0 GA snappy> con

    1热度

    2回答

    SnappyData v.0-5 w/ClientDriver JDBC驱动程序。 我有一个SnappyData持久行表,名为:sensor_data。 从snappy> shell中,此查询将返回数千行。 snappy> select * from sensor_data where year_num = 2013 and month_num = 1; 当从SpringBoot JDBC连接运行

    0热度

    1回答

    我是OLAP和SnappyData的新手。我的问题非常具体。我想知道在哪里阅读关于用于OLAP查询的SnappyData'列'查询语言的进一步文档。也许这是一个行业标准。也许它是SnappyData特定的。我不知道。 为了说明问题,我正在查看快速入门脚本并尝试理解列表,AIRLINE和olap_queries.sql中的查询。例如,给定此查询: --------------------------

    1热度

    2回答

    我从ubuntu运行这个。 Gemfire客户端日志不记录。在我的语法或属性设置中是否有不正确的东西? java -jar sample-snappydata-sensor-0.0.1-SNAPSHOT.jar -Dgemfirexd.debug.true=TraceClientStatementMillis,TraceClientConn,TraceClientHA -Dgemfirexd.

    1热度

    1回答

    今天,我加载了这些依赖关系的POM。然而,由此创建的SpringBoot jar非常庞大,我认为这是因为它实际上包含了所有Snappy Store罐子等等。 构建的SpringBoot Jar捆绑了所有的Jetty jar,因为Snappy使用嵌入式web应用程序脉冲)。我不想要所有这些,特别是现在SpringBoot从Jetty开始,我想要EmbeddedTomcat。 是否有一套客户端专用的M

    1热度

    1回答

    我无法找出划分我的'列'表的语法。这是一个对我来说失败的例子,以及它的许多变化。 CREATE TABLE SENSOR_DATA_COL_BY_YEAR USING column OPTIONS(PARTITION_BY year_num, buckets '11') AS (SELECT sensor_id,metric,collection_time,value,sensor_time,ye

    2热度

    1回答

    在这种DDL语法中,是否意味着SnappyData在这段时间之后从字面上删除记录?或者,从本地缓存/内存中过期,可以在稍后从磁盘再次检索它? CREATE TABLE [IF NOT EXISTS] table_name ( COLUMN_DEFININTION ) USING 'row | column' OPTIONS ( COLOCATE_WITH 'tabl

    0热度

    1回答

    此列表的DDL导致id_和nam​​e_字段为CLOB。 我该如何获得VARCHAR? snappy> CREATE TABLE EXAMPLE_COLUMN_TABLE ( id_ VARCHAR(64), name_ VARCHAR(128), time_ TIMESTAMP, number_ INTEGER ) USING column OPTIO

    1热度

    1回答

    该文件规定: http://snappydatainc.github.io/snappydata/rowAndColumnTables/ “使用PARTITION_BY {COLUMN}条款提供一组列名的,这将决定分区”我想下面的列是 分区键:id_和time_。 CREATE TABLE EXAMPLE_COLUMN_TABLE ( id_ VARCHAR(64), name_ VARCHAR(

    1热度

    1回答

    我尝试编写SnappySQLJob时出现编译时错误。我错过了一个依赖关系吗? 的错误信息是: 类型org.apache.spark.sql.catalyst.TableIdentifier不能得到解决。它是间接需要的.class文件中引用 @Override public Object runJob(Object sparkContext, Config jobConfig) {