greenplum

    0热度

    1回答

    当我尝试在greenplum中执行gpload时,它遇到了一个错误。 输入命令: [[email protected] ~]$ gpload -f test.yml 错误,我得到 2017-02-25 11:19:13|ERROR|configuration file error: expected <block end>, but found '?', line 9 配置YAML文件内容

    0热度

    1回答

    当我尝试从greenplum查询时。双引号在查询数据库时在列的选择列表中包括获取时间。 输入DDL: 方案是 CREATE TABLE "People" ( "ID" SERIAL NOT NULL, "Email" TEXT NOT NULL, PRIMARY KEY(id) ); 错误,我得到: select * from people; ERROR: relation "peo

    0热度

    1回答

    当我尝试从talend etl服务器运行gpload进程。在那,我需要首先配置tgreenpluGPload组件。配置到组件时,它正在寻找远程Greenplum服务器文件,而不是基于本地窗口的talend ETL文件。 ENV详细 了Talend服务器是基于 - Windows Server 2012中 基于 Greenplum的集群 - CentOS的7 主因: Greenplum的数据库服务器

    0热度

    1回答

    当我尝试捕获一个SQL事务中的增量加载。更新不起作用。基本上,它为90k行保持无限的执行时间。 输入SQL事务 BEGIN; INSERT INTO IncrementalLoad_Dest.dbo.tblDest (ColID, ColA, ColB, ColC) SELECT s.ColID, s.ColA, s.ColB, s.ColC FROM IncrementalLoad_So

    0热度

    1回答

    我想在PostgreSQL 8.2中找到死元组和表的活元组。我们刚刚开始使用基于PostgreSQL 8.2的Greenplum MPP数据库系统。 由于默认的MVCC体系结构,我们需要找到一个表的死元组,并制定计划将其变为VACUUM。 我知道,如何在新版本的PostgreSQL中找到死元组。我已经分享了两篇文章。 PostgreSQL: How to check Table Fragmenta

    1热度

    2回答

    我使用Greenplum/PostgreSQL作为数据库。 我打算通过jdbc创建序列,但不起作用。 val conn=getConnection(); val st=conn.createState(); st.execute("CREATE SEQUENCE SEQ_4_MT_QUERY INCREMENT BY 1 MINVALUE 0 MAXVALUE 99999999 START 0

    0热度

    1回答

    我有一个大表,foos,由foo_type分区。下面产生了良好的查询计划(选择只有一个分区): select count(*) from foos where foo_type=1; 但是,如果我尝试字面“1”更改为(当量)的子查询 - 我结束了与扫描每个分区计划 - select count(*) from foos where foo_type=(select min(foo_type)

    0热度

    1回答

    尝试在第一次在Hawq数据库中恢复备份时。得到这个错误。 输入命令 我试图运行此命令 [[email protected] backup]$ pg_restore -d gpadminrestore gpadmin_10-01-2017 错误: pg_restore的:[自定义归档]意外的文件结尾

    0热度

    1回答

    我们有一些Greenplum数据库。 当试图读取其中的外部表。 得到错误 proddb=# select count(*) from ext_table; ERROR: external table gphdfs protocol command ended with error. sh: java: command not found (seg0 slice1 sdw: 40000 pid=

    0热度

    1回答

    我正在阅读HAWQ的规范。有一个问题:我创建了一个表(如'table_random'),随机分布在3个数据节点集群中,每个分区的磁盘空间几乎不足。然后我一个新的数据节点添加到集群,然后当我将数据插入到表“table_random”, - Does HAWQ will distribute data to the old data-nodes ? What will happen actually?