amazon-redshift

    0热度

    1回答

    我在寻找Amazon RedShift服务提供商。尽管我调查了一下,但我只找到提供商Amazon S3 Bucket。如何找到服务提供商和用户指南。

    0热度

    1回答

    我想使用复制命令将一些文件从S3复制到Redshift。我通过SQL工作台使用以下命令,它工作正常,它将数据复制到Redshift表。 copy <Redshift table name> from 's3://my-bucket/path/to/directory/part' iam_role 'arn:aws:iam::<IAM ROLE>' delimiter '|' dateform

    0热度

    2回答

    我射击这是使用PERCENTILE_CONT()函数,就像一个查询: select ..... PERCENTILE_CONT(0.90) within group (order by END_DATE-START_DATE) from .... where ..... ; 现在,当我从的SQLDeveloper Oracle数据库中火了这个查询完全工作正常,但对于一些因此,

    0热度

    1回答

    我在试图找到一个字符的ASCII值是一个字符串。我本质上是寻找CHR的对立面,CHR(65)= A。同样的,fn(A)应该返回65.我在redshift SQL手册中找不到任何函数。

    1热度

    2回答

    AWS Firehose在将数据复制到红移前使用S3作为间歇存储。一旦数据传输到红移,如果成功,如何自动清除它们。 我手动删除了这些文件,它出于抱怨文件被删除的状态,我不得不再次重新创建Firehose以恢复。 使用S3规则在7天后删除这些文件将工作吗?或者有没有自动化的方式,Firehose可以删除移动到红移的成功文件。

    0热度

    1回答

    我想使用'COPY'命令将数据从amazon S3加载到Redshift数据库中。但我想从Linux机器中的shell/perl脚本执行它不在AWS群集之外。我想知道是否有任何Redshift客户端可以安装在Linux机器上,以帮助我实现与SnowFlake的SnowSQL客户端类似的功能?

    0热度

    1回答

    我有来自不同生产者的Kinesis流中的数据。根据数据的类型,数据需要转换为几个不同的表格。我试图从Kinesis Streams读取Lambda,将数据转换为不同的表格,然后使用Kinesis Firehose将批处理和COPY转换为Redshift。 但是由于Firehose一次只能传递给一个Redhsift表,因此我需要使多个Firehose实例的运行时间与我在Redshift模式中使用的表

    0热度

    1回答

    我使用DataGrip在Redshift群集上运行查询,这些查询运行10小时以上,不幸的是这些查询通常会失败。唉,DataGrip不会维护与数据库的连接足够长的时间,以至于我看不到查询失败的错误消息。 以后有没有办法检索这些错误信息,例如,使用内部的Redshift表?另外,是否有办法让DataGrip维持足够长的连接?

    0热度

    1回答

    请注意,我特别询问DDL查询。从文档中,不清楚如何做到这一点,或者甚至有可能。 STL_DDLTEXT似乎只显示完成 DDL查询。 STV_RECENTS和STV_INFLIGHT不记录它们是否显示定期查询与DDL;从经验来看,我从来没有在这些系统视图中看到任何DDL查询。

    0热度

    1回答

    我有一个查询,我在redshift中运行,当我尝试比较两个日期时产生错误。我确定这是由于数据问题,其中日期是VARCHAR,有些是空字符串。最好的解决方案显然是从源头上解决这个问题,但是当试图建立一个解决方案时,我偶然发现了一些非常奇怪的行为。 为了解决问题,我预先选择了非空字符串的日期,并将其转换为日期,然后转换为整数日期格式(YYYYMMDD)并转换为INT。这运行良好。但是,如果我尝试将其与