hive

    0热度

    1回答

    我已经在我的群集上安装了presto以执行一些查询。我有4个节点和16GB的RAM。我已经按照步骤来配置presto,但是当我运行一个查询时,它会比永远相同的查询花费更多的时间。所以我想我的配置有问题。 我想也许我在我的node.properties文件属性中的错误值 query.max-memory和query.max-memory-per-node。考虑到每个节点有16GB内存,这些属性的正确

    0热度

    1回答

    我有没有table1分区键,我想创建一个table2,用相同的模式table1,但设置一列“datestr”作为分区键。我如何编写CREATE TABLE LIKE查询来执行此操作? table1: datestr, userID, transaction, balance table2 (set datestr as partition key): datestr, userI

    0热度

    1回答

    我已经创建了一个外部表,如下面中间一列: create external table if not exists complaints (date_received string, product string, sub_product string, issue string, sub_issue string, consumer_complaint_narrative string, stat

    1热度

    1回答

    我第一次尝试是: CREATE TABLE t1 ( a string) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' STORED AS TEXTFILE ; 但是,其结果是: CREATE TABLE t1 ( a string) ROW FORMAT DELIMITED

    0热度

    1回答

    我正在进行一些事务分析。 我希望看到每笔交易数量的交易量。 下面是数据和结果通缉。 table name: trans_cust store_id trans_id product qty A 123 milk 1 A 123 chocolate 1 A 123 candy 1 A 456 milk 4 A 789 candy 1 B 321 ch

    1热度

    2回答

    我正在开发Hive查询使用R文件的作业,这些文件分布在群集上以便在每个节点上运行。 就像是: ADD FILES hdfs://path/reducers/my_script.R SET hive.mapred.reduce.tasks.speculative.execution=false; SET mapred.reduce.tasks = 80; INSERT OVERWRITE T

    0热度

    2回答

    尝试从2.1.0升级蜂房2.3.0获得以下错误 (其实升级EMR 5.7.0至5.8.0) ​​ Notice: /Stage[main]/Hadoop_hive::Init_metastore_schema/Exec[init hive-metastore schema]/returns: Error: Duplicate key name 'PCS_STATS_IDX' (state=4200

    0热度

    2回答

    我有许多用户和日期时间列。我想知道每个用户每年和每个月的最小值和最大值? name date Income Expense Vijay 12-10-2017 10 8 Vijay 16-04-2017 25 12 year(date) as Y_year, month(date) as M_Month, 我尝试下面的代码,但没有用任何 min(Income)over

    11热度

    2回答

    我使用的是HDP-2.6.0.3,但我需要Zeppelin 0.8,所以我将它作为独立服务安装。当我运行时: %sql show tables 我没有得到任何回应,当我运行Spark2 SQL命令时,我得到'table not found'。表可以在0.7是齐柏林是HDP的一部分。 任何人都可以告诉我我缺少什么,对于Zeppelin/Spark来看蜂巢? 步骤我执行创建zep0.8如下: m

    0热度

    1回答

    如何使用spark将数据从Oracle数据库导入到dataframe或rdd,然后将此数据写入一些配置单元表? 我有相同的代码: public static void main(String[] args) { SparkConf conf = new SparkConf().setAppName("Data transfer test (Oracle -> Hive)").setMa