sqoop

    0热度

    1回答

    我有10个使用oozie执行的sqoop命令。我应该写10次sqoop动作,还是可以将sqoop命令放入文件并在sqoop动作中调用它。提前致谢。

    0热度

    1回答

    我有一个shell脚本执行sqoop job。脚本如下。 !#/bin/bash table=$1 sqoop job --exec ${table} 现在,当我在工作流程中传递的表名我可以成功执行的sqoop工作。 工作流程如下。 <workflow-app name="Shell_script" xmlns="uri:oozie:workflow:0.5"> <start to=

    0热度

    1回答

    的过程我有数据。我正在使用Pig到流程此数据。 PigSummarize数据将存储在Hive中。然后配置单元表使用Sqoop在RDBMS中导出。现在我需要自动化所有这个过程。这是可能的,我会写所有这些任务3特定的方法在的MapReduce,然后运行该的MapReduce工作,而所有这些任务由一个执行一个。 对于创建MapReduce作业,我想使用。 NetSDK。所以我的问题是这是可能的,并且如果

    0热度

    1回答

    我已经从我的SQL数据库,将数据传输到我的Azure的数据湖下面的命令Sqoop忽略列名: sqoop-import --connect "jdbc:sqlserver://MYDB.database.windows.net:1433;[email protected];password=MYPW;database=MYDb" --table TABLENAME --target-dir adl:

    0热度

    1回答

    据我了解sqoop,它推出使得与RDBMS的JDBC连接不同的数据节点上几个映射器。一旦形成连接,数据将被传输到HDFS。 只是想了解,是否sqoop映射器溢出数据临时磁盘(数据节点)上?我知道在MapReduce中发生溢出,但不知道sqoop作业。

    0热度

    1回答

    我正尝试使用sqoop job将数据从oracle迁移到Hbase。它看起来像已成功导出,但在导入时会引发错误同样在Hbase。 岗位1: ​ `​sqoop import --verbose --connect *** --username *** --password *** --table 'abc' --columns "MID,EID,RTIMESTAMP,VALUE,UTIMESTAM

    2热度

    1回答

    任何人都可以请帮我理解后,从源系统(Postgres,甲骨文,sqlserver)的数据导入hdfs使用sqoop。您执行的检查是否正确导入了所有数据,且没有任何差异。你如何确保你导入的数据不是重复的数据。你执行的其他检查是什么?

    1热度

    1回答

    在我的HDFS已经存在目录“MyDatabase的”,我试图更新是在MySQL与sqoop HDFS 然而数据,在进口清一色tables命令没有在HDFS目录中没有覆盖选项,仅在蜂巢 我尝试做以下命令: sqoop import-all-tables --connect jdbc:mysql://10.20.20.43/mydatabase --username blizzard --pas

    0热度

    1回答

    我有一个表中的sql服务器,我应该将它导入配置单元使用Java中的jdbc sqoop,我怎样才能连接到使用JDBC和导入sqoop配置单元?

    0热度

    1回答

    在这里,我想创建一个sqoop作业,但它的投掷错误 FYI:当我尝试直接sqoop导入它工作正常。 但是当我需要为这样的工作,当时其示值误差 sqoop job --create myjob \ --import \ --connect jdbc:mysql://ip-171-33-113-14:3306/sqooped \ --username squser \ --password A