cloudera

    0热度

    1回答

    我写了这个代码没有这样的文件或目录: from pyhive import hive connection = hive.connect("quickstart.cloudera", username="cloudera", port=10000) cursor = connection.cursor() query = "SELECT * FROM capacite

    0热度

    1回答

    我在CDH 5.9上运行卡夫卡0.10.0,群集被kerborized。 我想要做的是将消息从远程机器写入我的卡夫卡经纪人。 群集(其中安装了Kafka)具有内部以及外部IP地址。 集群中机器的主机名解析为私有IP,远程机器将相同的主机名解析为公有IP地址。 我从远程机器打开必要的端口9092(我使用SASL_PLAINTEXT协议)到Kafka Broker,验证了使用telnet。 第一步 -

    0热度

    1回答

    当我尝试使用Sparklyr包使用ml_decision_tree或ml_logistic_regresion时出现以下错误。我在cloudera集群上使用spark2.1.0。 > No rows dropped by 'na.omit' call. Error in > stop(simpleError(sprintf(fmt, ...), if (call.) > sys.call(sy

    1热度

    1回答

    我拥有Cloudera 5.10的群集。 对于剖析我正在与参数火花提交: --conf "spark.driver.extraJavaOptions= -agentpath:/root/yjp-2017.02/bin/linux-x86-64/libyjpagent.so=sampling" --conf "spark.executor.extraJavaOptions= -agentpath:

    0热度

    1回答

    我有一个在CDH 5.8.3中运行的flume代理程序。如果发送超过3个有效文件,它在写入hdfs时会创建多个.tmp文件。有一个拦截器可以在hdfs接收器之前将有效的xmls传递给适当的主题。此代理正在使用flafka。拦截器和卡夫卡正在正常工作。 agent.sinks.hdfs_valid.channel=valid_channel agent.sinks.hdfs_valid.type=

    0热度

    1回答

    我试图解决方案在现有类似职位建议,但没有为我工作:-(变得非常绝望,所以我决定发布这个作为一个新的问题。 我在一个Cloudera的VM构建第一阶或Java应用程序与星火尝试了教程(下面的链接)。 这是我的火花提交命令及其输出 [[email protected] sparkwordcount]$ spark-submit --class com.cloudera.sparkwordcount.S

    0热度

    2回答

    我有一个配置单元问题。我正在使用cloudera测试群集并禁用权限管理,因此Hive中没有ACL处理。 现在我可以删除另一个用户的表格。之后该表格不存在于Hive Metastore中。问题是,hdfs中的文件还存在。 因此,如果我再次创建相同的表格,则会填充旧数据,因为hdfs镶木地板文件相同。 所有用户都在群组配置单元中。 所有数据库文件都被授予以下权限:rwxrwxrwt 如果要完全删除包含

    0热度

    1回答

    我正在Docker上尝试Cloudera。启动Cloudera的命令是docker run --privileged=true --hostname=quickstart.cloudera -t -i ${HASH} /usr/bin/docker-quickstart。但是,我根本没有/usr/bin/docker-quickstart。我确定我遵循默认步骤在我的MacBook上安装Docker

    1热度

    2回答

    我在使用Sqoop导入的HDFS中有一些数据。数据导入为ORC,压缩为Snappy。 我想用下面的DDL语句在这个数据之上创建一个表。但是,我收到以下错误。 失败:SemanticException [错误10043]:列的任一列表或 自定义序列应该通过定义ROW FORMAT SERDE and STORED AS INPUTFORMAT and OUTPUTFORMAT DDL指定 不过,我定

    0热度

    1回答

    不Cloudera的5.1.2支持FILEFORMAT镶.. 的Hadoop 2.3.0-cdh5.1.2 我们有在现场Cloudera的一些兼容性