mapr

    0热度

    2回答

    当我尝试使用"sqlContext.read.format("libsvm").load"导入在pyspark /斯卡拉一个LIBSVM文件,我碰到下面的错误 - “无法加载类数据源:Libsvm“。 与此同时,如果我使用"MLUtils.loadLibSVMFile"它工作得很好。我需要使用Spark ML(以获得课堂概率)和MLlib进行评估。附上错误截图。 这是一个MapR群集。 1.5.2

    0热度

    1回答

    我有一个拥有777权限的HBase表。每当我截断此表(表上的truncate命令)时,表权限将更改为r --------。你知道为什么吗? 谢谢。

    0热度

    1回答

    我正在运行一个旧的MapR群集mapr3。 如何为mapr3构建Spark 1.5.x的自定义分发?

    0热度

    1回答

    我的问题的简短版本:我们需要从Spark作业中调用命令行。这是可行的吗?群集支持小组表示这可能会导致内存问题。 长版本:我有一份工作,我需要运行在使用tshark/wireshark捕获的Hadoop/MapR集群处理数据包数据上。数据是二进制包数据,每分钟捕获一个文件。我们需要从这个数据包数据中提取某些字段,例如IP地址等。我们已经研究了诸如jNetPcap这样的选项,但是这个库有点受限。所以看

    0热度

    1回答

    我正在使用MapR快速安装版本5.0安装hadoop,并且出现以下错误。 MAPR CLDB未能为600秒 我现在用的是社区版 下面内上线是日志文件 2016年2月17日23:37:26.753:调试msg =“CLDB节点 - {{0} - > {}} - > ok:{CLARiiOG节点 - wadev-mapr-n1}} 2016-02-17 23:52:54.573失败:[wait_for

    1热度

    2回答

    我已经写了一个带有两个输入参数的驱动程序代码:args [0]和args [1]。 我想使用ARGS [0]即输入文件路径,如在映射器代码,使得我的缓冲器读取器可以读取文件我的文件路径的一个如图所示波纹管: { public void map(LongWritable key, Text value, Context context) throws java.io.IOExcepti

    3热度

    2回答

    我试图寻找在论坛上,在那里我可以从现有的HBase表模式的新的空HBase的表,但没能找到。 更确切地说,假设我有一个多列家庭和这些家庭中的许多列预选赛的表。 现在我要创建另一个空表具有相同的架构。我们是否有办法像在RDBMS中那样创建表格。 Create table new_table as select * from existing_table where 1=2; 现有表具有复杂的结

    0热度

    1回答

    尝试从Spring Boot配置连接MapR沙箱虚拟机。 @Bean FsShell fsShell() { org.apache.hadoop.conf.Configuration hadoopconfiguration = new org.apache.hadoop.conf.Configuration(); hadoopconfiguration.set("fs.

    0热度

    1回答

    是否有命令查看MapR-DB表有多大? 我在POSIX客户端上尝试了du -sh,但所有的表都是相同的大小,所以我认为这是不正确的。

    0热度

    1回答

    我正在尝试调用一系列ID的API,然后利用这些ID在使用curl的bash脚本中查询某台机器的某些信息,然后擦洗在输出这些数据之前只有一些选择的数据。 #!/bin/bash url="http://<myserver:myport>/ws/v1/history/mapreduce/jobs" for a in $(cat jobs.txt); do content="$(curl