hadoop-2.7.2

    1热度

    1回答

    使用Hadoop的Apache 2.7.1在CentOS 7 IAM,我想用webhdfs命令 curl -i -x DELETE "http://192.168.25.21:50070/webhdfs/v1/hadoophome/file1/?user.name=root&op=DELETE&recursive=true" 删除文件(文件1),但IAM越来越 curl: (5) Could

    0热度

    1回答

    我刚刚开始使用Pig学习,为此我在Ubuntu 14.04 LTS上使用Pig版本0.16.0安装了伪分布式Hadoop 2.7.2。以下是我的配置,猪和Hadoop - 文件:.bashrc中 #=============================================================== # Hadoop Variable List export JAVA

    0热度

    1回答

    我遵循Apache Hadoop安装链接,并可能与PIG一起安装。他们都工作正常。 以下是配置: 的Hadoop:2.7.2 蜂巢:2.1.0 机:Ubuntu的LTS 14.04 64位 的Java:第9版 现在我试图安装的Apache根据蜂巢2.1.0到这个链接[https://cwiki.apache.org/confluence/display/Hive/AdminManual+Insta

    0热度

    2回答

    安装的Hadoop 2.7.1在Ubuntu 15.10 一切工作正常,只有当我打JPS,我可以看到除了namenode以外的所有恶魔。 在启动它显示: - su: /home/hduser/../libexec/hadoop-config.sh: No such file or directory 当我GOOGLE了它,我才知道,我可以忽略这一点,因为我的 <property> <na

    1热度

    1回答

    我在嵌入式德比Metastore的系统上首次安装配置单元,但它不起作用。它显示了下面提到的错误。 Caused by: javax.jdo.JDOFatalInternalException: The java type java.lang.Long (jdbc-type="",sql-type="") cant be mapped for this metastore.No mapping is

    3热度

    1回答

    有人能帮助我理解JVM和YARN中容器之间的关系吗? 如何创建JVM,它是每个任务的一个JVM吗?多个任务可以同时在同一个JVM中运行? (我知道ubertasking许多任务(maps/reduce)可以在同一个JVM中依次运行)。 它是每个容器的一个JVM吗?或单个JVM中有多个容器?或者JVM和容器之间没有关系? 当资源管理器为作业分配容器时,同一作业中的多个任务是否对同一节点中运行的任务使

    0热度

    1回答

    我尝试访问网址为namenode的网址为namenode IP。它抛出了一个错误HTTP ERROR 404Problem accessing /dfshealth.jsp. Reason: NOT_FOUND 我能够访问Namenode网址与主机名。 /etc/hosts文件: 127.0.0.1 localhost 192.168.10.103 impc2390 192.168.1

    -2热度

    1回答

    我已经在Windows 8上安装了Oracle虚拟框,并且想要与多个节点进行集群。 - 创建一个主节点 - 创建了两个从属节点 现在对于群集,因为它需要所有节点的IP地址,但在我的情况下,它显示了所有的节点相同的IP。 [使用ifconfig命令查看IP,对于安装在VM 10.0.2.15上的所有节点都是相同的] 如何为每个节点获取不同的IP?这真的需要吗?或者我可以继续使用相同的IP?

    0热度

    1回答

    我安装了一个四节点hadoop集群。在hadoop Webui我可以看到所有的datanode和namenode已启动并正在运行。但是当我在配置单元中运行select count(*) from table_name;时,查询正在卡住。 hive> select count(*) from test_hive2; Query ID = dssbp_20160804124833_ff269da1-

    0热度

    1回答

    我无法从pyspark窗口 schemaPeople = spark.createDataFrame(people) 我已经设置HADOOP_HOME到winutils 我提供77权限到C执行下面的命令:/ tmp目录/蜂房 不过我提示以下错误: - Py4JJavaError: An error occurred while calling o23.applySchemaToPythonRD