cluster-computing

    1热度

    1回答

    我有三台机器位于不同的网络: 作为主 作为节点-1 作为节点-2 在如-master我将WildFly作为域主机主机,两个节点将WildFly作为域主机 - 从机,每个都在全功能服务器组中启动一个实例。在as-master Web控制台中,我可以看到full-ha配置文件运行时中的两个节点,如果我部署WAR,它将在两个节点上正确启动。 现在,我试图实现的是两个WAR实例之间的消息传递,即从as-n

    2热度

    1回答

    我在群集上运行tensorflow。我安装了CUDA版本。它工作没有任何问题。要使用GPU,我必须请求资源。现在,我只想在CPU上运行而不请求GPU资源。 On import tensorflow as tf, I get the error: ImportError: /home/.pyenv/versions/2.7.13/lib/python2.7/site-packages/tensor

    1热度

    2回答

    我在CentOS 7上创建了一个由2个节点和一个主节点组成的Kubernetes集群。当我使用kubectl get nodes时,它列出了节点,一切似乎都正常。 我的问题是:集群会自动平衡节点之间的资源吗?我的意思是,假设我在主节点(具有512MB内存)上使用WordPress安装了一个带有WordPress的nginx Web服务器,如果主服务器上的内存使用率几乎已满,它是否会根据其需要自动依

    -1热度

    1回答

    我一直在阅读和处理由博士伯纳德纳尔博士写的书中的问题。我只想知道这个问题是可行的,还是忘记提及一些细节? 不寻找任何人来解决它。的问题如下: 实现以下几个简单的聚类算法。当用户输入 作为新点时,检查它是否位于任何群集内。如果是这样,请用群集号标记它。如果它不落入任何现有群集,则以新点为中心和半径r开始一个新群集,该点由用户指定,并且对于所有群集都是相同的。 这是整个问题。

    3热度

    4回答

    目前,我已经在K8s服务中使用K8s API Pod来连接到K8s Redis服务,并使用它自己的K8s Pod。问题是,我使用的是NodePort,这意味着BOTH暴露给公众。我只希望API能够访问公众。问题是,如果我使Redis服务不公开,则API无法看到它。有没有办法连接两个服务而不向公众公开? 这是我的API服务YAML: apiVersion: v1 kind: Service me

    0热度

    1回答

    我有一个基于hazelcast的应用程序,它将一组特定的ips和端口传递给hazelcast。 如果其中一个套接字属于具有不同名称的群集,我该如何使hazelcast失败? 作为例子,我希望这些设置快速失败: node1 has ip1, is configured to form a cluster called "hello" with ip2 node2 has ip2, is confi

    0热度

    1回答

    我想就如何在HA中使用带RED HAT Linux OS的虚拟机的PHP应用程序设置服务器Web提供一些建议。 这个想法是让两个虚拟服务器Web共享一个共同的文档根目录,使用NFS或iSCSI加上其他两个复制数据的MariaDB数据库。 我有一些文档,无论如何,我想知道你的意见,特别是如何应对数据库的复制必须是多余的。 非常感谢 里卡多

    1热度

    1回答

    我正在使用python 2.7与spark独立群集。 当我在运行python脚本的同一台机器上启动master时。它工作顺利。 当我在远程计算机上启动主服务器并尝试启动本地计算机上的spark上下文以访问远程spark主服务器时。没有任何反应,我得到一个按摩,说任务没有得到任何资源。 当我访问主人的用户界面。我看到这份工作,但没有任何反应,它只是在那里。 如何通过本地python脚本访问远程spa

    -2热度

    1回答

    我已经建立了一个具有1个头节点和3个计算节点的小型集群。我的客户机是用于提交工作簿卸载作业的Windows 2016 Server。我的问题 - HPC非常缓慢;如果我在本地计算机上运行作业,则运行速度比HPC群集上的速度快10倍左右!我节点的配置如下: Headnode:2vCPU和8GB内存 计算节点:1vCPU和4GB内存的每个 我有一个可疑的问题可能是与节点之间的通信网络。或者完全不同的东

    1热度

    1回答

    我正在构建一个运行Apache Spark的Mesos集群。我更喜欢为我的Spark执行者使用Docker容器,我可以使用spark-submit的客户端模式(使用--master mesos://mesosmaster:5050和--conf spark.mesos.executor.docker.image=myimage:latest)执行此操作,但我希望能够在集群模式下执行相同的操作。 我