openmpi

    1热度

    1回答

    许多系统(例如Google云计算实例)都预先安装了OpenMPI v1.X. 由于v2.X已经出现一段时间了,是否最好升级并使用它?主要区别是什么?总体性能和稳定性有差异吗?我一直在寻找这些信息,除了详细和渐进的更改列表外,我找不到一个总体概述。

    0热度

    1回答

    我正在努力了解OpenMPI中的信号处理。我读到“Open MPI将SIGUSR1和SIGUSR2从mpiexec转发到其他进程”。我的问题是,这是默认安装启用此功能。 这种情况是,一个MPI进程产生一个SIGUSR1,必须通过'orted'来检测,然后转发给其他进程。 在我的测试代码中,我为SIGUSR1定义了一个自定义信号处理程序,并相应地注册了该信号处理程序。我使用kill()或raise(

    1热度

    1回答

    我想尝试在C++中使用OpenMPI,所以我写了一个小代码来进行数值积分。我的问题是,它似乎DEOS不执行线在这一切发生的正确: integral = trapezintegration(local_a, local_b, local_n); 现在我确信的是,MPI正常工作这一行的旁边。当打印出local_a,local_b,local_n和rank_world时,我得到: 0 3.75 2.

    0热度

    1回答

    当I型: mpiexec -n 12 ./Main 我得到的消息:使用具有1线/节点12个节点 ,共计12个处理 我想我的整个的将一组内核识别为1节点并运行其中的所有12个线程,而不是将12个独立作业发送到12个内核中的每一个。

    0热度

    2回答

    运行的openmpi命令 “mpicxx hello_cxx.cc -o你好”,而 hello_cxx.cc: In function ‘int main(int, char**)’: hello_cxx.cc:25:5: error: ‘MPI’ has not been declared MPI::Init(); ^~~ hello_cxx.cc:26:12: error

    0热度

    1回答

    我想在我的mpi程序中执行边界交换。 我有结构,看起来像: cell** local_petri_A; local_petri_A = calloc(p_local_petri_x_dim,sizeof(*local_petri_A)); for(int i = 0; i < p_local_petri_x_dim ; i ++){ local_petri_A[i] = cal

    0热度

    2回答

    我使用C和OpenMPI实现了MIMD遗传算法,其中每个进程都照顾独立的子群(岛模型)。因此,对于规模为200的人口,1个过程运行在整个人口中,而2个过程演变100个人口。 因此,通过使用MPI_Wtime来测量执行时间,我得到了预期的执行时间通过使用ubuntu运行在2核机器上。然而,它并不同意ubuntu的时间命令和感知:很明显,由于某种原因,运行2个进程需要更长的时间。 $time mpir

    0热度

    1回答

    我一直在试图了解OpenMPI(V2.0.2)中的Segemented Ring Allreduce。但是我没能弄清楚这个流水线环allreduce,尤其是这些阶段如何流水线化。 (即计算阶段1(b)似乎同时执行两个阶段而不是“流水线”)。MPI专家是否可以提供此分段环Allreduce背后的动机以及有关流水线的详细信息? 真的很感激, 利奥

    0热度

    1回答

    我有一个MPI程序,我想在30个节点上运行(每个节点有32个内核)。我如何将一个节点的所有内核分配给单个作业/进程? 我正在使用插槽来限制特定节点的作业数量。 node001 slots = 1 max_slots = 20 node002 slots = 1 max_slots = 20 是否有任何参数可用于实现此目的? 在此先感谢。

    0热度

    1回答

    我是Starcluster软件的新手,我正在尝试在3节点集群中编译我的第一个复杂程序。 我按照群集创建的说明,将文件放在sgeadmin文件夹中,并尝试编译。以下错误弹出: [email protected]:~$ make Building file: MyApp.cpp Invoking: GCC C++ Compiler mpiCC -std=c++0x -O3 -Wall -c -f