mpi

    0热度

    2回答

    我有一个数据需要广播给工作人员。 但是我不能接收它,即使我使用MPI_Wait而不是MPI_Test,除非我使用阻塞MPI_Bcast。 我不知道发生了什么,我尝试了很多方法,但都没有工作。 在我的代码中是否有任何错误? #include <stdio.h> #include <unistd.h> #include <mpi.h> int main() { int rank,

    0热度

    1回答

    我正在努力了解OpenMPI中的信号处理。我读到“Open MPI将SIGUSR1和SIGUSR2从mpiexec转发到其他进程”。我的问题是,这是默认安装启用此功能。 这种情况是,一个MPI进程产生一个SIGUSR1,必须通过'orted'来检测,然后转发给其他进程。 在我的测试代码中,我为SIGUSR1定义了一个自定义信号处理程序,并相应地注册了该信号处理程序。我使用kill()或raise(

    0热度

    1回答

    首先,我有keypairs,虽然涉及到ssh,但这不是一个密码问题。 我也有MPICH,Hydra,SLURM和lamd ...这是一个集群计算问题。 Node0将启动,但node1挂起。我已经有这个问题好几天了。我的nfs镜像工作的很好,我可以在node2上的8个核心上运行Game of ...这真的很酷,只是问我一下吧... 但是,当我想要在所有三个节点我一起点击来自每个节点的密码请求,因为n

    0热度

    3回答

    我正在并行运行MPI实例。在某些时候,每个实例都有一个100个排名值的列表。我现在想收集所有实例中的前100个值。 这怎么能在MPI中完成?有专门的功能吗? 谢谢!

    0热度

    1回答

    我是MPI编程的初学者。我试图执行一个代码,其中使用A new [i] [j] = Aold [i] [j] + Aold [i] [j + 1]从旧的矩阵形成新的矩阵,并且这发生在10倍。我写了下面的代码: #include"mpi.h" #include<stdio.h> #include <stdlib.h> int main(int argc, char *argv[]) {

    0热度

    2回答

    在TBB中,task_scheduler_init()方法通常(而且应该是?)在内部调用,这是一个慎重的设计决策。 但是,如果我们混合使用TBB和MPI,是否保证线程安全,而不控制每个MPI进程的线程数?例如,假设我们有7个内核(没有超线程)和2个MPI进程。如果每个进程同时使用4个线程产生一个单独的TBB任务,那么存在冲突,可能导致程序在运行时崩溃。 我是TBB的新手。 期待您的意见和建议!

    2热度

    1回答

    我需要在MPI中进行集体通信的allreduce(MPI_Ineighbor_allreduce),遗憾的是它尚未包含在内。 一个明显的,不是很有效的解决方案是使用MPI_Neighbor_alltoall 以增加缓冲区大小为代价,你有什么建议吗? 有没有计划在未来的版本中包含这一点? 感谢

    0热度

    1回答

    我正在尝试实现下面的过滤器代码的MPI,但我在做这件事时遇到困难。它应该如何做?: 过滤代码: int A[100000][100000]; int B[100000][100000]; for (int i=1; i<(100000 - 1); i++) for (int i=1; j<(100000 - 1); j++) B[i][j] = A[i-1][j] + A[i+1

    0热度

    1回答

    我一直在试图了解OpenMPI(V2.0.2)中的Segemented Ring Allreduce。但是我没能弄清楚这个流水线环allreduce,尤其是这些阶段如何流水线化。 (即计算阶段1(b)似乎同时执行两个阶段而不是“流水线”)。MPI专家是否可以提供此分段环Allreduce背后的动机以及有关流水线的详细信息? 真的很感激, 利奥

    0热度

    1回答

    我试图让使用共享文件从mpi4py为logging模块文件处理程序。但我无法写出来。 程序: from mpi4py import MPI import io class MPILogFile(object): def __init__(self, comm, filename, mode): self.file_handle = MPI.File.Open(comm,