我是MPI并行编程的初学者。我写了一段代码来绘制曼德尔布罗特分形。其思想是,第一个从节点将计算前半部分,将其粘贴在指针中,并将其发送给等待接收指针的主节点。第二个节点也会发生同样的情况。最后,主节点应该将结果放入两个不同的变量中,并将它们写入一个文件中。

......
    if((itertab=malloc((sizeof(int)*sizebuffre))) == NULL) {
        printf("ERREUR , errno : %d (%s) .\n",errno,strerror(errno));
        return EXIT_FAILURE;
    }
    int rank, size,start,end;

    MPI_Init (&argc, &argv); /* starts MPI */
    MPI_Comm_rank (MPI_COMM_WORLD, &rank); /* get current process id */
    MPI_Comm_size (MPI_COMM_WORLD, &size); /* get number of processes */
    MPI_Status st;

    /*allocation du tableau de pixel*/
    if (rank==1) {
        xpixel = 0;
        end = (nbpixelx/MACHINE_NUM);
        Calcule(xpixel,end);
        printf("rank 1 start : %d, end : %d\n",xpixel,end);
        MPI_Send(&itertab,sizebuffre,MPI_INT,0,5,MPI_COMM_WORLD);
        free(itertab);
        printf("work done : i am rank 1 \n");
    }
    if (rank==2) {
        xpixel = (nbpixelx/MACHINE_NUM);
        end = nbpixelx;
        Calcule(xpixel,end);
        printf("rank 2 start : %d, end : %d\n",xpixel,end);
        MPI_Send(&itertab,sizebuffre,MPI_INT,0,6,MPI_COMM_WORLD);
        printf("work done : i am rank 2 \n");
        free(itertab);
    }

    if (rank==0) {
        if((itertabA=malloc((sizeof(int)*sizebuffre))) == NULL) {
            printf("ERREUR d'allocation de itertabA, errno : %d (%s) .\n",errno,strerror(errno));
            return EXIT_FAILURE;
        }
        if((itertabB=malloc((sizeof(int)*sizebuffre))) == NULL) {
            printf("ERREUR d'allocation de itertabB, errno : %d (%s) .\n",errno,strerror(errno));
            return EXIT_FAILURE;
        }
        printf("test before reciving result from first slave\n");
        MPI_Recv(itertabA,sizebuffre,MPI_INT,1,5,MPI_COMM_WORLD,&st);
        printf("result recived  rank 1 \n");
        MPI_Recv(itertabB,sizebuffre,MPI_INT,2,6,MPI_COMM_WORLD,&st);
        printf("result recived rank 2 \n");



    }

    MPI_Finalize();
    return EXIT_SUCCESS;
}

问题是我的代码冻结在主服务器从第一个从服务器接收结果的行中,但我不知道为什么?
我试着调试结果。我添加了一些printf来查看它在哪里冻结。结果是:
test before reciving result from first slave
test in calcule function
trairment xpixel 0
trairment xpixel 1
trairment xpixel 2
...snip...
trairment xpixel 399
test after the end off calculating loop
rank 1 start : 0, end : 400
^C

最佳答案

您的MPI代码不能正常工作,因为您将错误的参数传递给MPI_Send。变量itertab已经是指向数据缓冲区的指针,因此不需要再次取消引用它。
而不是:

MPI_Send(&itertab,sizebuffre,MPI_INT,0,5,MPI_COMM_WORLD);

做:
MPI_Send(itertab,sizebuffre,MPI_INT,0,5,MPI_COMM_WORLD);

另一个问题是,无论是在Calcule函数中还是在输出循环中,您都在访问未分配的内存。在Calcule函数中,您正在写入itertab[xpixel*nbpixely+ypixel]=iter。对于进程2,这将失败,因为它只分配其itertab缓冲区的本地部分。您需要减去xpixel的偏移量。
在输出循环中,使用全局索引读取itertabB。在这里,还应该减去xpixel的偏移量,如下所示:
fprintf(file,"%f %f %d\n", x, y,itertabB[(xpixel-(nbpixelx/MACHINE_NUM))*nbpixely+ypixel]);

关于c - MPI_Recv期间卡住MPI程序,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/29458986/

10-11 19:41