我是MPI并行编程的初学者。我写了一段代码来绘制曼德尔布罗特分形。其思想是,第一个从节点将计算前半部分,将其粘贴在指针中,并将其发送给等待接收指针的主节点。第二个节点也会发生同样的情况。最后,主节点应该将结果放入两个不同的变量中,并将它们写入一个文件中。
......
if((itertab=malloc((sizeof(int)*sizebuffre))) == NULL) {
printf("ERREUR , errno : %d (%s) .\n",errno,strerror(errno));
return EXIT_FAILURE;
}
int rank, size,start,end;
MPI_Init (&argc, &argv); /* starts MPI */
MPI_Comm_rank (MPI_COMM_WORLD, &rank); /* get current process id */
MPI_Comm_size (MPI_COMM_WORLD, &size); /* get number of processes */
MPI_Status st;
/*allocation du tableau de pixel*/
if (rank==1) {
xpixel = 0;
end = (nbpixelx/MACHINE_NUM);
Calcule(xpixel,end);
printf("rank 1 start : %d, end : %d\n",xpixel,end);
MPI_Send(&itertab,sizebuffre,MPI_INT,0,5,MPI_COMM_WORLD);
free(itertab);
printf("work done : i am rank 1 \n");
}
if (rank==2) {
xpixel = (nbpixelx/MACHINE_NUM);
end = nbpixelx;
Calcule(xpixel,end);
printf("rank 2 start : %d, end : %d\n",xpixel,end);
MPI_Send(&itertab,sizebuffre,MPI_INT,0,6,MPI_COMM_WORLD);
printf("work done : i am rank 2 \n");
free(itertab);
}
if (rank==0) {
if((itertabA=malloc((sizeof(int)*sizebuffre))) == NULL) {
printf("ERREUR d'allocation de itertabA, errno : %d (%s) .\n",errno,strerror(errno));
return EXIT_FAILURE;
}
if((itertabB=malloc((sizeof(int)*sizebuffre))) == NULL) {
printf("ERREUR d'allocation de itertabB, errno : %d (%s) .\n",errno,strerror(errno));
return EXIT_FAILURE;
}
printf("test before reciving result from first slave\n");
MPI_Recv(itertabA,sizebuffre,MPI_INT,1,5,MPI_COMM_WORLD,&st);
printf("result recived rank 1 \n");
MPI_Recv(itertabB,sizebuffre,MPI_INT,2,6,MPI_COMM_WORLD,&st);
printf("result recived rank 2 \n");
}
MPI_Finalize();
return EXIT_SUCCESS;
}
问题是我的代码冻结在主服务器从第一个从服务器接收结果的行中,但我不知道为什么?
我试着调试结果。我添加了一些printf来查看它在哪里冻结。结果是:
test before reciving result from first slave
test in calcule function
trairment xpixel 0
trairment xpixel 1
trairment xpixel 2
...snip...
trairment xpixel 399
test after the end off calculating loop
rank 1 start : 0, end : 400
^C
最佳答案
您的MPI代码不能正常工作,因为您将错误的参数传递给MPI_Send
。变量itertab
已经是指向数据缓冲区的指针,因此不需要再次取消引用它。
而不是:
MPI_Send(&itertab,sizebuffre,MPI_INT,0,5,MPI_COMM_WORLD);
做:
MPI_Send(itertab,sizebuffre,MPI_INT,0,5,MPI_COMM_WORLD);
另一个问题是,无论是在
Calcule
函数中还是在输出循环中,您都在访问未分配的内存。在Calcule
函数中,您正在写入itertab[xpixel*nbpixely+ypixel]=iter
。对于进程2
,这将失败,因为它只分配其itertab
缓冲区的本地部分。您需要减去xpixel
的偏移量。在输出循环中,使用全局索引读取
itertabB
。在这里,还应该减去xpixel
的偏移量,如下所示:fprintf(file,"%f %f %d\n", x, y,itertabB[(xpixel-(nbpixelx/MACHINE_NUM))*nbpixely+ypixel]);
关于c - MPI_Recv期间卡住MPI程序,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/29458986/