这个问题的背景是在一些计算领域,比如计算流体动力学(CFD)。我们经常需要在一些关键区域更精细的网格/网格,而背景网格可能更粗糙。例如,自适应细化网格以跟踪气象学中的冲击波和嵌套域。

使用笛卡尔拓扑,域分解如下图所示。在这种情况下,使用 4*2=8 个处理器。单个数字表示处理器的等级,(x,y) 表示其拓扑坐标。
fortran - MPI 中的多个通信器-LMLPHP

假设网格在等级为 2、3、4、5(中间)的区域中被细化,并且在这种情况下局部细化比率定义为 R=D_coarse/D_fine=2。由于网格细化,所以时间推进也应该细化。这需要在细化区域中计算时间步长 t、t+1/2*dt、t+dt,而在全局区域中仅计算时间步长 t 和 t+dt。这需要一个较小的通信器,它只包括中间的等级以进行额外的计算。全局秩+坐标和对应的局部(红色)草图如下所示:

fortran - MPI 中的多个通信器-LMLPHP

但是,我在实现此方案时遇到了一些错误,并显示了 Fortran 中的片段代码(不完整):

integer :: global_comm, local_comm   ! global and local communicators
integer :: global_rank, local_rank   !
integer :: global_grp,  local_grp    ! global and local groups
integer :: ranks(4)                  ! ranks in the refined region
integer :: dim                       ! dimension
integer :: left(-2:2), right(-2:2)   ! ranks of neighbouring processors in 2 directions
ranks=[2,3,4,5]

!---- Make global communicator and their topological relationship
call mpi_init(ierr)
call mpi_cart_create(MPI_COMM_WORLD, 2, [4,2], [.false., .false.], .true., global_comm, ierr)
call mpi_comm_rank(global_comm, global_rank, ierr)
do dim=1, 2
    call mpi_cart_shift(global_comm, dim-1, 1, left(-dim), right(dim), ierr)
end do


!---- make local communicator and its topological relationship
! Here I use group and create communicator

! create global group
call mpi_comm_group(MPI_COMM_WORLD, global_grp, ierr)

! extract 4 ranks from global group to make a local group
call mpi_group_incl(global_grp, 4, ranks, local_grp, ierr)

! make new communicator based on local group
call mpi_comm_create(MPI_COMM_WORLD, local_grp, local_comm, ierr)

! make topology for local communicator
call mpi_cart_create(global_comm, 2, [2,2], [.false., .false.], .true., local_comm, ierr)

! **** get rank for local communicator
call mpi_comm_rank(local_comm, local_rank, ierr)

! Do the same thing to make topological relationship as before in local communicator.
 ...

当我运行程序时,问题来自“**** get rank for local Communicator”步骤。我的想法是建立两个传播者:全局传播者和本地传播者,本地传播者嵌入全局传播者。然后分别在全局和局部通信器中创建它们对应的拓扑关系。如果我的概念错误或某些语法错误,我不会。如果你能给我一些建议,非常感谢。

错误信息是
*** An error occurred in MPI_Comm_rank
 *** reported by process [817692673,4]
 *** on communicator MPI_COMM_WORLD
 *** MPI_ERR_COMM: invalid communicator
 *** MPI_ERRORS_ARE_FATAL (processes in this communicator will now abort,
 ***    and potentially your MPI job)

最佳答案

您正在从包含八个等级的全局通信器组创建 2x2 笛卡尔拓扑。因此,在其中四个中,local_comm 返回的 MPI_Cart_create 值将是 MPI_COMM_NULL 。在空通信器上调用 MPI_Comm_rank 会导致错误。

如果我正确理解您的逻辑,您应该执行以下操作:

if (local_comm /= MPI_COMM_NULL) then
  ! make topology for local communicator
  call mpi_cart_create(local_comm, 2, [2,2], [.false., .false.], .true., &
                     local_cart_comm, ierr)

  ! **** get rank for local communicator
  call mpi_comm_rank(local_cart_comm, local_rank, ierr)

  ...
end if

关于fortran - MPI 中的多个通信器,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/45061422/

10-11 12:20