写的MPI程序需要用到并行IO来操作文件,但是搜遍了度娘都没有找到多少关于并行IO函数的使用方法。最后在知网搜到了一些有用的论文,看了一下,感觉豁然开朗。

  MPI-1对文件的操作是使用绑定语言的函数调用来进行的,通常采用的是串行IO的读写方式,一般情况下是用一个主进程打开文件和读取数据,然后分发给其他进程来处理,这种串行IO数据的通信量很大、效率较低。MPI-2实现了并行IO,允许多个进程同时对文件进行操作,从而避免了文件数据在不同进程间的传送,对于需要密集文件操作的程序而言,简直是一大福祉!

  并行IO可分为三种方法:指定显式偏移量、独立文件指针和共享文件指针,每种方式又可分为阻塞和非阻塞两种情况。

  下面以读写一个二进制文件数组为例,阐述这三种方法的函数调用。下面的三个mian函数分别对应三种方法,读取“data"二进制文件数组(文件内容:行数、列数、数组元素),读取完整后由进程0输出其读取的数据以验证读取是否正确,最后所有进程将其读取的数据写入一个叫“data2"的二进制文件。怎么来查看二进制文件的内容以验证是否读写正确呢,或者说二进制文件和可读内容的文本文件之间怎么转换呢?下面也给出简单代码。

  

  code:

 #include<stdio.h>
#include<stdlib.h>
#include<string.h>
#include"mpi.h" #define BLOCK_LOW(rank,size,n) ((rank)*(n)/(size))
#define BLOCK_HIGH(rank,size,n) (BLOCK_LOW((rank)+1,size,n)-1)
#define BLOCK_SIZE(rank,size,n) (BLOCK_HIGH(rank,size,n)-BLOCK_LOW(rank,size,n)+1) //并行IO:指定显式偏移的文件操作
int main(int argc, char *argv[])
{
int size,rank,i;
int n,m;
float *array;
MPI_File fh;
MPI_Status status;
MPI_Init(&argc,&argv);
MPI_Comm_rank(MPI_COMM_WORLD,&rank);
MPI_Comm_size(MPI_COMM_WORLD,&size); MPI_File_open(MPI_COMM_WORLD,"data",MPI_MODE_RDONLY,MPI_INFO_NULL,&fh);
MPI_File_read_at_all(fh,,&n,,MPI_INT,&status); //从偏移量0处读取
MPI_File_read_at_all(fh,sizeof(int),&m,,MPI_INT,&status); //从偏移量1个int处读取
array=(float *)malloc(BLOCK_SIZE(rank,size,n)*m*sizeof(float));
MPI_File_read_at_all(fh,*sizeof(int)+BLOCK_LOW(rank,size,n)*m*sizeof(float),array,BLOCK_SIZE(rank,size,n)*m,MPI_FLOAT,&status);
MPI_File_close(&fh); if(rank==){
printf("rank=%d: %d %d\n",rank,n,m);
for(i=;i<BLOCK_SIZE(rank,size,n)*m;i++){
printf("% .0f",array[i]);
if((i+)%m==) putchar('\n');
}
} MPI_File_open(MPI_COMM_WORLD,"data2",MPI_MODE_CREATE|MPI_MODE_WRONLY,MPI_INFO_NULL,&fh);
MPI_File_write_at_all(fh,,&n,,MPI_INT,&status);
MPI_File_write_at_all(fh,sizeof(int),&m,,MPI_INT,&status);
MPI_File_write_at_all(fh,*sizeof(int)+BLOCK_LOW(rank,size,n)*m*sizeof(float),array,BLOCK_SIZE(rank,size,n)*m,MPI_FLOAT,&status);
MPI_File_close(&fh); MPI_Finalize();
return ;
} /*
//并行IO:独立文件指针
int main(int argc,char *argv[])
{
int size,rank,i;
int n,m;
float *array;
MPI_File fh;
MPI_Status status;
MPI_Init(&argc,&argv);
MPI_Comm_rank(MPI_COMM_WORLD,&rank);
MPI_Comm_size(MPI_COMM_WORLD,&size); MPI_File_open(MPI_COMM_WORLD,"data",MPI_MODE_RDONLY,MPI_INFO_NULL,&fh);
MPI_File_set_view(fh,0,MPI_INT,MPI_INT,"internal",MPI_INFO_NULL); //设置绝对偏移量为0
MPI_File_read_all(fh,&n,1,MPI_INT,&status); //读取后偏移量自动加1
MPI_File_read_all(fh,&m,1,MPI_INT,&status);
array=(float *)malloc(BLOCK_SIZE(rank,size,n)*m*sizeof(float));
MPI_File_set_view(fh,2*sizeof(int)+BLOCK_LOW(rank,size,n)*m*sizeof(float),MPI_FLOAT,MPI_FLOAT,"internal",MPI_INFO_NULL);//重置偏移量
MPI_File_read_all(fh,array,BLOCK_SIZE(rank,size,n)*m,MPI_INT,&status);
MPI_File_close(&fh); if(rank==0){
printf("rank=%d: %d %d\n",rank,n,m);
for(i=0;i<BLOCK_SIZE(rank,size,n)*m;i++){
printf("% .0f",array[i]);
if((i+1)%m==0) putchar('\n');
}
} MPI_File_open(MPI_COMM_WORLD,"data2",MPI_MODE_CREATE|MPI_MODE_WRONLY,MPI_INFO_NULL,&fh);
MPI_File_set_view(fh,0,MPI_INT,MPI_INT,"internal",MPI_INFO_NULL);
MPI_File_write_all(fh,&n,1,MPI_INT,&status);
MPI_File_write_all(fh,&m,1,MPI_INT,&status);
MPI_File_set_view(fh,2*sizeof(int)+BLOCK_LOW(rank,size,n)*m*sizeof(float),MPI_FLOAT,MPI_FLOAT,"internal",MPI_INFO_NULL);
MPI_File_write_all(fh,array,BLOCK_SIZE(rank,size,n)*m,MPI_FLOAT,&status);
MPI_File_close(&fh); MPI_Finalize();
}
*/ /*
//并行IO:共享文件指针
int main(int argc,char *argv[])
{
int size,rank,i;
int n,m;
float *array;
MPI_File fh;
MPI_Status status;
MPI_Init(&argc,&argv);
MPI_Comm_rank(MPI_COMM_WORLD,&rank);
MPI_Comm_size(MPI_COMM_WORLD,&size); MPI_File_open(MPI_COMM_WORLD,"data",MPI_MODE_RDONLY,MPI_INFO_NULL,&fh);
MPI_File_read_at_all(fh,0,&n,1,MPI_INT,&status); //指定显式偏移的读取
MPI_File_read_at_all(fh,sizeof(int),&m,1,MPI_INT,&status);
array=(float *)malloc(BLOCK_SIZE(rank,size,n)*m*sizeof(float));
MPI_File_seek_shared(fh,2*sizeof(int),MPI_SEEK_SET); //共享文件指针,偏移量是2个int
MPI_File_read_ordered(fh,array,BLOCK_SIZE(rank,size,n)*m,MPI_FLOAT,&status); //按序读取
MPI_File_close(&fh); if(rank==0){
printf("rank=%d: %d %d\n",rank,n,m);
for(i=0;i<BLOCK_SIZE(rank,size,n)*m;i++){
printf("% .0f",array[i]);
if((i+1)%m==0) putchar('\n');
}
} MPI_File_open(MPI_COMM_WORLD,"data2",MPI_MODE_CREATE|MPI_MODE_WRONLY,MPI_INFO_NULL,&fh);
MPI_File_write_at_all(fh,0,&n,1,MPI_INT,&status); //指定显式偏移的写入
MPI_File_write_at_all(fh,sizeof(int),&m,1,MPI_INT,&status);
MPI_File_seek_shared(fh,2*sizeof(int),MPI_SEEK_SET); //共享文件指针,偏移量是2个int
MPI_File_write_ordered(fh,array,BLOCK_SIZE(rank,size,n)*m,MPI_FLOAT,&status); //按序写入
MPI_File_close(&fh); MPI_Finalize();
}
*/
 //将二进制数组文件转换为文本文件。要求二进制文件的内容:行数 列数 数组元素
#include <stdio.h>
#include <stdlib.h> typedef float type; int main()
{
int i,j;
int n,m;
type **array;
FILE *fp;
fp=fopen("data","rb");
fread(&n,sizeof(int),,fp);
fread(&m,sizeof(int),,fp); array=(type **)malloc(n*sizeof(type *));
*array=(type *)malloc(n*m*sizeof(type));
for(i=;i<n;i++) array[i]=array[i-]+m; fread(&array[][],n*m*sizeof(type),,fp); //注意不能是地址 array
fclose(fp); fp=fopen("data.txt","w");
fprintf(fp," %d %d\n",n,m);
for(i=;i<n;i++){
for(j=;j<m;j++)
fprintf(fp,"% f ",array[i][j]);
putc('\n',fp);
}
fprintf(stdout,"Successfully!\n");
}
 //将数组文本文件转换为二进制文件。要求文本文件的内容:行数 列数 数组元素
#include <stdio.h>
#include <stdlib.h> typedef float type; int main()
{
int i,j;
int n,m;
type **array;
FILE *fp;
fp=fopen("data.txt","r");
fscanf(fp,"%d",&n);
fscanf(fp,"%d",&m); array=(type **)malloc(n*sizeof(type *));
*array=(type *)malloc(n*m*sizeof(type));
for(i=;i<n;i++) array[i]=array[i-]+m; for(i=;i<n;i++)
for(j=;j<m;j++)
fscanf(fp,"%f",&array[i][j]);
fclose(fp); fp=fopen("data","wb");
fwrite(&n,sizeof(int),,fp);
fwrite(&m,sizeof(int),,fp);
fwrite(&array[][],n*m*sizeof(type),,fp); //注意不能是地址 &array
fclose(fp);
fprintf(stdout,"Successfully!\n");
}

  一个示例的文本文件数组data.txt:

  8 8
  1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000
  2.000000 2.000000 2.000000 2.000000 2.000000 2.000000 2.000000 2.000000
  3.000000 3.000000 3.000000 3.000000 3.000000 3.000000 3.000000 3.000000
  4.000000 4.000000 4.000000 4.000000 4.000000 4.000000 4.000000 4.000000
  5.000000 5.000000 5.000000 5.000000 5.000000 5.000000 5.000000 5.000000
  6.000000 6.000000 6.000000 6.000000 6.000000 6.000000 6.000000 6.000000
  7.000000 7.000000 7.000000 7.000000 7.000000 7.000000 7.000000 7.000000
  8.000000 8.000000 8.000000 8.000000 8.000000 8.000000 8.000000 8.000000

04-25 10:11