我已经被这个错误困扰了很长时间了,所以我决定在这里发布它。

当调用cudaMemcpy时,发生了段错误:

CurrentGrid->cdata[i] = new float[size];
cudaMemcpy(CurrentGrid->cdata[i], Grid_dev->cdata[i], size*sizeof(float),\
                cudaMemcpyDeviceToHost);
CurrentGridGrid_dev分别是指向主机和设备上的grid类对象的指针,在这种情况下,i = 0。类成员cdata是一个浮点型指针数组。为了进行调试,在此cudaMemcpy调用之前,我打印了Grid_Dev->cdata[i]的每个元素的值,CurrentGrid->cdata[i]Grid_dev->cdata[i]的地址以及size的值,看起来都很不错。但是它仍然以“段错误(核心已转储)”结尾,这是唯一的错误消息。 cuda-memcheck仅给出“进程未成功终止”。我目前无法使用cuda-gdb。关于去哪里有什么建议吗?

更新:现在看来,我已经通过cudaMalloc在设备上分配另一个浮点指针A并将cudaMemcpy的Grid_dev-> cdata [i]的值传递给A,然后将cudaMemcpy A传递给主机来解决了此问题。
因此,上面编写的代码段变为:
float * A;
cudaMalloc((void**)&A, sizeof(float));
...
...
cudaMemcpy(&A, &(Grid_dev->cdata[i]), sizeof(float *), cudaMemcpyDeviceToHost);
CurrentGrid->cdata[i] = new float[size];
cudaMemcpy(CurrentGrid->cdata[i], A, size*sizeof(float), cudaMemcpyDeviceToHost);

我这样做是因为valgrind弹出“大小为8的无效读取”,我认为是指Grid_dev->cdata[i]。我再次用gdb进行了检查,将Grid_dev->cdata[i]的值打印为NULL。因此,我猜想即使在这个cudaMemcpy调用中,我也无法直接取消引用设备指针。但为什么 ?根据此thread底部的注释,我们应该能够在cudaMemcpy函数中取消引用设备指针。

另外,我不知道cudaMalloc和cudaMemcpy如何工作的基 native 制,但我认为通过cudaMalloc一个指针,在这里说A,实际上我们分配了该指针以指向设备上的某个地址。然后通过cudaMemcpy将Grid_dev->cdata[i]像上面修改的代码中的A一样,我们将指针A重新分配为指向数组。那么我们是否不丢失A在分配cudaM时所指向的先前地址?这会导致内存泄漏或其他原因吗?如果是,我应该如何正确处理这种情况?
谢谢!

作为引用,我将在其中发生此错误的完整功能的代码放在下面。

非常感谢!
__global__ void Print(grid *, int);
__global__ void Printcell(grid *, int);
void CopyDataToHost(param_t p, grid * CurrentGrid, grid * Grid_dev){

    cudaMemcpy(CurrentGrid, Grid_dev, sizeof(grid), cudaMemcpyDeviceToHost);
#if DEBUG_DEV
    cudaCheckErrors("cudaMemcpy1 error");
#endif
    printf("\nBefore copy cell data\n");
    Print<<<1,1>>>(Grid_dev, 0);            //Print out some Grid_dev information for
    cudaDeviceSynchronize();                //debug
    int NumberOfBaryonFields = CurrentGrid->ReturnNumberOfBaryonFields();
    int size = CurrentGrid->ReturnSize();
    int vsize = CurrentGrid->ReturnVSize();
    CurrentGrid->FieldType = NULL;
    CurrentGrid->FieldType = new int[NumberOfBaryonFields];
    printf("CurrentGrid size is %d\n", size);
    for( int i = 0; i < p.NumberOfFields; i++){
        CurrentGrid->cdata[i] = NULL;
        CurrentGrid->vdata[i] = NULL;
        CurrentGrid->cdata[i] = new float[size];
        CurrentGrid->vdata[i] = new float[vsize];

        Printcell<<<1,1>>>(Grid_dev, i);//Print out element value of Grid_dev->cdata[i]
        cudaDeviceSynchronize();

        cudaMemcpy(CurrentGrid->cdata[i], Grid_dev->cdata[i], size*sizeof(float),\
                cudaMemcpyDeviceToHost);               //where error occurs
#if DEBUG_DEV
        cudaCheckErrors("cudaMemcpy2 error");
#endif
        printf("\nAfter copy cell data\n");
        Print<<<1,1>>>(Grid_dev, i);
        cudaDeviceSynchronize();
        cudaMemcpy(CurrentGrid->vdata[i], Grid_dev->vdata[i], vsize*sizeof(float),\
                cudaMemcpyDeviceToHost);
#if DEBUG_DEV
        cudaCheckErrors("cudaMemcpy3 error");
#endif
    }
    cudaMemcpy(CurrentGrid->FieldType, Grid_dev->FieldType,\
            NumberOfBaryonFields*sizeof(int), cudaMemcpyDeviceToHost);
#if DEBUG_DEV
    cudaCheckErrors("cudaMemcpy4 error");
#endif
}

编辑:这是来自valgrind的信息,我试图从该信息中跟踪发生内存泄漏的位置。
==19340== Warning: set address range perms: large range [0x800000000, 0xd00000000) (noaccess)
==19340== Warning: set address range perms: large range [0x200000000, 0x400000000) (noaccess)
==19340== Invalid read of size 8
==19340==    at 0x402C79: CopyDataToHost(param_t, grid*, grid*) (CheckDevice.cu:48)
==19340==    by 0x403646: CheckDevice(param_t, grid*, grid*) (CheckDevice.cu:186)
==19340==    by 0x40A6CD: main (Transport.cu:81)
==19340==  Address 0x2003000c0 is not stack'd, malloc'd or (recently) free'd
==19340==
==19340==
==19340== Process terminating with default action of signal 11 (SIGSEGV)
==19340==  Bad permissions for mapped region at address 0x2003000C0
==19340==    at 0x402C79: CopyDataToHost(param_t, grid*, grid*) (CheckDevice.cu:48)
==19340==    by 0x403646: CheckDevice(param_t, grid*, grid*) (CheckDevice.cu:186)
==19340==    by 0x40A6CD: main (Transport.cu:81)
==19340==
==19340== HEAP SUMMARY:
==19340==     in use at exit: 2,611,365 bytes in 5,017 blocks
==19340==   total heap usage: 5,879 allocs, 862 frees, 4,332,278 bytes allocated
==19340==
==19340== LEAK SUMMARY:
==19340==    definitely lost: 0 bytes in 0 blocks
==19340==    indirectly lost: 0 bytes in 0 blocks
==19340==      possibly lost: 37,416 bytes in 274 blocks
==19340==    still reachable: 2,573,949 bytes in 4,743 blocks
==19340==         suppressed: 0 bytes in 0 blocks
==19340== Rerun with --leak-check=full to see details of leaked memory
==19340==
==19340== For counts of detected and suppressed errors, rerun with: -v
==19340== ERROR SUMMARY: 1 errors from 1 contexts (suppressed: 2 from 2)

最佳答案

我相信我知道问题出在哪里,但是要确认这一点,查看用于在设备上设置Grid_dev类的代码将很有用。

如果要在设备上使用一个类或其他数据结构,并且该类中具有指向内存中其他对象或缓冲区的指针(对于要在设备上使用的类,该对象或缓冲区可能在设备内存中),则使该顶级类在设备上可用的过程变得更加复杂。

假设我有一个这样的课:

class myclass{
  int myval;
  int *myptr;
  }

我可以在主机上实例化上述类,然后malloc数组int并将该指针分配给myptr,一切都会好起来的。为了使此类可以仅在设备上使用,过程可能是相似的。我可以:
  • cudaM分配一个指向将保存myclass
  • 的设备内存的指针
  • (可选)使用cudaMemcpy
  • 将主机上的myclass的实例化对象复制到第1步中的设备指针
    设备上的
  • ,使用mallocnewmyptr分配设备存储

  • 如果我从不想访问主机上为myptr分配的存储,则上述顺序很好。但是,如果我确实希望从主机上看到该存储,则需要一个不同的顺序:
  • cudaM分配一个指向将保存myclass的设备内存的指针,让我们将其称为mydevobj
  • (可选)使用cudaMemcpy
  • 将主机上的myclass的实例化对象复制到步骤1中的设备指针mydevobj
  • 在主机上创建一个单独的int指针,我们称它为myhostptr
  • cuda在设备上分配int以用于myhostptr
  • cudaMemcpy从主机到设备指针myhostptr的指针值&(mydevobj->myptr)

  • 之后,您可以将嵌入式指针cudaMemcpy指向的数据myptrcudaMalloc上分配的区域(通过myhostptr)

    请注意,在第5步中,因为我要获取此指针位置的地址,所以此cudaMemcpy操作仅需要主机上的mydevobj指针,该指针在cudaMemcpy操作中有效(仅)。

    然后,将正确设置设备指针myint的值以执行您要尝试执行的操作。如果然后要将数据与myint往返于主机,则可以在任何cudaMemcpy调用中使用指针myhostptr,而不是mydevobj->myptr。如果我们尝试使用mydevobj->myptr,则需要取消引用mydevobj,然后使用它来检索存储在myptr中的指针,然后将该指针用作到/从该位置的拷贝。这在主机代码中是 Not Acceptable 。如果尝试这样做,将会出现段错误。 (请注意,以此类推,我的mydevobj就像您的Grid_dev,我的myptr就像您的cdata)

    总体而言,这是一个概念,在您初次接触它时就需要仔细考虑,因此此类问题在SO上出现的频率很高。您可能需要研究其中一些问题,以查看代码示例(因为尚未提供设置Grid_dev的代码):
  • example 1
  • example 2
  • example 3
  • 关于c++ - cudaMemcpy分割错误,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/15431365/

    10-09 08:51