:)
在尝试管理内核资源时,我决定研究PTX,但是有些事情我还不了解。这是我写的一个非常简单的内核:

__global__
void foo(float* out, float* in, uint32_t n)
{
    uint32_t idx = blockIdx.x * blockDim.x + threadIdx.x;
    uint32_t one = 5;
    out[idx] = in[idx]+one;
}

然后,我使用nvcc --ptxas-options=-v -keep main.cu对其进行了编译,并在控制台上获得了以下输出:
ptxas info    : 0 bytes gmem
ptxas info    : Compiling entry function '_Z3fooPfS_j' for 'sm_10'
ptxas info    : Used 2 registers, 36 bytes smem

所得的ptx如下:
    .entry _Z3fooPfS_j (
            .param .u64 __cudaparm__Z3fooPfS_j_out,
            .param .u64 __cudaparm__Z3fooPfS_j_in,
            .param .u32 __cudaparm__Z3fooPfS_j_n)
    {
    .reg .u16 %rh<4>;
    .reg .u32 %r<5>;
    .reg .u64 %rd<8>;
    .reg .f32 %f<5>;
    .loc    15  17  0
$LDWbegin__Z3fooPfS_j:
    .loc    15  21  0
    mov.u16     %rh1, %ctaid.x;
    mov.u16     %rh2, %ntid.x;
    mul.wide.u16    %r1, %rh1, %rh2;
    cvt.u32.u16     %r2, %tid.x;
    add.u32     %r3, %r2, %r1;
    cvt.u64.u32     %rd1, %r3;
    mul.wide.u32    %rd2, %r3, 4;
    ld.param.u64    %rd3, [__cudaparm__Z3fooPfS_j_in];
    add.u64     %rd4, %rd3, %rd2;
    ld.global.f32   %f1, [%rd4+0];
    mov.f32     %f2, 0f40a00000;        // 5
    add.f32     %f3, %f1, %f2;
    ld.param.u64    %rd5, [__cudaparm__Z3fooPfS_j_out];
    add.u64     %rd6, %rd5, %rd2;
    st.global.f32   [%rd6+0], %f3;
    .loc    15  22  0
    exit;
$LDWend__Z3fooPfS_j:
    } // _Z3fooPfS_j

现在有些事情我不明白:
  • 根据ptx程序集,使用4 + 5 + 8 + 5 = 22个寄存器。那么,为什么在编译过程中会显示used 2 registers呢?
  • 看着程序集,我意识到threadId,blockId等的数据类型是u16。这是在CUDA规范中定义的吗?还是在不同版本的CUDA驱动程序之间可能有所不同?
  • 有人可以向我解释以下这一行:mul.wide.u16 %r1, %rh1, %rh2;吗? %r1u32,为什么使用wide而不是u32
  • 如何选择寄存器的名称?在我的花瓶中,我了解%r部分,但不了解h((null),d部分)。是否根据数据类型长度选择?即:h为16位,null为32位,d为64位?
  • 如果我用out[idx] = in[idx];替换内核的最后两行,那么当我编译程序时,它说使用了3个寄存器!现在如何使用更多的寄存器?

  • 请忽略以下事实:我的测试内核不会检查数组索引是否超出范围。

    非常感谢你。

    最佳答案

    PTX是一种中间语言,旨在可在多种GPU架构之间移植。对于特定的体系结构,它由编译器组件PTXAS编译成最终的机器代码,也称为SASS。 nvcc选项-Xptxas -v使PTXAS报告有关生成的机器代码的各种统计信息,包括机器代码中使用的物理寄存器的数量。您可以通过使用cuobjdump --dump-sass分解机器代码来检查机器代码。

    因此,PTX代码中使用的寄存器数目并不重要,因为它们是虚拟寄存器。 CUDA编译器以所谓的SSA格式(静态单个分配,请参见http://en.wikipedia.org/wiki/Static_single_assignment_form)生成PTX代码。这基本上意味着,每个写入的新结果都会分配一个新的寄存器。

    PTX规范中描述了mul.wide指令,您可以在此处找到其最新版本(3.1):http://docs.nvidia.com/cuda/parallel-thread-execution/index.html。在您的示例代码中,后缀.u16表示它将两个无符号的16位数量相乘并返回一个无符号的32位结果,即,它计算源操作数的全双倍乘积。

    PTX中的虚拟寄存器是有类型的,但它们的名称可以自由选择,而与类型无关。 CUDA编译器似乎遵循(据我所知)未记录的某些约定,因为它们是内部实现工件。查看一堆PTX代码,可以清楚地看到当前生成的寄存器名称是编码类型信息,这样做可以简化调试:p<num>用于谓词,r<num>用于32位整数,rd<num>用于64位整数,f<num>表示32位浮点数,而fd<num>表示64位 double 数。通过查看创建这些虚拟寄存器的PTX代码中的.reg指令,您可以轻松地自己看到这一点。

    关于cuda - 与CUDA PTX代码和寄存器存储器混淆,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/16975727/

    10-13 01:24