最近,我使用Cuda编写了一种称为“正交匹配追踪”的算法。在我丑陋的Cuda代码中,整个迭代需要60秒,而Eigen lib仅需要3秒...
在我的代码中,矩阵A为[640,1024],y为[640,1],在每一步中,我都从A中选择一些 vector 以组成一个新的矩阵A_temp [640,itera],iter = 1:500。我在cpu中新建了一个数组MaxDex_Host []来告诉您选择哪一列。
我想使用最小二乘法从A_temp * x_temp = y获得x_temp [itera,1],我使用了cula API'culaDeviceSgels'和cublas矩阵 vector 乘法API。
因此,culaDeviceSgels将调用500次,并且我认为这将比Eigen lib的QR.Sovler更快。
我检查了Nisight的性能分析,发现cuestdestory需要很长时间。我在迭代之前先初始化cublas,然后在得到结果后对其进行销毁。所以我想知道custreamdestory和cublasdestory有什么不同?
主要问题是memcpy和函数'gemm_kernel1x1val'。我认为此功能来自“culaDeviceSgels”
while(itera
MaxDex_Host[itera]=pos;
itera++;
float* A_temp_cpu=new float[M*itera]; // matrix all in col-major
for (int j=0;j<itera;j++) // to get A_temp [M,itera] , the MaxDex_Host[] shows the positon of which column of A to chose ,
{
for (int i=0;i<M;i++) //M=640 , and A is 640*1024 ,itera is add 1 each step
{
A_temp_cpu[j*M+i]=A[MaxDex_Host[j]*M+i];
}
}
// I must allocate one more array because culaDeviceSgels will decompose the one input Array , and I want to use A_temp after least-square solving.
float* A_temp_gpu;
float* A_temp2_gpu;
cudaMalloc((void**)&A_temp_gpu,Size_float*M*itera);
cudaMalloc((void**)&A_temp2_gpu,Size_float*M*itera);
cudaMemcpy(A_temp_gpu,A_temp_cpu,Size_float*M*itera,cudaMemcpyHostToDevice);
cudaMemcpy(A_temp2_gpu,A_temp_gpu,Size_float*M*itera,cudaMemcpyDeviceToDevice);
culaDeviceSgels('N',M,itera,1,A_temp_gpu,M,y_Gpu_temp,M);// the x_temp I want is in y_Gpu_temp's return value , stored in the y_Gpu_temp[0]——y_Gpu_temp[itera-1]
float* x_temp;
cudaMalloc((void**)&x_temp,Size_float*itera);
cudaMemcpy(x_temp,y_Gpu_temp,Size_float*itera,cudaMemcpyDeviceToDevice);
Cuda的内存管理似乎太复杂了,是否还有其他方便的方法可以解决最小二乘问题?
最佳答案
我认为custreamdestory
和gemm_kernel1x1val
由您使用的API内部调用,因此与它们没有太多关系。
为了改善您的代码,我建议您执行以下操作。
A_temp_cpu
的设备副本来摆脱A
。然后,您可以通过内核分配将A
的行复制到A_temp_gpu
和A_temp2_gpu
的行中。这样可以避免执行前两个cudaMemcpy
。 A_temp_gpu
的最大可能值而不是A_temp2_gpu
在while
循环之外预分配itera
和itera
。这样可以避免循环内的前两个cudaMalloc
。 x_temp
也是如此。 culaDeviceSgels
解决了线性方程组。我认为您也可以仅使用cuBLAS API来执行相同的操作。例如,您可以先通过cublasDgetrfBatched()
执行LU分解,然后使用cublasStrsv()
两次来求解两个出现的线性系统。您可能希望查看此解决方案是否导致更快的算法。 关于c++ - CUDA:最小二乘解法,速度较差,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/22284533/