在两个不同的体系结构(GTX480和GTX TITAN)中,使用nppiCopyConstBorder_8u_C1R
函数的性能下降,也涉及到不同的CUDA版本(分别为v5.0和v5.5)。性能下降nppiCopyConstBorder_8u_C1R
在第一种情况(GTX480和CUDA 5.0)的功能的执行时间是
T = 0.00005 seconds
在第二种情况下(GTX TITAN和CUDA 5.5)的执行时间是
我用以下代码复制了此行为:
// GTX480 nvcc -lnpp -m64 -O3 --ptxas-options=-v -gencode arch=compute_20,code=sm_20 --compiler-options -use_fast_math
// GTXTITAN nvcc -lnppi -m64 -O3 --ptxas-options=-v -gencode arch=compute_35,code=sm_35 --compiler-options -use_fast_math
#include <stdlib.h>
#include <stdio.h>
// CUDA
#include <cuda.h>
#include <cuda_runtime_api.h>
// CUDA Nvidia Performance Primitives
#include <npp.h>
#include <assert.h>
#define w 256 // width
#define h 256 // height
#define b 16 // extra border
#define BORDER_TYPE 0
int main(int argc, char *argv[])
{
// input data
Npp8u* h_idata[w*h];
// output data
Npp8u* h_odata[(w+b)*(h+b)];
/* MEMORY ALLOCTION AND INITIAL COPY OF DATA FROM CPU TO GPU */
Npp8u *i_devPtr, *i_devPtr_Border;
// size of input the data
int d_Size = w * h * sizeof(Npp8u);
// allocate input data
CUDA_CHECK_RETURN(cudaMalloc((void**) &i_devPtr, d_Size));
// copy initial data to GPU
CUDA_CHECK_RETURN(cudaMemcpy(i_devPtr, h_idata, d_Size, cudaMemcpyHostToDevice));
// size of output the data
int d_Size_o = (w+b) * (h+b) * sizeof(Npp8u);
// allocation for input data with extended border
CUDA_CHECK_RETURN(cudaMalloc((void**) &i_devPtr_Border, d_Size_o));
// create struct with ROI size given the current mask
NppiSize SizeROI = {w, h};
NppiSize SizeROI_Border = { SizeROI.width + b, SizeROI.height + b };
// create events
cudaEvent_t start, stop;
cudaEventCreate(&start);
cudaEventCreate(&stop);
// NPP Library Copy Constant Border
cudaEventRecord(start, 0);
NppStatus eStatusNPP = nppiCopyConstBorder_8u_C1R(i_devPtr,SizeROI.width, SizeROI,
i_devPtr_Border, SizeROI_Border.width, SizeROI_Border,
b, b, BORDER_TYPE);
cudaDeviceSynchronize();
assert(NPP_NO_ERROR == eStatusNPP);
cudaEventRecord(stop, 0);
cudaEventSynchronize(stop);
float milliseconds = 0;
cudaEventElapsedTime(&milliseconds, start, stop);
printf("T= %1.5f sg\n", milliseconds/1000.0f);
// copy output data from GPU
CUDA_CHECK_RETURN(cudaMemcpy(h_odata, i_devPtr_Border, d_Size_o, cudaMemcpyDeviceToHost));
/* free resources */
cudaFree(i_devPtr);
cudaFree(i_devPtr_Border);
CUDA_CHECK_RETURN(cudaDeviceReset());
return 0;
}
问:任何人都知道这个问题?
这使我问以下问题:
问:如何nppiCopyConstBorder_8u_C1R
实施?该功能是否涉及将数据从设备复制到主机,扩展主机中的边界并将结果复制到设备?
PS:带有TITAN的机器将GPU安装在分离的主板上,专门设计用于多个PCIe连接,并通过PCIe线连接。在我已经测试的其他内核的配置中,我没有看到任何缺陷。
你可以尝试使用nvprof运行API跟踪吗?我猜你的时间可能是过去一段时间内发生的事情的受害者,现在在内核启动时现在正在懒惰地发生。内核功能仍然需要几微秒,但运行它的cuLuanch需要几百毫秒。 – talonmies
@talonmies我将在两台机器上检查API跟踪。 – pQB