2014-02-21 36 views
0

我想使用cuda 6进行布尔乘法运算,但我无法以正确的方式进行。 B是一个布尔对称矩阵,我必须做B^n布尔乘法。布尔乘法

我的C++代码:

for (m=0; m<dimension; m++) { 
    for (n=0; n<dimension; n++) { 
     for (k=0; k<dimension; k++) { 
      temp=mat[m*dimension+k] && mat[k*dimension+n]; 
      B[m*dimension+n]= B[m*dimension+n] || temp; 
     } 
    } 
} 

我发现了一段代码,但我不能使其适用于我的情况。

__global__ void gpuMM(float *A, float *B, float *C, int N) 
{ 
    int row = blockIdx.y*blockDim.y + threadIdx.y; 
    int col = blockIdx.x*blockDim.x + threadIdx.x; 

    float sum = 0.f; 
    for (int n = 0; n < N; ++n) 
     sum += A[row*N+n]*B[n*N+col]; 

    C[row*N+col] = sum; 
} 
+1

虽然它不会是一个有效的matrixMul,但它是直截了当的。将代码的最内层循环代替内核中的循环。用'temp','m','n'和'dimension'替换'sum','row','col'和'N'。 – ahmad

+0

你在做什么是常规乘法'B = A *转置(A)'。 '&'等同于'*',而'||'等同于'+'。只需使用Cublas来乘以这两个矩阵。如果A是布尔型,则首先转换为浮点型。 –

回答

0

在代码的第一部分为内核使用符号时,会得到它。

for (row=0; row<N; row++) { 
    for (col=0; col<N; col++) { 
     for (n=0; n<N; n++) { 
      temp=mat[row*N+n] && mat[n*N+col]; 
      B[row*N+col] = B[row*N+col] || temp; 
     }  
    } 
} 

所以你的内核应该是这样的:

__global__ void gpu_booleanMM(char *mat, char *B, int N) 
{ 
    int row = blockIdx.y*blockDim.y + threadIdx.y; 
    int col = blockIdx.x*blockDim.x + threadIdx.x; 

    for (int n=0; n<N; n++) { 
     temp=mat[row*N+n] && mat[n*N+col]; 
     B[row*N+col] = B[row*N+col] || temp; 
    } 
} 

我怀疑这是非常有效的,但这样的事情还是应该给予正确的结果。