2
我对使用Continuum的Accelerate和numba包中的Python CUDA库有疑问。正在使用装饰@jit
与target = gpu
相同@cuda.jit
?@ cuda.jit和@jit之间的区别(target ='gpu')
我对使用Continuum的Accelerate和numba包中的Python CUDA库有疑问。正在使用装饰@jit
与target = gpu
相同@cuda.jit
?@ cuda.jit和@jit之间的区别(target ='gpu')
不,它们是不一样的,虽然最终编译成PTX到汇编程序的路径是。装饰器是通用编译器路径,可以选择将其引导到CUDA设备上。 @cuda.jit
装饰器实际上是Continuum Analytics开发的低级Python CUDA内核方言。因此,您可以获得对threadIdx
等CUDA内置变量和@cuda.jit
中的内存空间说明符__shared__
的支持。
如果要在Python中编写CUDA内核并编译并运行它,请使用@cuda.jit
。否则,如果你想加速现有的Python,使用@jit
和CUDA目标。