pyopencl

    0热度

    1回答

    我有一个程序来计算给定数据点(pos)对其余数据的潜力。它最初是用Cython编写的,我试图在我的2013 Macbook Pro上使用PyOpenCL(将设备设置为Intel(R)Core(TM)i7-4750HQ CPU @ 2.00GHz),希望能够提高速度,但结果实际上很多比Cython慢​​。此外,Cython版本是双精度的,而CL只是浮点数。结果证实是相同的。 ipython笔记本如下

    0热度

    1回答

    当我在PyOpenCl中编写代码时,是否还需要用C编写内核,或者我可以用Python以某种方式编写它们?

    6热度

    3回答

    我已经为我的GPU安装了最新的CUDA和驱动程序。我在Win7 64bit上使用Python 2.7.10。我试着安装pyopencl: a。非官方的windows二进制文件在http://www.lfd.uci.edu/~gohlke/pythonlibs/#pyopencl b。从https://pypi.python.org/pypi/pyopencl 得到源程序后编制我自己安装成功在这两种

    0热度

    1回答

    我试图理解共享内存: import pycuda.driver as drv import pycuda.tools import pycuda.autoinit import numpy from pycuda.compiler import SourceModule src=''' __global__ void reduce0(float *g_idata, float *g_

    8热度

    1回答

    我想知道是否有方法在函数使用之前检查有多少GPU内存可用。我的代码通常使用1.5 GB或更多的GPU内存,如果在我的程序想要使用GPU时使用GPU,我会得到一个MemoryError异常或类似的东西。 我想实现某种形式的代码,这样我可以检查,看看是否GPU具有足够的可用内存,如果是的话,继续运行,但如果没有,请等待,直到它可用。 (最好,我想尝试使用GPU,而不是使用try - 除了循环,如果失败

    0热度

    1回答

    我是opencl的新手,也许我会问愚蠢的问题! 我遇到了一些问题,修改python/pyopencl中的c/opencl程序。特别是,我对使用列主要和行主要命令有点迷惑。 考虑矩阵M[i,j],Ni*Nj尺寸,所述: 列优先顺序定义为:i + Ni*j 行主顺序定义为:j + Nj*i 使用该内核的(3,3)本地大小: __kernel void major(__global double loc

    0热度

    1回答

    我试图把渐变放在图像上 - 这是可行的.CPU和GPU程序应该做同样的事情。我有输出图像的问题,因为GPU的代码给我不同的图像比CPU的代码,我不知道哪里是错误的。我认为CPU代码很好,但GPU不行。 Output images - 原始,CPU,GPU - 请检查我的代码。谢谢。 import pyopencl as cl import sys import Image import nu

    0热度

    1回答

    我试图在Ubuntu机器上安装pyopencl(2014.1)作为用户(没有root权限)(Ubuntu 3.10.0.77,x86_64)。 当运行 pip install —global-option=build_ext —global-option=„-I/opt/sw/cuda/include -L/opt/sw/cuda/lib64“ pyopencl==2014.1 编译器会引发

    0热度

    1回答

    我试图运行基于高斯脉冲传播的模拟。我正在使用i5 4590 & GTX 970(最新驱动程序)和我早期的2015年macbook air在我的Windows桌面之间进行交叉开发。 当我运行我的主代码时,我无法在桌面上得到任何像样的结果(计算分歧),但在我的Mac上,结果似乎没问题。 为了进一步调查问题,我尝试运行一个简单的高斯传播。 macbook上的结果或多或少都是好的,而在桌面上却是一团糟。

    1热度

    1回答

    我对GPU编程非常陌生,我计划通过Python中的pyopencl访问GPU。 不幸的是,在深入研究这个主题之前,没有太多支持这个主题,我认为向专家询问他们的经验可能是个好主意。 我打算在GPU上求解最大熵方程。我想这样做的方式是每次运行代码1000次不同的输入。 如果有人能指出我是否可以根据正确的方向,我将不胜感激。 谢谢