我想通过第一次内插数据来做一个双积分做一个表面。我正在使用numba来加速这个过程,但这只是需要很长时间。需要帮助的矢量化代码或优化
Here is my code,带有运行位于here和here的代码所需的图像。
我想通过第一次内插数据来做一个双积分做一个表面。我正在使用numba来加速这个过程,但这只是需要很长时间。需要帮助的矢量化代码或优化
Here is my code,带有运行位于here和here的代码所需的图像。
注意到你的代码有一个for循环的四重嵌套集,我专注于优化内对。这里的旧代码:
for i in xrange(K.shape[0]):
for j in xrange(K.shape[1]):
print(i,j)
'''create an r vector '''
r=(i*distX,j*distY,z)
for x in xrange(img.shape[0]):
for y in xrange(img.shape[1]):
'''create an ksi vector, then calculate
it's norm, and the dot product of r and ksi'''
ksi=(x*distX,y*distY,z)
ksiNorm=np.linalg.norm(ksi)
ksiDotR=float(np.dot(ksi,r))
'''calculate the integrand'''
temp[x,y]=img[x,y]*np.exp(1j*k*ksiDotR/ksiNorm)
'''interpolate so that we can do the integral and take the integral'''
temp2=rbs(a,b,temp.real)
K[i,j]=temp2.integral(0,n,0,m)
由于K和IMG每个约为2000×2000,最里面的语句需要执行160000亿次。这对于使用Python来说并不实用,但我们可以使用NumPy将工作转换为C和/或Fortran以进行矢量化。我一次只做了一步,试图确保结果一致;这里是我结束了:
'''create all r vectors'''
R = np.empty((K.shape[0], K.shape[1], 3))
R[:,:,0] = np.repeat(np.arange(K.shape[0]), K.shape[1]).reshape(K.shape) * distX
R[:,:,1] = np.arange(K.shape[1]) * distY
R[:,:,2] = z
'''create all ksi vectors'''
KSI = np.empty((img.shape[0], img.shape[1], 3))
KSI[:,:,0] = np.repeat(np.arange(img.shape[0]), img.shape[1]).reshape(img.shape) * distX
KSI[:,:,1] = np.arange(img.shape[1]) * distY
KSI[:,:,2] = z
# vectorized 2-norm; see http://stackoverflow.com/a/7741976/4323
KSInorm = np.sum(np.abs(KSI)**2,axis=-1)**(1./2)
# loop over entire K, which is same shape as img, rows first
# this loop populates K, one pixel at a time (so can be parallelized)
for i in xrange(K.shape[0]):
for j in xrange(K.shape[1]):
print(i, j)
KSIdotR = np.dot(KSI, R[i,j])
temp = img * np.exp(1j * k * KSIdotR/KSInorm)
'''interpolate so that we can do the integral and take the integral'''
temp2 = rbs(a, b, temp.real)
K[i,j] = temp2.integral(0, n, 0, m)
内部对循环现在已经完全消失了,提前完成矢量操作替代(在输入端的大小的空间成本直线)。
这样可以在不使用Numba的情况下,将我的Macbook Air 1.6 GHz i5上的外部两个循环的每次迭代的时间从340秒减少到1.3秒。在每次迭代1.3秒中,0.68秒用于rbs
函数,即scipy.interpolate.RectBivariateSpline
。有可能有进一步优化的空间 - 这里有一些想法:
这就是我现在的情况。这在哪里离开你?假设一台稍微好一点的计算机并且没有进一步的优化工作,即使优化的代码也需要大约一个月的时间来处理你的测试图像。如果你只需要做一次,也许没关系。如果您需要更频繁地执行此操作,或者在尝试不同的操作时需要迭代代码,那么您可能需要继续优化 - 从现在消耗一半以上时间的RBS函数开始。
特别提示:您的代码会更容易处理,如果它不具有几乎相同的变量名称,如k
和K
,也没用过j
作为变量名,也可以作为一个复杂的数字后缀很多(0j
) 。
谢谢!我改变了一些名字,以减少混淆。我通常会这样做(并添加评论),但我非常沮丧。 Numba不能解决这个问题,得到一个奇怪的JIT错误,但它可能无法加快它的速度。因为每个像素都是独立的,所以Numexpr可能并且应该能够容易地并行化for循环。遗憾的是,我不能从照片中丢失任何信息,这是尝试使用DIHM(数字在线全息显微镜)在数字上重建全息图, 。 你能想到一个更好的方法来做一个双积分?比使用RBS?这可能会缩短时间。 – NightHallow
处理所有像素的并行处理应该以多种方式轻松完成 - 我应该提到这一点。即使只是使用基本的'multiprocessing'模块,你的核心数量也会增加近乎线性的速度。我的机器没有很多内核,但是如果使用12路机器,您可以在3天左右完成整个工作,而无需进一步优化。对于苏格兰皇家银行来说,我并不是这方面的专家,但我感到你花费了相当长的时间来适应数据的曲线,只能计算积分。如果你直接做一个黎曼金额怎么办? –
我实际上会使用mpi4py,以便可以在具有数百个内核的群集上运行它。多处理不适用于群集(不幸的是)。 黎曼金额直接是我们最初想要做的,但我们认为为数据创建表面将有助于集成。一个二维黎曼金额似乎会花费很多时间。 另外,感谢您的帮助。我从代码中学到了很多东西。 – NightHallow
现在需要多长时间?什么是可以接受的结果? –
嗯,嵌套for循环超过30秒。所以我在 0,1,30,然后0,2,30等。它是一个2000x2000的矩阵,所以需要几年才能运行。所以,如果它可以在几天内运行,那将是惊人的。只是寻找更短的 – NightHallow
我的Macbook Air 1.6 GHz i5每次迭代需要340秒而没有Numba。 –