几个用户询问在numpy的或SciPy的[图像卷积的速度或存储器消耗。从回答和我使用Numpy的经验来看,与Matlab或IDL相比,我认为这可能是numpy的主要缺点。
到目前为止,没有一个答案能解决整个问题,所以这里是:“用Python计算2D卷积最快的方法是什么?” 常见的python模块是公平的游戏:numpy,scipy和PIL(其他?)。为了比较具有挑战性,我想提出以下规则:
这实际上取决于您要执行的操作…很多时候,您不需要完全通用的(阅读:更慢)的2D卷积…(即,如果滤波器是可分离的,则可以使用两个1D卷积来代替…这就是为什么各种scipy.ndimage.gaussian,,scipy.ndimage.uniform比实现为通用nD卷积的同一事物要快得多的原因。)
scipy.ndimage.gaussian
scipy.ndimage.uniform
无论如何,作为比较点:
t = timeit.timeit(stmt='ndimage.convolve(x, y, output=x)', number=1, setup=""" import numpy as np from scipy import ndimage x = np.random.random((2048, 2048)).astype(np.float32) y = np.random.random((32, 32)).astype(np.float32) """) print t
这在我的机器上花费6.9秒…
比较一下 fftconvolve
fftconvolve
t = timeit.timeit(stmt="signal.fftconvolve(x, y, mode='same')", number=1, setup=""" import numpy as np from scipy import signal x = np.random.random((2048, 2048)).astype(np.float32) y = np.random.random((32, 32)).astype(np.float32) """) print t
这大约需要10.8秒。但是,在输入大小不同的情况下,使用fft进行卷积可能会更快(尽管目前看来我似乎还没有一个很好的例子……)。