Numpy提供的vectorize
和frompyfunc
具有相似的功能。
如该SO-post中所指出的,vectorize
wraps frompyfunc
并正确处理返回数组的类型,而frompyfunc
返回np.object
的数组。
但是,对于所有大小,frompyfunc
始终优于vectorize
10-20%,这也无法用不同的返回类型来解释。
考虑以下变体:
import numpy as np
def do_double(x):
return 2.0*x
vectorize = np.vectorize(do_double)
frompyfunc = np.frompyfunc(do_double, 1, 1)
def wrapped_frompyfunc(arr):
return frompyfunc(arr).astype(np.float64)
wrapped_frompyfunc
只是将frompyfunc
的结果转换为正确的类型-如我们所见,此操作的成本几乎可以忽略不计。结果为以下时间(蓝线为
frompyfunc
):我希望
vectorize
会有更多开销-但这仅在小尺寸情况下才能看到。另一方面,在np.object
中也可以将np.float64
转换为wrapped_frompyfunc
-仍然要快得多。如何解释这种性能差异?
使用perfplot-package产生时序比较的代码(鉴于上述功能):
import numpy as np
import perfplot
perfplot.show(
setup=lambda n: np.linspace(0, 1, n),
n_range=[2**k for k in range(20,27)],
kernels=[
frompyfunc,
vectorize,
wrapped_frompyfunc,
],
labels=["frompyfunc", "vectorize", "wrapped_frompyfunc"],
logx=True,
logy=False,
xlabel='len(x)',
equality_check = None,
)
注意:对于较小的尺寸,
vectorize
的开销要高得多,但这是可以预料的(毕竟它包装了frompyfunc
):最佳答案
遵循@hpaulj的提示,我们可以分析vectorize
功能:
arr=np.linspace(0,1,10**7)
%load_ext line_profiler
%lprun -f np.vectorize._vectorize_call \
-f np.vectorize._get_ufunc_and_otypes \
-f np.vectorize.__call__ \
vectorize(arr)
这表明
_vectorize_call
花费了100%的时间:Timer unit: 1e-06 s
Total time: 3.53012 s
File: python3.7/site-packages/numpy/lib/function_base.py
Function: __call__ at line 2063
Line # Hits Time Per Hit % Time Line Contents
==============================================================
2063 def __call__(self, *args, **kwargs):
...
2091 1 3530112.0 3530112.0 100.0 return self._vectorize_call(func=func, args=vargs)
...
Total time: 3.38001 s
File: python3.7/site-packages/numpy/lib/function_base.py
Function: _vectorize_call at line 2154
Line # Hits Time Per Hit % Time Line Contents
==============================================================
2154 def _vectorize_call(self, func, args):
...
2161 1 85.0 85.0 0.0 ufunc, otypes = self._get_ufunc_and_otypes(func=func, args=args)
2162
2163 # Convert args to object arrays first
2164 1 1.0 1.0 0.0 inputs = [array(a, copy=False, subok=True, dtype=object)
2165 1 117686.0 117686.0 3.5 for a in args]
2166
2167 1 3089595.0 3089595.0 91.4 outputs = ufunc(*inputs)
2168
2169 1 4.0 4.0 0.0 if ufunc.nout == 1:
2170 1 172631.0 172631.0 5.1 res = array(outputs, copy=False, subok=True, dtype=otypes[0])
2171 else:
2172 res = tuple([array(x, copy=False, subok=True, dtype=t)
2173 for x, t in zip(outputs, otypes)])
2174 1 1.0 1.0 0.0 return res
它显示了我在假设中遗漏的部分:将双数组完全在预处理步骤中转换为对象数组(在内存方面做这不是很明智的事情)。其他部分与
wrapped_frompyfunc
类似:Timer unit: 1e-06 s
Total time: 3.20055 s
File: <ipython-input-113-66680dac59af>
Function: wrapped_frompyfunc at line 16
Line # Hits Time Per Hit % Time Line Contents
==============================================================
16 def wrapped_frompyfunc(arr):
17 1 3014961.0 3014961.0 94.2 a = frompyfunc(arr)
18 1 185587.0 185587.0 5.8 b = a.astype(np.float64)
19 1 1.0 1.0 0.0 return b
当我们查看峰值内存消耗(例如通过
/usr/bin/time python script.py
)时,我们会看到vectorized
版本的内存消耗是frompyfunc
的两倍,它使用了更复杂的策略:处理双数组以大小为NPY_BUFSIZE
的块(为8192)为单位,因此内存中同时仅存在8192个python-float(24bytes + 8byte指针)(而不是数组中的元素数量,后者可能更高)。从OS保留内存的成本以及更多的高速缓存未命中可能是导致运行时间增加的原因。我的收获:
可能根本不需要将所有输入都转换为对象数组的预处理步骤,因为
frompyfunc
具有处理这些转换的更为复杂的方法。当生成的
vectorize
应该以“实数”形式使用时,都不应该使用frompyfunc
不能使用ufunc
。相反,应该用C编写它或使用numba / like。与双数组相比,在对象数组上调用
frompyfunc
需要的时间更少:arr=np.linspace(0,1,10**7)
a = arr.astype(np.object)
%timeit frompyfunc(arr) # 1.08 s ± 65.8 ms
%timeit frompyfunc(a) # 876 ms ± 5.58 ms
但是,上面的行剖析器时序未显示在对象上使用
ufunc
而不是双精度的任何优势:3.089595s与3014961.0s。我的怀疑是,这是由于在创建所有对象的情况下更多的缓存未命中,而L2缓存中只有8192个创建的对象(256Kb)很热。