我正试图将我的程序转换为Numba,但我在将一个函数嵌套到另一个函数中时遇到问题我的方法是基于NumPyvectorize,但是我不能使用numba做同样的事情你知道我可以效仿的类似例子吗?
这是我的程序:



import numpy as np
import scipy
import functools
from multiprocessing import Pool
import lib as mlib
from tqdm import tqdm

class vectorize(np.vectorize):
    def __get__(self, obj, objtype):
        return functools.partial(self.__call__, obj)

class stability:
    def __init__(self):

        self.r1 = 20
        self.r2 = 50
        self.rz= 20

        self.zeta = self.r2/self.r1
        self.beta = self.rz/self.r1
        self.Ms = 0.956e6
        self.delta = 1

    @vectorize
    def f(self,ro,rs):
        # print("delta=",self.delta)
        return rs/ro*np.exp( (-1/self.delta)*(ro-rs))

    @vectorize
    def mz(self,ro,rs):
        return ( 1-self.f(ro,rs)**2 ) / ( 1+self.f(ro,rs)**2 )

    @vectorize
    def mro(self,ro,rs):
        return ( 2*self.f(ro,rs) ) / ( 1+self.f(ro,rs)**2 )

    @vectorize
    def E1m(self,a, b, N,rs,d):
        r = np.linspace(a+(b-a)/(2*N), b-(b-a)/(2*N), N)
        fx = r* ((1/self.delta+1/r)**2 * self.mro(r,rs)**2 + (1/r**2 + 1)*self.mro(r,rs)**2+d*(-(1/self.delta + 1/r) * self.mro(r,rs) + 1/r * self.mro(r,rs)*self.mz(r,rs) ))
        area = np.sum(fx)*(b-a)/N
        return area

if __name__ == "__main__":
    rs = np.arange(0,100,1)
    model = stability()
    print(model.E1m(0,20,300,rs,2))

最佳答案

大多数内置的numpy函数已经矢量化了,根本不需要np.vectorizedecorator。一般来说,numpy.vectorize装饰器将产生非常慢的结果(与numpy相比)!作为documentation mentions in the Notes section
提供矢量化功能主要是为了方便,而不是为了性能实现本质上是一个for循环。
通过从fmzmro中删除decorator,可以极大地提高代码效率。它将给出相同的结果,但运行得更快(代码10.4秒,更改代码0.014秒)。
通过使用广播而不是E1m,也可以改进vectorize功能(在性能方面)。
但是,由于您的问题是如何在这些函数上使用numba.vectorize,我有一些坏消息:不可能在实例方法上使用numba.vectorize——因为numba需要类型信息,而这些信息不可用于自定义Python类。
一般来说,numba最好从NumPy数组上的纯循环代码(没有矢量化)开始,然后使用numbanjitdecorator(或jit(nopython=True))这对方法也不起作用,但是传入标量参数和只遍历所需数组要容易得多。
但是,如果您真的想使用vectorize方法,下面是您如何使用f方法的:
由于self,无法使用实例方法,因此需要静态方法或独立函数。因为您没有访问self的权限,所以需要传入delta或将其设置为全局我决定提出一个论点:

def f(ro, rs, delta):
    return rs / ro * np.exp((-1 / delta) * (ro - rs))

然后你需要找出你的参数是什么类型(或者你想支持什么类型)以及为签名返回什么ro是一个整数数组,rs是一个浮点数数组,delta是一个整数,所以签名如下(语法是return_type(argument_1_type, argument_2_type, ....)):
@nb.vectorize('f8(i8, f8, f8)')
def f(ro, rs, delta):
    return rs / ro * np.exp((-1 / delta) * (ro - rs))

基本上就是这样。
对于mzmro您也可以这样做(请记住,您还需要delta在那里):
@nb.vectorize('f8(i8, f8, f8)')
def mz(ro, rs, delta):
    return (1 - f(ro, rs, delta)**2) / (1 + f(ro, rs, delta)**2)

@nb.vectorize('f8(i8, f8, f8)')
def mro(ro, rs, delta):
    return (2 * f(ro, rs, delta) ) / (1 + f(ro, rs, delta)**2)

转换E1m函数似乎有点棘手(我还没有尝试过),我把它留给读者作为练习。
如果你感兴趣的话,我将如何在不vectorize的情况下解决它:
import numpy as np
import numba as nb

@nb.njit
def f(ro, rs, delta):
    return rs / ro * np.exp((-1 / delta) * (ro - rs))

@nb.njit
def mz(ro, rs, delta):
    f_2 = f(ro, rs, delta) ** 2
    return (1 - f_2) / (1 + f_2)

@nb.njit
def mro(ro, rs, delta):
    f_ = f(ro, rs, delta)
    return (2 * f_ ) / (1 + f_**2)

@nb.njit(parallel=True)
def E1m(a, b, N, rs, d):
    delta = 1
    r = np.linspace(a + (b - a) / (2 * N), b - (b - a) / (2 * N), N)
    result = np.empty(rs.size)
    for idx in nb.prange(rs.size):
        rs_item = rs[idx]
        sum_ = 0.
        for r_item in r:
            mro_ = mro(r_item, rs_item, delta)
            sum_ += r_item * ((1 / delta + 1 / r_item)**2 * mro_**2
                              + (1 / r_item**2 + 1) * mro_**2
                              + d * (-(1 / delta + 1 / r_item) * mro_
                                     + 1 / r_item * mro_ * mz(r_item, rs_item, delta)))
        result[idx] = sum_ * (b - a) / N
    return result

可能还有一点可以通过循环提升或更智能的计算方法进行优化,但在我的计算机上,它已经相当快了:与上面14毫秒相比,大约100微秒,所以同样快了100倍。

关于python - 如何正确将numpy vectorize转换为numba vectorize,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/57924347/

10-12 21:59