在Keras中,编译模型后如何更改lambda层?

更具体地说,假设我想要一个lambda层来计算y=a*x+b,其中ab在每个时期都会更改。

import keras
from keras.layers import Input, Lambda, Dense
import numpy as np


np.random.seed(seed=42)

a = 1
b = 2

def f(x, a, b):
    return a * x + b

inputs = keras.layers.Input(shape=(3,))
lam = Lambda(f, arguments={"a": a, "b": b})(inputs)
out = keras.layers.Dense(5)(lam)

model = keras.models.Model(inputs, out)
model.trainable = False
model.compile(optimizer='rmsprop', loss='mse')

x1 = np.random.random((10, 3))
x2 = np.random.random((10, 5))

model.fit(x1, x2, epochs=1)

print("Updating. But that won't work")
a = 10
b = 20
model.fit(x1, x2, epochs=1)


这将返回两次loss: 5.2914,应先返回一次loss: 5.2914,然后返回loss: 562.0562

据我所知,这似乎是一个open issue,可以通过编写自定义层来补救,但是我一直没有使它起作用。

欢迎任何指导。

最佳答案

如果使用ab作为张量,则即使在编译后也可以更改它们的值。

有两种方法。在其中,您将ab视为全局变量,并从函数外部获取它们:

import keras.backend as K

a = K.variable([1])
b = K.variable([2])

def f(x):
    return a*x + b #see the vars coming from outside here

#....

lam = Lambda(f)(inputs)


您随时可以手动调用K.set_value(a,[newNumber])

K.set_value(a,[10])
K.set_value(b,[20])
model.fit(x1,x2,epochs=1)


在另一种方法中(我不知道是否有优势,但是...听起来至少组织得更好),您可以将ab用作模型的输入:

a = K.variable([1])
b = K.variable([2])
aInput = Input(tensor=a)
bInput = Input(tensor=b)

def f(x):
    return x[0]*x[1] + x[2] #here, we input all tensors in the function

#.....

lam = Lambda(f)([inputs,aInput,bInput])


您可以使用与其他方法相同的方法来设置ab的值。

关于python - Keras-在compile()之后修改lambda层,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/47334788/

10-10 07:02