我试图在Keras中使用带有ELU激活功能和参数alpha
的某个值的激活层。
我想使用标准激活层Activation('elu')
。
在keras/activations.py中为alpha
激活功能定义了参数elu()
。默认值为alpha=1.0
。
如何将不同的alpha
值传递给Activation('elu')
层?
设置Activation('elu').activation.__defaults__ = (val,)
似乎是更改默认值的一种方法,但是我不知道这是否明智,或者根本没有达到预期的效果。
我正在寻找不涉及lambda函数的解决方案。
N.B.我知道ELU()
层存在(“高级激活功能”),在这里可以直接设置alpha
的值:ELU(alpha=val)
,但是我想知道如何为alpha
设置Activation('elu')
参数。 cc>图层。
我正在使用Python 2.7和Keras 2.0.5。
最佳答案
您可以在模型外调用激活函数,然后添加它,如下所示:
import keras
elu_activation = keras.activations.elu(x, alpha=0.9)
model = Sequential()
...
model.add(Dense(32 , activation=elu_activation))
...
Here是文档的链接
关于python - 如何在Activation('elu')层中设置'alpha'参数,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/56184666/