我试图在Keras中使用带有ELU激活功能和参数alpha的某个值的激活层。

我想使用标准激活层Activation('elu')

keras/activations.py中为alpha激活功能定义了参数elu()。默认值为alpha=1.0

如何将不同的alpha值传递给Activation('elu')层?

设置

Activation('elu').activation.__defaults__ = (val,)

似乎是更改默认值的一种方法,但是我不知道这是否明智,或者根本没有达到预期的效果。

我正在寻找不涉及lambda函数的解决方案。

N.B.我知道ELU()层存在(“高级激活功能”),在这里可以直接设置alpha的值:ELU(alpha=val),但是我想知道如何为alpha设置Activation('elu')参数。 cc>图层。

我正在使用Python 2.7和Keras 2.0.5。

最佳答案

您可以在模型外调用激活函数,然后添加它,如下所示:

import keras

elu_activation = keras.activations.elu(x, alpha=0.9)


model = Sequential()
...
model.add(Dense(32 , activation=elu_activation))
...


Here是文档的链接

关于python - 如何在Activation('elu')层中设置'alpha'参数,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/56184666/

10-12 22:06