问题描述
如何在最新版本的keras中使用泄漏的ReLU?函数relu()接受一个可选参数'alpha',该参数负责负斜率,但是我无法弄清楚在构造图层时如何传递此参数.
How is it possible to use leaky ReLUs in the newest version of keras?Function relu() accepts an optional parameter 'alpha', that is responsible for the negative slope, but I cannot figure out how to pass ths paramtere when constructing a layer.
这行是我尝试的方式,
model.add(Activation(relu(alpha=0.1))
但是我得到了错误
TypeError: relu() missing 1 required positional argument: 'x'
如何使用泄漏的ReLU或带有某些参数的任何其他激活功能?
How can I use a leaky ReLU, or any other activation function with some parameter?
推荐答案
relu
是一个函数,而不是一个类,它将激活函数的输入作为参数x
.激活层将一个函数作为参数,因此您可以通过输入x
使用lambda函数对其进行初始化,例如:
relu
is a function and not a class and it takes the input to the activation function as the parameter x
. The activation layer takes a function as the argument, so you could initialize it with a lambda function through input x
for example:
model.add(Activation(lambda x: relu(x, alpha=0.1)))
这篇关于Keras-将激活函数与参数一起使用的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!