本文介绍了Keras-将激活函数与参数一起使用的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

如何在最新版本的keras中使用泄漏的ReLU?函数relu()接受一个可选参数'alpha',该参数负责负斜率,但是我无法弄清楚在构造图层时如何传递此参数.

How is it possible to use leaky ReLUs in the newest version of keras?Function relu() accepts an optional parameter 'alpha', that is responsible for the negative slope, but I cannot figure out how to pass ths paramtere when constructing a layer.

这行是我尝试的方式,

model.add(Activation(relu(alpha=0.1))

但是我得到了错误

TypeError: relu() missing 1 required positional argument: 'x'

如何使用泄漏的ReLU或带有某些参数的任何其他激活功能?

How can I use a leaky ReLU, or any other activation function with some parameter?

推荐答案

relu是一个函数,而不是一个类,它将激活函数的输入作为参数x.激活层将一个函数作为参数,因此您可以通过输入x使用lambda函数对其进行初始化,例如:

relu is a function and not a class and it takes the input to the activation function as the parameter x. The activation layer takes a function as the argument, so you could initialize it with a lambda function through input x for example:

model.add(Activation(lambda x: relu(x, alpha=0.1)))

这篇关于Keras-将激活函数与参数一起使用的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!

08-11 19:43