我在凯拉斯和Tensorflow一起工作。我有一个深层神经模型(预测自动编码器)。我正在做一些类似的事情:https://arxiv.org/abs/1612.00796——我试图理解给定层中变量对输出的影响。
为此,我需要找到与特定层的输出有关的损失(l)的二阶导数(hessian):python - Keras和TensorFlow:得到f(x)wrt x的二阶导数,其中dim(x)=(1,n)-LMLPHP
对角线条目就足够了。l是标量,s是1乘n。
我首先尝试的是:

dLds = tf.gradients(L, s)  # works fine to get first order derivatives
d2Lds2 = tf.gradients(dLds, s)  # throws an error
TypeError: Second-order gradient for while loops not supported.

我也试过:
d2Lds2 = tf.hessians(L, s)
ValueError: Computing hessians is currently only supported for one-dimensional tensors. Element number 0 of `xs` has 2 dimensions.

我不能改变s的形状,因为它是神经网络(lstm状态)的一部分。第一个维度(批量大小)已经设置为1,我想我无法摆脱它。
我无法重塑S,因为它破坏了梯度的流动,例如:
tf.gradients(L, tf.reduce_sum(s, axis=0))

给予:
[None]

在这种情况下我能做什么?

最佳答案

目前不支持此操作。见this report

08-25 05:17