我是tensorflow的初学者,我想实现MLP并根据反向传播算法对其进行训练,但是当我阅读教程时,我发现它使用了诸如“随机梯度下降”之类的优化器,并将其称为反向传播而未实现算法阶段。这个反向传播如何?

最佳答案

通常,通过首先定义损失函数,然后在其上调用优化器的.optimize来使用这些优化器:

loss = some_loss(predicted_outputs, true_outputs)
optimizer = tf.train.GradientDescentOptimizer(learning_rate)
train_op = optimizer.minimize(loss)


现在,执行sess.run(train_op)将在权重梯度的方向上迈出一步,以最大程度地减少损失。

关于machine-learning - tensorflow 如何在训练模型中使用反向传播?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/41165243/

10-12 17:33