深度学习常见的是对于梯度的优化,也就是说,优化器最后其实就是各种对于梯度下降算法的优化。 理论部分可以见斯坦福深度学习的课程。这里推荐一个博客,总结了这些优化器的原理以及性能,写的挺好的:An overview of gradient descent optimazation algorithms
从其中讲几个比较常用的,其他的可以自己去看文档。官方文档:Training

常用的optimizer类

tf.train.Optimizer

优化器(optimizers)类的基类。这个类定义了在训练模型的时候添加一个操作的API。你基本上不会直接使用这个类,但是你会用到他的子类比如GradientDescentOptimizer, AdagradOptimizer, MomentumOptimizer.等等这些。

tf.train.AdamOptimizer

此函数是Adam优化算法:是一个寻找全局最优点的优化算法,引入了二次方梯度校正。

相比于基础SGD算法,1.不容易陷于局部优点。2.速度更快

tf.train.GradientDescentOptimizer

这个类是实现梯度下降算法的优化器。(结合理论可以看到,这个构造函数需要的一个学习率就行了)

作用:创建一个梯度下降优化器对象
参数:

  • learning_rate: A Tensor or a floating point value. 要使用的学习率
  • use_locking: 要是True的话,就对于更新操作(update operations.)使用锁
  • name: 名字,可选,默认是”GradientDescent”.

tf.train.AdadeltaOptimizer

实现了 Adadelta算法的优化器,可以算是下面的Adagrad算法改进版本

作用:构造一个使用Adadelta算法的优化器
参数:

  • learning_rate: tensor或者浮点数,学习率
  • rho: tensor或者浮点数. The decay rate.
  • epsilon: A Tensor or a floating point value. A constant epsilon used to better conditioning the grad update.
  • use_locking: If True use locks for update operations.
  • name: 【可选】这个操作的名字,默认是”Adadelta”

参考:https://blog.csdn.net/zj360202/article/details/70263110
https://blog.csdn.net/xierhacker/article/details/53174558

02-17 07:18