我有6.5 GB的培训数据可用于我的GRU网络。我打算分配培训时间,即暂停和恢复培训,因为我使用的是笔记本电脑。我假设使用整个6.5 GB的神经网络训练需要花费我几天的时间,因此,我将暂停训练,然后在其他时间再次恢复。
这是我的问题。如果我将随机整理训练数据的批次,神经网络会记住哪些数据已经用于训练了吗?
请注意,我使用的是global_step
的tf.train.Saver().save
参数。
提前非常感谢您!
最佳答案
我建议您在某个时期保存您的模型,假设您有80个时期,明智的做法是每20个时期(20、40、60)保存您的模型,但这又取决于笔记本电脑的容量,原因是在一个时期,您的网络将看到所有数据集(训练集)。如果您无法在一个时期内处理整个数据集,我建议您从整个数据集中随机取样,这将是培训改组的重点是让网络对整个数据集进行某种概括,通常是在批处理或选择训练数据集上进行,或者开始一个新的训练纪元。至于您的主要问题,它确实可以随机播放训练和恢复时进行训练。混洗批次可确保沿着批次而不是一个图像上计算梯度