我不明白如何针对多个时期运行tf.train.batch的结果。它当然会用完一次,我不知道如何重新启动它。
也许我可以使用tile
(很复杂的but described in full here)重复它。
如果我每次都可以重画一个批次,那很好-我需要在0到num_examples之间的batch_size
随机整数。 (我的示例全部位于本地RAM中)。我还没有找到一种简单的方法来立即获得这些随机抽奖。
理想情况下,重复批处理时也应该进行改组,但是对我来说,运行一个时期然后进行改组等更有意义,而不是将训练空间加入其自身的num_epochs
大小,然后进行改组。
我认为这很令人困惑,因为由于我的输入适合内存,所以我并没有真正构建输入管道,但是我仍然需要构建批处理,混排和多个时期,这可能需要更多关于输入管道的知识。
最佳答案
tf.train.batch
只是将上游样本分为几批,仅此而已。它打算在输入管道的末尾使用。数据和纪元在上游处理。
例如,如果您的训练数据适合张量,则可以使用tf.train.slice_input_producer
生成样本。此函数具有改组和时期的参数。
关于python - TensorFlow火车批次有多个时期?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/48977277/