我正在测试是否需要从不推荐使用的基于队列的API迁移到TensorFlow中的Dataset API的领域。
我似乎找不到与之等效的一个用例是enqueue_many
的tf.train.batch
参数。
特别是,我想创建一个Python生成器,它可以产生“批处理”数组,其中“批处理大小”不必与用于SGD训练更新的数组相同,然后将批处理应用于该数据流(即与tf.train.batch中的enqueue_many一起使用)。
在新的数据集API中,有什么解决方法可以实现此目的?
最佳答案
尝试使用平面图
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
n_reads=10
read_batch_size=20
training_batch_size = 2
def mnist_gen():
mnist = input_data.read_data_sets("/tmp/data/", one_hot=True)
for i in range(n_reads):
batch_x, batch_y = mnist.train.next_batch(read_batch_size)
# Yielding a batch instead of single record
yield batch_x,batch_y
data = tf.data.Dataset.from_generator(mnist_gen,output_types=(tf.float32,tf.float32))
data = data.flat_map(lambda *x: tf.data.Dataset.zip(tuple(map(tf.data.Dataset.from_tensor_slices,x)))).batch(training_batch_size)
# if u yield only batch_x change lambda function to data.flat_map(lambda x: tf.data.Dataset.from_tensor_slices(x)))
iter = data.make_one_shot_iterator()
next_item = iter.get_next()
X= next_item[0]
Y = next_item[1]
with tf.Session() as sess:
for i in range(n_reads*read_batch_size // training_batch_size):
print(i, sess.run(X))
关于python - 来自生成器的数据集,一次生成多个元素,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/53500684/