在 TensorFlow 1.x 中,我有很大的自由选择在训练期间打印准确率/损失分数的方式和时间。例如,如果我想每 100 个时期打印一次训练损失,在 tf.Session() 中我会写:

if epoch % 100 == 0:
    print(str(epoch) + '. Training Loss: ' + str(loss))

在 TF 2.0 (alpha) 发布后,Keras API 似乎强制坚持其标准输出。有没有办法恢复这种灵活性?

最佳答案

如果您不使用 Keras 模型方法( .fit.train_on_batch 、...)并且您使用 Eager Execution 编写自己的训练循环(并可选择将其包装在 tf.function 中以将其转换为其图形表示),则可以控制详细程度就像你在 1.x 中所做的那样

training_epochs = 10
step = 0
for epoch in range(training_epochs)
    print("starting ",epoch)
    for features, labels in dataset:
        with tf.GradientTape() as tape:
            loss = compute_loss(model(features),labels)
        gradients = tape.gradients(loss, model.trainable_variables)
        optimizer.apply_gradients(zip(gradients, model.trainable_variables))
        step += 1
        if step % 10 == 0:
            # measure other metrics if needed
            print("loss: ", loss)
    print("Epoch ", epoch, " finished.")

关于python - 如何在 TensorFlow 2.0 中控制冗长,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/55160570/

10-12 21:10