我正在尝试在 TensorFlow 中实现最大边际损失。
这个想法是我有一些积极的例子,我对一些消极的例子进行了抽样,并想计算一些类似
其中 B 是我的批次大小,N 是我想要使用的负样本数。
我是 tensorflow 的新手,我发现实现它很棘手。
我的模型计算维度 B * (N + 1)
的分数向量,其中我交替使用正样本和负样本。例如,对于 2 个和 2 个负示例的批量大小,我有一个大小为 6 的向量,其中第一个正示例的得分为索引 0,第二个正示例位于位置 3,负示例的得分位于位置 1、2, 4 和 5。
理想的情况是获得 [1, 0, 0, 1, 0, 0]
之类的值。
我能想到的是以下,使用 while 和条件:
# Function for computing max margin inner loop
def max_margin_inner(i, batch_examples_t, j, scores, loss):
idx_pos = tf.mul(i, batch_examples_t)
score_pos = tf.gather(scores, idx_pos)
idx_neg = tf.add_n([tf.mul(i, batch_examples_t), j, 1])
score_neg = tf.gather(scores, idx_neg)
loss = tf.add(loss, tf.maximum(0.0, 1.0 - score_pos + score_neg))
tf.add(j, 1)
return [i, batch_examples_t, j, scores, loss]
# Function for computing max margin outer loop
def max_margin_outer(i, batch_examples_t, scores, loss):
j = tf.constant(0)
pos_idx = tf.mul(i, batch_examples_t)
length = tf.gather(tf.shape(scores), 0)
neg_smp_t = tf.constant(num_negative_samples)
cond = lambda i, b, j, bi, lo: tf.logical_and(
tf.less(j, neg_smp_t),
tf.less(pos_idx, length))
tf.while_loop(cond, max_margin_inner, [i, batch_examples_t, j, scores, loss])
tf.add(i, 1)
return [i, batch_examples_t, scores, loss]
# compute the loss
with tf.name_scope('max_margin'):
loss = tf.Variable(0.0, name="loss")
i = tf.constant(0)
batch_examples_t = tf.constant(batch_examples)
condition = lambda i, b, bi, lo: tf.less(i, b)
max_margin = tf.while_loop(
condition,
max_margin_outer,
[i, batch_examples_t, scores, loss])
该代码有两个循环,一个用于外部总和,另一个用于内部总和。我面临的问题是损失变量在每次迭代中不断累积错误,而在每次迭代后都没有被重置。所以它实际上根本不起作用。
而且,这似乎真的不符合 tensorflow 的实现方式。我想可能会有更好的方法,更多的矢量化方法来实现它,希望有人能提出建议或给我指点例子。
最佳答案
首先我们需要清理输入:
[B, 1]
[B, N]
import tensorflow as tf
B = 2
N = 2
scores = tf.constant([0.5, 0.2, -0.1, 1., -0.5, 0.3]) # shape B * (N+1)
scores = tf.reshape(scores, [B, N+1])
scores_pos = tf.slice(scores, [0, 0], [B, 1])
scores_neg = tf.slice(scores, [0, 1], [B, N])
现在我们只需要计算损失矩阵,即每对(正、负)的所有单独损失,并计算其总和。
loss_matrix = tf.maximum(0., 1. - scores_pos + scores_neg) # we could also use tf.nn.relu here
loss = tf.reduce_sum(loss_matrix)
关于python - TensorFlow 中的最大边际损失,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/37689632/