关于MNIST ML初学者的教程,在Implementing the Regression中,展示了如何在单行上进行回归,然后进行了解释,其中提到了技巧的使用(强调我的意思):
y = tf.nn.softmax(tf.matmul(x, W) + b)
首先,我们用表达式
tf.matmul(x, W)
将x乘以W。这是从我们在方程中将它们乘以Wx的时候翻转过来的,这是处理x是具有多个输入的2D张量的一个小技巧。这有什么窍门,为什么我们要使用它?
最佳答案
好吧,这里没有把戏。那条线基本上指向一个先前的方程乘法顺序
# Here the order of W and x, this equation for single example
y = Wx +b
# if you want to use batch of examples you need the change the order of multiplication; instead of using another transpose op
y = xW +b
# hence
y = tf.matmul(x, W)
关于python - MNIST tensorflow 教程对matmul翻转技巧有何意义?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/45536330/