我一直在关注Andrew NG在神经网络上的视频。在这些视频中,他没有将偏见与每个神经元联系在一起。取而代之的是,他在计算出每层的激活后在每层的顶部添加一个偏差单位,并将该偏差与计算结果一起用于计算下一层的激活(正向传播)。
但是,在其他一些有关机器学习的博客以及像this这样的视频中,每个神经元都有偏差。这种差异是什么以及为什么产生了什么?它的含义是什么?
最佳答案
两种方法都代表着相同的偏见概念。对于每个单元(不包括输入节点),您需要计算权重和激活值的点积的激活函数值,该值与前一层(在前馈网络的情况下)矢量的矢量加标量偏差值相同:
(w * a) + b
在Andrew Ng中,此值是使用矢量化技巧计算的,在该技巧中,您将激活与指定的偏置常数(通常为1)连接起来,并完成了该工作(因为此常数在不同节点上具有自己的权重-因此,与使用另一个常数完全相同每个节点的偏差值)。
关于machine-learning - 每个神经元的神经网络偏差,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/37193305/