我刚刚开始学习神经网络,到目前为止,我对机器学习的知识只是线性和逻辑回归。从我对后一种算法的理解来看,给定输入的倍数,学习算法的工作就是为每个输入提供适当的权重,以便最终我得到一个描述线性回归情况的多项式或与逻辑回归一样将其分开。
如果我要在神经网络中代表相同的机制,根据我的理解,它将看起来像这样,
machine-learning - 为什么在神经网络中我们有多层,每层有多个节点?-LMLPHP
输入层有多个节点,输出层有一个节点。在这里我可以按比例向每个输入反向传播错误。因此最终我也到达了描述数据的多项式X1W1 + X2W2 + .... XnWn。对我来说,除了输入层外,每层都有多个节点,这似乎使学习过程并行进行,因此我可以更快地得出结果。这几乎就像运行多种学习算法,每种算法具有不同的起点,以查看哪种算法收敛更快。至于多层,我对它在学习成果上的作用机理和优势一无所知。

最佳答案

为什么我们在神经网络中有多层,每层有多个节点?


我们需要至少一个具有非线性激活的隐藏层才能学习非线性函数。通常,人们将每一层都视为一个抽象级别。对于计算机视觉,输入层包含图像,输出层包含每个类的一个节点。第一隐藏层检测边缘,第二隐藏层可能检测圆形/矩形,然后出现更复杂的图案。

有一个理论结果表明,如果一个隐藏层有足够的神经元,则只有一个隐藏层的MLP可以将每个感兴趣的功能拟合到任意低的误差范围。但是,与添加更多层相比,参数的数量可能要大得多。

基本上,通过添加更多隐藏层/每层更多神经元,可以为模型添加更多参数。因此,您允许模型适合更复杂的功能。但是,据我所知,还没有定量的理解,添加一个单独的进一步的层/节点到底能做什么。

在我看来,您可能需要对神经网络进行一般性介绍。我推荐[Tho14a](我的学士学位论文)的第4.3和4.4章以及[LBH15]。


  [Tho14a]
  M. Thoma,“手写数学符号的在线识别”,
  2014年11月,德国卡尔斯鲁厄。[在线]。可用:https://arxiv.org/abs/1511.09030
  
  [LBH15]
  乐村
  卷521,
  Y. Bengio,
  没有。 7553,
  和G. Hinton,
  第436–444页,
  “深度学习”
  性质,
  2015年5月。[在线]。可用的:
  http://www.nature.com/nature/journal/v521/n7553/abs/nature14539.html

关于machine-learning - 为什么在神经网络中我们有多层,每层有多个节点?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/41410317/

10-12 23:22