有没有一种方法(仅使用r编程语言)使用自定义学习函数(而不是反向传播)来实现ann算法?我测试过的所有R包(NNET、Neuralnet、Amore)似乎都有学习功能来训练重量的选项,但它们似乎都不包括插入自定义功能的选项(例如爬山)。
我更喜欢用R而不是另一种语言,所以如果有人知道任何可以帮助我的软件包,请告诉我。
谢谢!

最佳答案

观察:
Hill Climbing是一种在邻域上工作的优化算法,Backpropogation是一种训练算法通常ann包使用训练方法根据两个输出之间的误差来调整权重:它不基于邻域优化(或替换权重)。这就是为什么你只能找到学习举重训练功能的选项,却找不到通过爬山等方式进行训练的选项。这是故意的
解决方案:
通过输入向量、输出向量、节点单元矩阵等自定义数学方法,在任何语言中都有爬山神经网络和迭代权重。
如果不相信scratch实现,可以在Matlab中查看simple hill climbing。确信这将在r中重新写入

09-28 04:47
查看更多