我正在阅读Andrew NG的机器学习笔记,但是功能边距定义使我感到困惑:
我可以理解到几何裕度是x到其超平面的距离,但是如何理解函数裕度呢?为什么他们要这样定义其公式?
最佳答案
这样想:w ^ T.x_i + b是模型对第i个数据点的预测。 Y_i是它的标签。如果预测和地面真相具有相同的符号,则gamma_i将为正。此实例在类边界的“内部”越深,gamma_i越大:这是更好的方法,因为总和所有i,您的类之间将有更大的间隔。如果预测和标签的符号不一致,则此数量将为负(预测者的错误决定),这将减少您的 margin ,并且您越不正确,该数量将减少得更多(类似于松弛变量) 。
关于machine-learning - 如何理解SVM中的功能裕度?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/14658452/