分离的超平面方程为W.X + b = 0
。
对于support vector machine in scikit-learn,如何分离出超平面? 'a
'和'w
'代表什么?
最佳答案
在scikit-learn中,coef_
属性保存线性模型的分离超平面的向量。如果为(n_classes, n_features)
(多类vs.all),则其形状为n_classes > 1
;对于二进制分类,其形状为(1, n_features)
。
在此玩具二元分类示例中,n_features == 2
,因此w = coef_[0]
是正交于超平面的矢量(超平面完全由其+截距定义)。
为了在2D情况下绘制此超平面(2D平面的任何超平面都是1D线),我们希望找到f
,如y = f(x) = a.x + b
所示。在这种情况下,a
是直线的斜率,可以通过a = -w[0] / w[1]
计算。
关于python - Python技巧学习-分离超平面方程,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/10953997/