我试图做多元线性回归。但我发现SkLayn.LoimiLi模型工作非常怪异。这是我的代码:
import numpy as np
from sklearn import linear_model
b = np.array([3,5,7]).transpose() ## the right answer I am expecting
x = np.array([[1,6,9], ## 1*3 + 6*5 + 7*9 = 96
[2,7,7], ## 2*3 + 7*5 + 7*7 = 90
[3,4,5]]) ## 3*3 + 4*5 + 5*7 = 64
y = np.array([96,90,64]).transpose()
clf = linear_model.LinearRegression()
clf.fit([[1,6,9],
[2,7,7],
[3,4,5]], [96,90,64])
print clf.coef_ ## <== it gives me [-2.2 5 4.4] NOT [3, 5, 7]
print np.dot(x, clf.coef_) ## <== it gives me [ 67.4 61.4 35.4]
最佳答案
为了找到初始系数,在构造线性回归时需要使用关键字fit_intercept=False
。
import numpy as np
from sklearn import linear_model
b = np.array([3,5,7])
x = np.array([[1,6,9],
[2,7,7],
[3,4,5]])
y = np.array([96,90,64])
clf = linear_model.LinearRegression(fit_intercept=False)
clf.fit(x, y)
print clf.coef_
print np.dot(x, clf.coef_)
使用
fit_intercept=False
可防止LinearRegression
对象使用x - x.mean(axis=0)
,否则它将使用y = xb + c
(并使用恒定偏移量捕获平均值1
)-或通过将x
列添加到transpose
来等效。顺便说一下,在一维数组上调用没有任何效果(它会反转轴的顺序,而您只有一个)。
关于python - Python:Sklearn.linear_model.LinearRegression工作很奇怪,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/24393518/