如果要通过使用以下正态方程来搜索线性回归模型的最佳参数theta:
theta = inv(X ^ T * X)* X ^ T * y
第一步是计算inv(X ^ T * X)。因此numpy提供了np.linalg.inv()和np.linalg.pinv()
尽管这会导致不同的结果:
X=np.matrix([[1,2104,5,1,45],[1,1416,3,2,40],[1,1534,3,2,30],[1,852,2,1,36]])
y=np.matrix([[460],[232],[315],[178]])
XT=X.T
XTX=XT@X
pinv=np.linalg.pinv(XTX)
theta_pinv=(pinv@XT)@y
print(theta_pinv)
[[188.40031946]
[ 0.3866255 ]
[-56.13824955]
[-92.9672536 ]
[ -3.73781915]]
inv=np.linalg.inv(XTX)
theta_inv=(inv@XT)@y
print(theta_inv)
[[-648.7890625 ]
[ 0.79418945]
[-110.09375 ]
[ -74.0703125 ]
[ -3.69091797]]
第一个输出,即pinv的输出是正确的输出,并在numpy.linalg.pinv()文档中另外建议。
但是为什么会这样呢?inv()和pinv()之间的差异/优点/缺点在哪里?
最佳答案
如果矩阵的行列式为零,则它将不具有逆函数,并且inv函数将不起作用。如果矩阵是奇异的,通常会发生这种情况。
但是pinv会的。这是因为pinv在可用时返回矩阵的逆,而在不可用时返回伪逆。
函数的不同结果是由于浮点运算中的舍入误差
您可以阅读有关伪逆如何工作的更多信息here