如果要通过使用以下正态方程来搜索线性回归模型的最佳参数theta:

theta = inv(X ^ T * X)* X ^ T * y

第一步是计算inv(X ^ T * X)。因此numpy提供了np.linalg.inv()np.linalg.pinv()

尽管这会导致不同的结果:

X=np.matrix([[1,2104,5,1,45],[1,1416,3,2,40],[1,1534,3,2,30],[1,852,2,1,36]])
y=np.matrix([[460],[232],[315],[178]])

XT=X.T
XTX=XT@X

pinv=np.linalg.pinv(XTX)
theta_pinv=(pinv@XT)@y
print(theta_pinv)

[[188.40031946]
 [  0.3866255 ]
 [-56.13824955]
 [-92.9672536 ]
 [ -3.73781915]]

inv=np.linalg.inv(XTX)
theta_inv=(inv@XT)@y
print(theta_inv)

[[-648.7890625 ]
 [   0.79418945]
 [-110.09375   ]
 [ -74.0703125 ]
 [  -3.69091797]]


第一个输出,即pinv的输出是正确的输出,并在numpy.linalg.pinv()文档中另外建议。
但是为什么会这样呢?inv()和pinv()之间的差异/优点/缺点在哪里?

最佳答案

如果矩阵的行列式为零,则它将不具有逆函数,并且inv函数将不起作用。如果矩阵是奇异的,通常会发生这种情况。

但是pinv会的。这是因为pinv在可用时返回矩阵的逆,而在不可用时返回伪逆。

函数的不同结果是由于浮点运算中的舍入误差

您可以阅读有关伪逆如何工作的更多信息here

07-27 19:25