照例文章第一段跑题,先附上个段子(转载的哦~):

喵。近期被问了好几次machine learning 和statistical learning的差别在哪里,我认为大致如上吧。

这也是为什么。对后面这个词我的好感稍稍好于前面那个的原因...科学总是有意义的嘛,不能总是依靠强力乱猜是不是嘛。

免责声明:下面个人见解部分局限于我个人的见识和思考范围,不适用于全部场景。

请大家弃糟粕取精华,不可一言全信之。

-------------笔记+随想開始------------

高维空间问题

这一段主要是说大名鼎鼎的"维数灾难"。

我们都知道有两个数字决定着OLS中X矩阵的大小。这就是 观測数目N 和观測变量的个数p 。

一般说来。我们都喜欢N比較大。这样能够非常easy的应用大数定律什么的。然而对于p。却是既爱又恨—我们当然喜欢能够观察到个体的非常多个特征,可是所谓"乱花渐欲迷人眼",特征越多噪音也越多。搞不好预測的时候就会有麻烦(关于变量的选择问题。应该是下一节课的内容。心急的能够先看看我曾经的一篇自学笔记)。

为什么维数增多的时候会麻烦呢?这里主要是随着维数增多带来的高维空间数据稀疏化问题。简单地说:

  • p=1,则单位球(简化为正值的情况)变为一条[0,1]之间的直线。假设我们有N个点,则在均匀分布的情况下,两点之间的距离为1/N。事实上平均分布和全然随机分布的两两点之间平均距离这个概念大致是等价的,大家可略微想象一下这个过程。
  • p=2,单位球则是边长为1的正方形,假设还是仅仅有N个点 ,则两点之间的平均距离为1N√。换言之。假设我们还想维持两点之间平均距离为1/N,那么则需N2个点。
  • 以此类题,在p维空间。N个点两两之间的平均距离为N−1/p,或者须要Np个点来维持1/N的平均距离。

由此可见,高维空间使得数据变得更加稀疏。这里有一个重要的定理:N个点在p为单位球内随机分布,则随着p的增大。这些点会越来越远离单位球的中心。转而往外缘分散。这个定理源于各点距单位球中心距离的中间值计算公式:

d(p,N)=(1−21/N)1/p

当p→∞时。d(p,N)→1。(非常显然,当N变大时。这个距离趋近于0。直观的理解就是,想象我们有一堆气体分子。p变大使得空间变大,所以这些分子開始远离彼此;而N变大意味着有很多其它气体分子进来,所以两两之间难免更挤一些。

看过《三体》的,大概会认为这个非常熟悉的感觉吧...四维空间下的"水滴"再也不完美的无懈可击。而一张一维的纸片就毁灭了整个地球呢。

这个距离公式的推导就临时不写了。好麻烦...大致是利用了各个点独立同分布的特性(全然随机情况下),把median距离变为以1/2概率大于中位数的概率集合公式,再进一步展开为单点距离累乘公式。

比方当p=10, N=500的时候,d(p,N)约为0.52,也就意味着有一半多的点离中心的距离大于1/2。

高维问题为什么是问题呢?回想一下K近邻算法,我们用x的邻居来取代x,这样就希望他的邻居们不要离他太远。

显然高维空间使得点和点之间越来越远。

所以说,knn更适合小p大N即低维多观測量的情况,而在高维空间下可能会变得非常麻烦。

这样,statistical learning的主要两个问题就总结完了:

  • 过拟合:为了控制预測误差。我们要选择适合的函数类。
  • 高维空间:随着维数的增多,我们面临着维数灾难。

    这对非常多算法都有波及,主要体如今高维数据稀疏化。

回归的线性方法

这里主要是一些linear regression的东西,作为被计量经济学折磨了这么多年的孩子,我表示非常淡定...此外还加上我们俗称的generalized linear models,即GLM。

一些线性变换而已,无伤大雅。

这里一定要强调的是,在这里我们亲爱的X竟然不是随机变量!多大的一个坑啊。我就华丽丽的掉下去了还问老师为什么无偏性不须要如果均值独立什么的... X不是随机变量意味着什么呢?X是人为设定或者决定的,比方我一天浇200 ml 或者500 ml水,然后看对于植物生长的影响。当时我真的是想"一口老血喷出来"。这也太舒服了吧!

要知道大多数情况下X也是随机变量哇,比方身高体重什么的。如果它不是随机变量而仅仅有扰动项是独立的随机变量的话,整个计量经济学怕是要删掉好多篇幅了呢。我想说的仅仅有。这群搞statistical
learning的好幸福...

X不是随机变量的时候。为了满足无偏性的如果,仅仅须要扰动项不相关且期望方差存在就能够了。期望不为0不要紧,回归的时候放进去常数项就能够了。

此外。对于随意一个正定阵W。我们都能够直接在回归方程两边乘以W。从而β^=(X′W′WX)−1X′W′Y。

也就是说。我们能够给X进行加权处理,加权矩阵W之后能够进行新的OLS预计。且可能会有相应的优良性质。加权最小二乘法我就不在这里复习了。学过计量的应该非常熟悉,比方处理异方差什么的。

再就是我们能够给β加上一些约束条件,这种话最小化问题后面就能够简单的使用拉格朗日乘子法来解。

这次的收获之中的一个就是OLS预计量的计算。在实践中,我们计算OLS预计值并非直接使用β^=(X′X)−1X′Y,而是会事先进行QR分解(利用特征值来算)。即。我们把X分解为化为正交(酉)矩阵Q与实(复)上三角矩阵R的乘积。这样一来,

β^=(X′X)−1X′Y=(R′Q′QR)−1R′Q′Y=R−1(Q′Y)

这样可解Rβ=Q′Y,计算时候的稳定性比直接求逆矩阵来的好非常多,由于计算机必竟有数字长度的限制。各种位数带来的精度损耗最后会累积到预计量上。

最后就是高斯-马尔科夫定理。就是我们常说的BLUE预计量。

我就直接拷贝这个定理了:

进一步的。如果如果扰动项服从正态分布,比方白噪声,那么β^的预计值也服从正态分布。y的预測值也服从正态分布,因此能够直接做一系列基于正态分布的如果检验。特别的,在大样本情况下,就算扰动项不是正态分布,我们也还是能够利用大数定律和中心极限定理...其实一般也是这么做的。

本节课到此结束。老师没有一一推导无偏性最小方差这些性质,我倒是认为对回归方法感兴趣的还是直接去看计量经济学吧。

这东西水还是蛮深的。

05-11 22:21