我正在使用线性回归来预测数据。但是,当我标准化(Vs)标准化变量时,我得到的结果完全相反。
归一化= x -xmin / xmax – xmin
零分数标准化= x-xmean / xstd
a) Also, when to Normalize (Vs) Standardize ?
b) How Normalization affects Linear Regression?
c) Is it okay if I don't normalize all the attributes/lables in the linear regression?
谢谢,
桑托什
最佳答案
请注意,结果不一定会如此不同。您可能只需要为这两个选项使用不同的超参数来获得相似的结果。
理想的情况是测试最适合您的问题的方法。如果由于某种原因您负担不起,那么大多数算法可能会从标准化中受益,而不是从标准化中受益。
有关何时应优先使用另一个的一些示例,请参见here:
标准化相对于标准化的一个缺点是,它丢失了数据中的某些信息,尤其是有关离群值的信息。
同样在链接页面上,有以下图片:
如您所见,缩放比例将所有数据紧密地聚集在一起,这可能不是您想要的。这可能会导致诸如梯度下降之类的算法花费更长的时间才能收敛到与标准化数据集相同的解决方案,甚至可能使其无法实现。
“标准化变量”实际上没有任何意义。正确的术语是“规范化/缩放要素”。如果要归一化或缩放一个功能,则其余功能应相同。
关于machine-learning - 线性回归::标准化(Vs)标准化,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/32108179/