在某些问题中,数据归一化是必不可少的。文章源自随机的未知-https://sjdwz.com/11105.html
线性归一化
公式:文章源自随机的未知-https://sjdwz.com/11105.html
文章源自随机的未知-https://sjdwz.com/11105.html
该方法实现对原始数据的等比例缩放,X为原始数据,Xmax、Xmin分别为原始数据集的最大值和最小值。文章源自随机的未知-https://sjdwz.com/11105.html
此归一化方法的优缺点为文章源自随机的未知-https://sjdwz.com/11105.html
优点:
如果方差较小,可以使用此方法将特征差异放大
缺点:
容易受到数据的影响,如噪音,或者最大值最小值太极端的情况。文章源自随机的未知-https://sjdwz.com/11105.html
零均值归一化文章源自随机的未知-https://sjdwz.com/11105.html
其中X是原数据,其中是原数据的均值,是原数据的方差。文章源自随机的未知-https://sjdwz.com/11105.html
此归一化方法的优缺点为:文章源自随机的未知-https://sjdwz.com/11105.html
优点:
将所有数据都归一到均值为0,方差为1的正态分布<br>
缺点:
对于不满足高斯分布的数据归一化后的结果较差文章源自随机的未知-https://sjdwz.com/11105.html
文章源自随机的未知-https://sjdwz.com/11105.html
=============================文章源自随机的未知-https://sjdwz.com/11105.html
本文在没键站时在csdn上写的,有的公式在csdn那边已经看不了了。。。。。文章源自随机的未知-https://sjdwz.com/11105.html
=============================
————————————————
版权声明:本文为CSDN博主「随机的未知」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_41243472/article/details/83477831文章源自随机的未知-https://sjdwz.com/11105.html