特征归一化

2018年10月28日20:45:15数据分析评论46阅读模式

在某些问题中,数据归一化是必不可少的。文章源自随机的未知-https://sjdwz.com/11105.html

线性归一化
公式:文章源自随机的未知-https://sjdwz.com/11105.html

 文章源自随机的未知-https://sjdwz.com/11105.html

该方法实现对原始数据的等比例缩放,X为原始数据,Xmax、Xmin分别为原始数据集的最大值和最小值。文章源自随机的未知-https://sjdwz.com/11105.html

此归一化方法的优缺点为文章源自随机的未知-https://sjdwz.com/11105.html

优点:
如果方差较小,可以使用此方法将特征差异放大
缺点:
容易受到数据的影响,如噪音,或者最大值最小值太极端的情况。文章源自随机的未知-https://sjdwz.com/11105.html

零均值归一化文章源自随机的未知-https://sjdwz.com/11105.html

其中X是原数据,其中是原数据的均值,是原数据的方差。文章源自随机的未知-https://sjdwz.com/11105.html

此归一化方法的优缺点为:文章源自随机的未知-https://sjdwz.com/11105.html

优点:
将所有数据都归一到均值为0,方差为1的正态分布<br>
缺点:
对于不满足高斯分布的数据归一化后的结果较差文章源自随机的未知-https://sjdwz.com/11105.html

 文章源自随机的未知-https://sjdwz.com/11105.html

=============================文章源自随机的未知-https://sjdwz.com/11105.html

本文在没键站时在csdn上写的,有的公式在csdn那边已经看不了了。。。。。文章源自随机的未知-https://sjdwz.com/11105.html

=============================
————————————————
版权声明:本文为CSDN博主「随机的未知」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_41243472/article/details/83477831文章源自随机的未知-https://sjdwz.com/11105.html

欢迎关注本站微信公众号:随机的未知 如果喜欢本文,欢迎点赞,收藏,转发,打赏。
  • 本文由 发表于 2018年10月28日20:45:15
  • 转载请注明:来源:随机的未知 本文链接https://sjdwz.com/11105.html
匿名

发表评论

匿名网友

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

确定