漫谈特征缩放
說起"煉丹"最耗時的幾件事,首先就能想到的就是數據清洗,特征工程,還有調參.特征工程真的是老生常談了,但是特征工程又是最重要的一環,這一步做不好怎么調參也沒用.在特征工程中,做特征縮放是非常重要的,如下圖所示:
我們可以看到,在沒做特征縮放前,用kmeans跑出的聚類結果就如圖所示,以y=0為分界線,上面是一類,下面是一類,相當的離譜.主要原因就是y值的取值范圍很大,從-4000~4000,而x軸只有-5~20,熟悉kmeans算法都清楚該算法中距離度量用的是歐式距離,因此x軸的數值就變得無關緊要.所以數據預處理沒做好,很多模型都將不生效.值得注意的是,scaling在數據預處理中并不是強制的,習慣用樹模型的朋友們也很清楚對樹模型而言,scaling對效果毫無影響.但是對于一些對距離敏感的算法影響就比較大了,如KNN,SVM,PCA,NN等.
Scaling的目的很簡單,一方面是使得每列特征“范圍”更接近,另一方面是讓計算變得更加簡單,如梯度下降在特征縮放后,將縮放的更快,效果更好,所以對于線性回歸,邏輯回歸,NN都需要做特征縮放:
特征縮放有很多種,我們介紹最常見的4種:
- StandardScaler
- RobustScaler
- MinMaxScaler
- MaxAbsScaler
1、StandardScaler
這種scale方法大家最熟悉了,通過減去均值再除以方差進行標準化.需要注意的是異常值對于這種scale方法的傷害是毀滅性的,因為異常值影響均值.如果你的數據是正太分布或接近正太分布,并且沒有特別異常的值,可以使用該方法進行縮放.
讓我們看下該縮放方法,對有偏態分布的數據會產生什么影響.
我們發現,對偏態分布的數據縮放后并沒有改變其分布.我們對數據做次log再縮放呢?
from sklearn.preprocessing import StandardScaler import numpy as np df_log = np.log(df) df_scale = StandardScaler().fit_transform(df_log)我們發現log使得數據接近正態分布,StandardScaler使得數據變成了標準正態分布,這種方法往往表現的更好并且降低了異常值的影響.
2、RobustScaler
from sklearn.preprocessing import RobustScalerRobustScaler是基于中位數的縮放方法,具體是減去中位數再除以第3分位數和第一分位數之間的差值.如下所示:
因為該縮放方法用了分位點的差值,所以它降低了異常值的影響,如果你發現數據有異常值,并且懶得去修正它們,就用這種縮放方法吧.我們對比下異常值對StandardScaler和RobustScaler的影響.
我們很容易發現StandardScaler使得異常值更接近均值了,但是在RobustScaler后,異常值還是顯得比較異常.
3、MinMaxScaler
from sklearn.preprocessing import MinMaxScalerMinMaxScaler使得數據縮放到0~1之間,縮放由最小值和最大值決定,因此會受到異常值影響.并且對新出現的最大最小值并不友好.
4、MaxAbsScaler
from sklearn.preprocessing import MaxAbsScaler該縮放方法不會破壞數據的稀疏性,也不會改變數據的分布,僅僅把數據縮放到了-1~1之間.MaxAbsScaler就是讓每個數據Xi/|Xmax|,值得注意的是,該方法對異常值也相當敏感.
總結一下:
StandardScaler: 不適用于有異常值的數據;使得均值為0. RobustScaler: 適用于有異常值的數據. MinMaxScaler: 不適用于有異常值的數據;使得數據縮放到0~1. MaxAbsScaler: 不適用于有異常值的數據;使得數據縮放到-1~1.漫談特征縮放總結
- 上一篇: PyCaret:又一个神仙ML库
- 下一篇: 推荐系统遇到曝光偏差怎么办?用对比学习!