Sklearn-scaler对比
生活随笔
收集整理的這篇文章主要介紹了
Sklearn-scaler对比
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
原始數(shù)據(jù)分布:
- StandardScaler:通過減去均值,除以標(biāo)準(zhǔn)差。異常數(shù)據(jù)對(duì)均值和方差的影響很大,會(huì)導(dǎo)致特征數(shù)據(jù)范圍縮小 z=(x?u)sz = \frac{(x - u)}{ s}z=s(x?u)?
- MinMaxScaler將所有數(shù)據(jù)歸一化到[0,1]區(qū)間內(nèi),但是由于異常值的影響,特征數(shù)據(jù)的分布范圍變得很窄。與standardscalar一樣,對(duì)異常值銘感Xstd=(X?X.min)(X.max(axis=0)?X.min(axis=0))X_{std} = \frac{(X - X.min)} {(X.max(axis=0) - X.min(axis=0))}Xstd?=(X.max(axis=0)?X.min(axis=0))(X?X.min)?Xscaled=Xstd?(max?min)+minX_{scaled} = X_{std} * (max - min) + minXscaled?=Xstd??(max?min)+min
MaxAbsScaler,將數(shù)據(jù)壓縮到了[-1,1]區(qū)間內(nèi),對(duì)異常值敏感X=X∣X∣.maxX=\frac{X}{|X|.max}X=∣X∣.maxX?
RobustScaler和前面三個(gè)方法不同,對(duì)異常值不敏感$$$$
PowerTransformer$$$$
QuantileTransformer (Gaussian output)$$$$
QuantileTransformer (uniform output)
Normalizer
總結(jié)
以上是生活随笔為你收集整理的Sklearn-scaler对比的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: pr cpu100%_6款超酷炫又小众的
- 下一篇: sio.savemat得到空struct