【机器学习】--回归问题的数值优化
生活随笔
收集整理的這篇文章主要介紹了
【机器学习】--回归问题的数值优化
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
一、前述
回歸問題求解時梯度下降由于樣本數據的多樣性,往往對模型有很大的影響,所以需要對樣本數據做一些優化
二、歸一化
1、背景
各個維度的輸入如果在數值上差異很大,那么會引起正確的w在各個維度上數值差異很大。這樣找尋w的時候,對各個維度的調整基本上是按照同一個數量級來進行調整的。因此需要歸一化。
2、歸一化方法
? 歸一化的一種方法:最大值最小值法
? 缺點是抗干擾能力弱
? 受離群值得影響比較大
? 中間容易沒有數據
歸一化的一種方法:方差歸一化
? 優點是抗干擾能力強,和所有數據都有關
. 使數量級在一個量級
? 缺點是最終未必會落到0到1之間
? 犧牲歸一化結果為代價提高穩定
歸一化的一種方法:均值歸一化
3、案例分析一
優化方法:方差歸一化
結果:
4、案例分析二
解決辦法:盡可能讓X的各個維度上取值有正有負。
均值歸一化,每個數量減去平均值。
?
轉載于:https://www.cnblogs.com/LHWorldBlog/p/8683332.html
總結
以上是生活随笔為你收集整理的【机器学习】--回归问题的数值优化的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: PHP 学习总结之变量
- 下一篇: Quick BI助力云上大数据分析---