有关GBDT(Gradient Boosting Decison Tree,梯度提升树)
生活随笔
收集整理的這篇文章主要介紹了
有关GBDT(Gradient Boosting Decison Tree,梯度提升树)
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
集成學習有兩大家族,Bagging家族與Boosting家族;相同家族的算法,思想有類似之處,例如Bagging家族主要并行思想,典型代表:隨機森林;Boosting家族主要是串行思想,主要代表有AdaBoost,GBDT.
AdaBoost與GBDT雖都是Boosting家族,但是還是有一定的區別。先說常說的AdaBoost,它的思想是通過前一輪的弱學習器的誤差率改變訓練數據集的權重;GBDT是用前一輪的弱學習器的殘差再去訓練學習器。
此處主要講解GBDT,注意GBDT中的弱學習器特指決策樹,并且特指CART決策樹。所以得先了解CART,主要看這里與輔看這里。對于GBDT原理部分主要看這里與這里。關于它的應用與調參數,看這里。
關于GBDT,它既可以回歸,也可以分類。除了上面的知識,還得了解一些
?
轉載于:https://www.cnblogs.com/maxiaonong/p/10156130.html
總結
以上是生活随笔為你收集整理的有关GBDT(Gradient Boosting Decison Tree,梯度提升树)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 唐伯虎画值多少钱
- 下一篇: 瑶柱怎么这么贵,一斤150元左右,什么情