【机器学习】集成学习各方法优缺点特征总结
生活随笔
收集整理的這篇文章主要介紹了
【机器学习】集成学习各方法优缺点特征总结
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
隨機森林
優點
缺點
Adaboost
優點
缺點
GBDT
優點
可以靈活處理各種類型的數據,包括連續值和離散值。
在相對少的調參時間情況下,預測的準備率也可以比較高。這個是相對SVM來說的。
使用一些健壯的損失函數,對異常值的魯棒性非常強。比如 Huber損失函數和Quantile損失函數。
不需要歸一化。樹模型都不需要,梯度下降算法才需要,
基分類器的葉子節點個數J選在[4,8]區間內較好,太小,需要太多的迭代次數。太大又容易過擬合。
缺點
?
處理高維稀疏特征的時候LR效果比GBDT好?
答案轉載自知乎https://www.zhihu.com/question/35821566
知乎里還有幾個答案解釋了如果利用gbdt,lr,fm等多模型的結合方法去訓練樣本。
?
GBDT如何構建新的特征(GBDT能夠產生高維稀疏特征,然后放到LR離去)
轉https://blog.csdn.net/luanpeng825485697/article/details/80150594
注意是路徑,對于每一個不同的葉子節點,都會有不同的特征路徑,比如說第一個是年齡大于20還是小于等于20,第二是性別巴拉巴拉
總結
以上是生活随笔為你收集整理的【机器学习】集成学习各方法优缺点特征总结的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【机器学习】XGBoost学习笔记
- 下一篇: 【机器学习】集成学习之stacking