论文解读 Greedy Function Approximation:A Gradient Boosting Machine
論文鏈接:
https://xueshu.baidu.com/usercenter/paper/show?paperid=ab7165108163edc94b30781e51819e0c
Abstract
Function approximation是從function space方面進行numerical optimization,其將stagewise additive expansions和steepest-descent minimization結合起來。而由此而來的Gradient Boosting Decision Tree(GBDT)可以適用于regression和classification,都具有完整的,魯棒性高,解釋性好的優點。
1. Function estimation
在機器學習的任務中,我們一般面對的問題是構造loss function,并求解其最小值。可以寫成如下形式:
通常的loss function有:
1. regression:均方誤差(y-F)^2,絕對誤差|y-F|
2. classification:negative binomial log-likelihood log(1+e^(-2yF))
一般情況下,我們會把F(x)看做是一系列帶參數的函數集合 F(x;P),于是進一步將其表示為“additive”的形
總結
以上是生活随笔為你收集整理的论文解读 Greedy Function Approximation:A Gradient Boosting Machine的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 系统集成项目管理工程师试题的分类讲解资料
- 下一篇: 地理信息系统概论(陈述彭版)