统计学习的分类
文章目錄
- 基本分類(lèi)
- 監(jiān)督學(xué)習(xí)
- 無(wú)監(jiān)督學(xué)習(xí)
- 強(qiáng)化學(xué)習(xí)
- 半監(jiān)督學(xué)習(xí)
- 主動(dòng)學(xué)習(xí)
- 按模型分類(lèi)
- 按算法分類(lèi)
- 按技巧分類(lèi)
- 貝葉斯學(xué)習(xí)(Bayesian learning)
- 核方法(kernel method)
基本分類(lèi)
統(tǒng)計(jì)學(xué)習(xí)可以基本分類(lèi)分為監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、主動(dòng)學(xué)習(xí)等
監(jiān)督學(xué)習(xí)
-
定義
- 從標(biāo)注數(shù)據(jù)中學(xué)習(xí)預(yù)測(cè)模型的機(jī)器學(xué)習(xí)問(wèn)題
- 標(biāo)注數(shù)據(jù)表示輸入輸出的對(duì)應(yīng)關(guān)系,預(yù)測(cè)模型對(duì)給定輸入產(chǎn)生相應(yīng)的輸出
- 本質(zhì):學(xué)習(xí)輸入到輸出的映射的統(tǒng)計(jì)規(guī)律
-
相關(guān)概念
- 輸入空間(input space):輸入的所有可能的取值集合
- 輸出空間(output space):輸出的所有可能的取值集合
- 實(shí)例(instance):每個(gè)具體的輸入,可由特征向量(feature vector)表示
- 特征空間(feature space):所有的特征向量存在的空間,特征空間中的每一維對(duì)應(yīng)一個(gè)特征,特征空間是模型實(shí)際定義位置
- 假設(shè)空間:由輸入空間到輸出空間的映射的集合。
-
任務(wù)分類(lèi)
- 回歸問(wèn)題:輸入變量和輸出變量均為連續(xù)變量的預(yù)測(cè)問(wèn)題
- 分類(lèi)問(wèn)題:輸出變量為有限個(gè)離散變量的預(yù)測(cè)問(wèn)題
- 標(biāo)注問(wèn)題:輸入變量和輸出變量均為變量序列的預(yù)測(cè)問(wèn)題
-
聯(lián)合概率分布
- 監(jiān)督學(xué)習(xí)假設(shè)輸入與輸出的隨機(jī)變量X和Y遵循聯(lián)合概率分布P(X,Y)。
- P(X,Y)表示分布函數(shù)或分布密度函數(shù),P(x,y)=P(X=x and Y=y)
- 統(tǒng)計(jì)學(xué)習(xí)假設(shè)數(shù)據(jù)存在一定的統(tǒng)計(jì)規(guī)律,X和Y具有聯(lián)合概率分布就是監(jiān)督學(xué)習(xí)關(guān)于數(shù)據(jù)的基本假設(shè)。
- 對(duì)于學(xué)習(xí)系統(tǒng)來(lái)說(shuō),聯(lián)合概率分布是未知的
- 訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)被看作是依聯(lián)合分布概率分布P(X,Y)獨(dú)立同分布產(chǎn)生的。
-
假設(shè)空間
- 監(jiān)督學(xué)習(xí)目的是學(xué)習(xí)一個(gè)由輸入到輸出的映射,稱(chēng)為模型
- 模式的集合就是假設(shè)空間(hypothesis space)
- 概率模型:條件概率分布P(Y|X), 決策函數(shù):Y=f(X)
-
問(wèn)題形式化
-
實(shí)現(xiàn)過(guò)程
- 學(xué)習(xí)過(guò)程:學(xué)習(xí)系統(tǒng)利用給定的數(shù)據(jù)集($T = { ({x_1},{y_1}),({x_2},{y_2}),…,({x_n},{y_n})} ??),通過(guò)學(xué)習(xí)(或訓(xùn)練)得到一個(gè)最優(yōu)模型,表示為條件概率分布??),通過(guò)學(xué)習(xí)(或訓(xùn)練)得到一個(gè)最優(yōu)模型,表示為條件概率分布??),通過(guò)學(xué)習(xí)(或訓(xùn)練)得到一個(gè)最優(yōu)模型,表示為條件概率分布{\rm{\hat P}}(Y|X)??或決策函數(shù)?? 或決策函數(shù)??或決策函數(shù)Y = \hat f(X)$?? ,描述輸入或輸出隨機(jī)變量之間的映射關(guān)系。
- 預(yù)測(cè)過(guò)程:預(yù)測(cè)系統(tǒng)對(duì)于給定的測(cè)試樣本中的輸入xN+1{x_{N + 1}}xN+1? ,由模型yN+1=arg?max?yP^(y∣xN+1){y_{N + 1}} = \arg \mathop {\max }\limits_y \hat P(y|{x_{N + 1}})yN+1?=argymax?P^(y∣xN+1?) 或yn+1=f^(xn+1){y_{n + 1}} = \hat f({x_{n + 1}})yn+1?=f^?(xn+1?) 給出相應(yīng)的輸出yn+1{y_{n + 1}}yn+1?
無(wú)監(jiān)督學(xué)習(xí)
-
定義
- 從無(wú)標(biāo)注數(shù)據(jù)中學(xué)習(xí)預(yù)測(cè)模型的機(jī)器學(xué)習(xí)問(wèn)題
- 無(wú)標(biāo)注數(shù)據(jù)表示自然得到的數(shù)據(jù)。預(yù)測(cè)模型表示數(shù)據(jù)的類(lèi)別、轉(zhuǎn)換或概率
- 本質(zhì):學(xué)習(xí)數(shù)據(jù)中的統(tǒng)計(jì)規(guī)律或潛在結(jié)構(gòu)
-
問(wèn)題形式化
?
-
實(shí)現(xiàn)過(guò)程
- 學(xué)習(xí)過(guò)程:學(xué)習(xí)系統(tǒng)從訓(xùn)練數(shù)據(jù)集($U = { {x_1},{x_2},…,{x_n})} ?)學(xué)習(xí),得到一個(gè)最優(yōu)模型,表示為函數(shù)?)學(xué)習(xí),得到一個(gè)最優(yōu)模型,表示為函數(shù)?)學(xué)習(xí),得到一個(gè)最優(yōu)模型,表示為函數(shù)Z = \hat g(X)?,得到一個(gè)最優(yōu)模型,表示為條件概率分布?,得到一個(gè)最優(yōu)模型,表示為條件概率分布?,得到一個(gè)最優(yōu)模型,表示為條件概率分布{\rm{\hat P}}(z|x)?或條件概率分布? 或條件概率分布?或條件概率分布{\rm{\hat P}}(x|z)$? 。
- 預(yù)測(cè)過(guò)程:預(yù)測(cè)系統(tǒng)對(duì)于給定的測(cè)試樣本中的輸入xN+1{x_{N + 1}}xN+1??? ,由模型zN+1=arg?max?yP^(y∣xN+1){z_{N + 1}} = \arg \mathop {\max }\limits_y \hat P(y|{x_{N + 1}})zN+1?=argymax?P^(y∣xN+1?)?? 或zn+1=f^(xn+1){z_{n + 1}} = \hat f({x_{n + 1}})zn+1?=f^?(xn+1?)?? 給出相應(yīng)的輸出zn+1{z_{n + 1}}zn+1??? ,進(jìn)行聚類(lèi)或降維,或者由模型P^(x∣z){\rm{\hat P}}(x|z)P^(x∣z)?? 給出輸入的概率P^(xn+1∣zn+1){\rm{\hat P}}(x_{n+1}|z_{n+1})P^(xn+1?∣zn+1?)??,進(jìn)行概率估計(jì)。
強(qiáng)化學(xué)習(xí)
-
定義
- 指智能系統(tǒng)在與環(huán)境的連續(xù)互動(dòng)中學(xué)習(xí)最優(yōu)行為策略的機(jī)器學(xué)習(xí)問(wèn)題。
- 本質(zhì):學(xué)習(xí)最優(yōu)的序貫決策
- 假設(shè)智能系統(tǒng)與環(huán)境的互動(dòng)基于馬爾代夫決策過(guò)程,智能系統(tǒng)觀測(cè)到的時(shí)環(huán)境互動(dòng)得到的數(shù)據(jù)序列。
-
強(qiáng)化學(xué)習(xí)的馬爾可夫決策過(guò)程是狀態(tài)、獎(jiǎng)勵(lì)、動(dòng)作序列上的隨機(jī)過(guò)程,由五元組<S,A,P,r,γ>組成。
-
S是有限狀態(tài)(state)的集合
-
A是有限動(dòng)作(action)的集合
-
Р是狀態(tài)轉(zhuǎn)移概率(transition probability)函數(shù):
P(s′∣s,a)=P(st+1=s′∣st=s,at=a){\rm{P}}(s'|s,a) = P({s_{t + 1}} = s'|{s_t} = s,{a_t} = a) P(s′∣s,a)=P(st+1?=s′∣st?=s,at?=a) -
r是獎(jiǎng)勵(lì)函數(shù)(reward function) : r(s,a)=E(rt+1∣st=s,at=a)r(s,a) = E({r_{t + 1}}|{s_t} = s,{a_t} = a)r(s,a)=E(rt+1?∣st?=s,at?=a)?
-
γ是衰減系數(shù)(discount factor ) : γ ∈ [0,1]
-
-
馬爾可夫決策過(guò)程具有馬爾可夫性,下一個(gè)狀態(tài)只依賴于前一個(gè)狀態(tài)與動(dòng)作,下一個(gè)獎(jiǎng)勵(lì)依賴于前一個(gè)狀態(tài)與動(dòng)作
- 狀態(tài)轉(zhuǎn)移概率函數(shù):P(s′∣s,a)P(s'|s,a)P(s′∣s,a)
- 獎(jiǎng)勵(lì)函數(shù):r(s,a)r(s,a)r(s,a)
- 策略π:給定狀態(tài)下動(dòng)作的函數(shù)a=f(s)a=f(s)a=f(s) 或者條件概率分布P(a∣s)P(a|s)P(a∣s),給定一個(gè)策略π,智能系統(tǒng)與環(huán)境互動(dòng)的行為就已經(jīng)確定。
- 狀態(tài)價(jià)值函數(shù):vπ(s)=Eπ[rt+1+γrt+2+γ2rt+3+?∣st=s]v_{\pi}(s)=E_{\pi}\left[r_{t+1}+\gamma r_{t+2}+\gamma^{2} r_{t+3}+\cdots \mid s_{t}=s\right]vπ?(s)=Eπ?[rt+1?+γrt+2?+γ2rt+3?+?∣st?=s]
- 動(dòng)作價(jià)值函數(shù):qπ(s,a)=Eπ[rt+1+γrt+2+γ2rt+3+?∣st=s,at=a]q_{\pi}(s, a)=E_{\pi}\left[r_{t+1}+\gamma r_{t+2}+\gamma^{2} r_{t+3}+\cdots \mid s_{t}=s, a_{t}=a\right]qπ?(s,a)=Eπ?[rt+1?+γrt+2?+γ2rt+3?+?∣st?=s,at?=a]
-
強(qiáng)化學(xué)習(xí)方法
- 無(wú)模型(model-free)
- 基于策略(policy-based):求解最優(yōu)策略π*
- 基于價(jià)值(value-based):求解最優(yōu)價(jià)值函數(shù)
- 有模型(model-based)
1. 通過(guò)學(xué)習(xí)馬爾可夫決策過(guò)程的模型,包括轉(zhuǎn)移概率函數(shù)和獎(jiǎng)勵(lì)函數(shù)
2. 通過(guò)模型對(duì)環(huán)境的反饋進(jìn)行預(yù)測(cè)
3. 求解價(jià)值函數(shù)最大的策略π*
- 無(wú)模型(model-free)
半監(jiān)督學(xué)習(xí)
- 少量標(biāo)注數(shù)據(jù),大量未標(biāo)注數(shù)據(jù)
- 利用未標(biāo)注數(shù)據(jù)的信息,輔助標(biāo)注數(shù)據(jù),進(jìn)行監(jiān)督學(xué)習(xí)
- 較低成本
主動(dòng)學(xué)習(xí)
- 機(jī)器主動(dòng)給出實(shí)例,教師進(jìn)行標(biāo)注
- 利用標(biāo)注數(shù)據(jù)學(xué)習(xí)預(yù)測(cè)模型
按模型分類(lèi)
統(tǒng)計(jì)學(xué)習(xí)模型可以基于模型分為概率模型和非概率模型;
統(tǒng)計(jì)學(xué)習(xí)模型,特別是非概率模型可以分為線性模型和非線性模型;
統(tǒng)計(jì)學(xué)習(xí)模型,又可分為參數(shù)化模型和非參數(shù)化模型。
- 概率模型和非概率模型
- 概率模型(probabilistic model)
- 在監(jiān)督學(xué)習(xí)中概率模型取條件分布形式P(y∣x)P(y|x)P(y∣x)
- 在非監(jiān)督學(xué)習(xí)中概率模型取條件分布形式P(z∣x)P(z|x)P(z∣x)或P(x∣z)P(x|z)P(x∣z)
- 非概率模型(non-probabilistic model)或確定性模型(deterministic model)
- 在監(jiān)督學(xué)習(xí)中概率模型取條件分布形式y=f(x)y=f(x)y=f(x)
- 在非監(jiān)督學(xué)習(xí)中概率模型取條件分布形式x=g(x)x=g(x)x=g(x)?
- 概率模型(probabilistic model)
- 線性模型和非線性模型
- 參數(shù)化模型和非參數(shù)化模型
按算法分類(lèi)
統(tǒng)計(jì)學(xué)習(xí)模型根據(jù)算法分為在線學(xué)習(xí)和批量學(xué)習(xí)。
-
在線學(xué)習(xí)(online learning):每次接受一個(gè)樣本,進(jìn)行預(yù)測(cè),之后學(xué)習(xí)模型,并不斷重復(fù)該操作的機(jī)器學(xué)習(xí)。
-
批量學(xué)習(xí)(batch learning):一次接受所有的樣本,學(xué)習(xí)模型,之后進(jìn)行預(yù)測(cè)。
按技巧分類(lèi)
統(tǒng)計(jì)學(xué)習(xí)方法可以根據(jù)使用的技巧分為貝葉斯學(xué)習(xí)和核方法。
貝葉斯學(xué)習(xí)(Bayesian learning)
-
模型估計(jì)時(shí),估計(jì)整個(gè)后驗(yàn)概率分布P(θ∣D)P(θ|D)P(θ∣D)???。如果需要給出一個(gè)模型,通常取后驗(yàn)概率最大的模型。
-
P(θ∣D)=P(θ)P(D∣θ)P(D)(P(θ)是先驗(yàn)概率,P(θ∣D)是似然函數(shù)){\rm{P(}}\theta |D) = \frac{{P(\theta )P(D|\theta )}}{{P(D)}} (P(θ)是先驗(yàn)概率,P(θ|D)是似然函數(shù)) P(θ∣D)=P(D)P(θ)P(D∣θ)?(P(θ)是先驗(yàn)概率,P(θ∣D)是似然函數(shù))
-
預(yù)測(cè)時(shí),計(jì)算數(shù)據(jù)對(duì)后驗(yàn)概率分布的期望值:
P(x∣D)=∫P(x∣θ,D)P(θ∣D)dθ(x是新樣本){\rm{P(x}}|D) = \int {P(x|\theta ,D)P} (\theta |D)d\theta(x是新樣本) P(x∣D)=∫P(x∣θ,D)P(θ∣D)dθ(x是新樣本) -
假設(shè)先驗(yàn)分布是均勻分布,取后驗(yàn)概率最大,就能從貝葉斯估計(jì)得到極大似然估計(jì)。
- 與試驗(yàn)結(jié)果無(wú)關(guān),或與隨機(jī)抽樣無(wú)關(guān),反映在進(jìn)行統(tǒng)計(jì)試驗(yàn)之前根據(jù)其他有關(guān)參數(shù)θ的知識(shí)而得到的分布。θ的分布函數(shù)記為H(θ),θ的密度函數(shù)記為h(θ),分別稱(chēng)為先驗(yàn)分布函數(shù)和先驗(yàn)密度函數(shù),兩者合稱(chēng)為先驗(yàn)分布。
- 極大似然估計(jì)是建立在這樣的思想上:已知某個(gè)參數(shù)能使這個(gè)樣本出現(xiàn)的概率最大,我們當(dāng)然不會(huì)再去選擇其他小概率的樣本,所以干脆就把這個(gè)參數(shù)作為估計(jì)的真實(shí)值。
核方法(kernel method)
- 使用核函數(shù)表示和學(xué)習(xí)非線性模型,將線性模型學(xué)習(xí)方法擴(kuò)展到非線性模型的學(xué)習(xí)
- 不顯式地定義輸入空間到特征空間的映射,而是直接定義核函數(shù),即映射之后在特征空間的內(nèi)積
- 假設(shè)x1,x2x1,x2x1,x2是輸入空間的任意兩個(gè)實(shí)例,內(nèi)積為<x1,x2><x1, x2><x1,x2>,輸入空間到特征空間的映射為φ,核方法在輸入空間中定義核函數(shù) K(x1,x2)K(x1, x2)K(x1,x2),使其滿足 K(x1,x2)=<φ(x1),φ(x2)>K(x1, x2) = < φ(x1), φ(x2)>K(x1,x2)=<φ(x1),φ(x2)>
不顯式地定義輸入空間到特征空間的映射,而是直接定義核函數(shù),即映射之后在特征空間的內(nèi)積
- 假設(shè)x1,x2x1,x2x1,x2是輸入空間的任意兩個(gè)實(shí)例,內(nèi)積為<x1,x2><x1, x2><x1,x2>,輸入空間到特征空間的映射為φ,核方法在輸入空間中定義核函數(shù) K(x1,x2)K(x1, x2)K(x1,x2),使其滿足 K(x1,x2)=<φ(x1),φ(x2)>K(x1, x2) = < φ(x1), φ(x2)>K(x1,x2)=<φ(x1),φ(x2)>
總結(jié)
- 上一篇: 6 HBase java API访问HB
- 下一篇: 统计学习综述