国科大高级人工智能2-人工神经网络(MLP、Hopfield)
生活随笔
收集整理的這篇文章主要介紹了
国科大高级人工智能2-人工神经网络(MLP、Hopfield)
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
常見組合函數(shù)
常見激活函數(shù)
結(jié)構(gòu)
- 前饋神經(jīng)網(wǎng)絡(luò)(單向)
- 反饋/循環(huán)神經(jīng)網(wǎng)絡(luò)
學(xué)習(xí)方法
-
學(xué)習(xí)模型
- 增量
- 迭代
-
類型
- 監(jiān)督
- 無監(jiān)督
-
學(xué)習(xí)策略
- Hebbrian Learning
- 若兩端的神經(jīng)元同時(shí)激活,增強(qiáng)聯(lián)接權(quán)重
- Unsupervised Learning
- 循環(huán)?
- ωij(t+1)=ωij(t)+η(xi(t),xj(t))\omega_{ij}(t+1)=\omega_{ij}(t)+\eta(x_i(t),x_j(t))ωij?(t+1)=ωij?(t)+η(xi?(t),xj?(t))
- Error Correction
- 最小化實(shí)際和輸出的誤差
- BP
- 目標(biāo)函數(shù):ω?=argminω1KΣk=1Ke(Dk,Yk)\omega^* =argmin_{\omega} \frac{1}{K} \Sigma_{k=1}^Ke(D_k,Y_k)ω?=argminω?K1?Σk=1K?e(Dk?,Yk?)
- 迭代:ω←ω+Δω=ω+ηδ\omega \leftarrow \omega+\Delta \omega= \omega+\eta \deltaω←ω+Δω=ω+ηδ
- delta rule(LMS rule,windrow-hoff
- BP
- 最小化實(shí)際和輸出的誤差
- 隨機(jī)學(xué)習(xí)(模擬退火?)
- 采用隨機(jī)模式,跳出局部極小
- 如果網(wǎng)絡(luò)性能提高,新參數(shù)被接受.
- 否則,新參數(shù)依概率接受
- 采用隨機(jī)模式,跳出局部極小
- Hebbrian Learning
重要的ANN
| 多層感知機(jī)(MLP,全連接) | L(y,f(x)) | R(f)=∫L(y,f(x))p(x,y)dx,Remf=ΣL(y,f(x))R(f) =\int L(y,f(x))p(x,y)dx,R_{emf}=\Sigma L(y,f(x))R(f)=∫L(y,f(x))p(x,y)dx,Remf?=ΣL(y,f(x)) | v=σiωixi,y=f(v)v=\sigma_i\omega_ix_i,y=f(v)v=σi?ωi?xi?,y=f(v) | 梯度法 | - |
| 多層感知機(jī)(MLP,全連接–>BP網(wǎng)絡(luò)) | 平方誤差 | - | v=σiωixi,y=f(v),f是sigmoid,ω=argmin(E)v=\sigma_i\omega_ix_i,y=f(v),f是sigmoid,\omega=argmin(E)v=σi?ωi?xi?,y=f(v),f是sigmoid,ω=argmin(E) | 輸入從前向后,損失從后向前(鏈?zhǔn)椒▌t),梯度下降法 | 允許非線性,收斂慢,過擬合,局部極小,表達(dá)能力強(qiáng),容易執(zhí)行 |
| 單層感知機(jī) | 看分類對(duì)錯(cuò) | - | ωx=0,一面1,一面?1,權(quán)向量是一個(gè)超平面\omega x=0,一面1,一面-1,權(quán)向量是一個(gè)超平面ωx=0,一面1,一面?1,權(quán)向量是一個(gè)超平面 | ω=ω+y??x,y?=1或?1(C,真實(shí)y,正確:y?=y)\omega=\omega+y^* ·x,y^* =1或-1(C,真實(shí)y,正確:y^* =y )ω=ω+y??x,y?=1或?1(C,真實(shí)y,正確:y?=y) | 僅當(dāng)線性可分時(shí)收斂,對(duì)噪聲(不可分)/泛化性不好 |
| 單層感知機(jī)(最小二乘法) | 平方損失12Σi=1nΣk=1m(yk(xi)?tk,i)2\frac{1}{2}\Sigma_{i=1}^n\Sigma_{k=1}^m(y_k(x_i)-t_{k,i})^221?Σi=1n?Σk=1m?(yk?(xi?)?tk,i?)2 | - | y=v(線性的)y=v(線性的)y=v(線性的) | wT=(XTX)?1XTTw^T=(X^TX)^{-1}X^TTwT=(XTX)?1XTT | 僅當(dāng)線性可分時(shí)收斂,對(duì)噪聲(不可分)/泛化性不好 |
| 單層感知機(jī)(改進(jìn)) | 平方損失E=12Σi=1nΣk=1m(yk(xi)?tk,i)2\frac{1}{2}\Sigma_{i=1}^n\Sigma_{k=1}^m(y_k(x_i)-t_{k,i})^221?Σi=1n?Σk=1m?(yk?(xi?)?tk,i?)2 | - | y=11+e?v(sigmoidy=\frac{1}{1+e^{-v}}(sigmoidy=1+e?v1?(sigmoid | $\frac{ | |
| \partial E}{\partial w_k}=\Sigma_{i=1}n\Sigma_{k=1}m(y_k(x_i)-t_{k,i})y_k(x_i)(1-y_k(x_i))x_i$ | 僅當(dāng)線性可分時(shí)收斂,對(duì)噪聲(不可分),泛化性不好 | ||||
| 支持向量機(jī) | - | 最大化間隔,約束:minω12∥ω∥2,yiωTxi≥1,任意i,小于則為0(relu)min_\omega \frac{1}{2} \|\omega\|^2,y_i\omega^Tx_i \geq 1,任意i,小于則為0(relu)minω?21?∥ω∥2,yi?ωTxi?≥1,任意i,小于則為0(relu) | - | - | 可以找到最好的分界面,解決了泛化性 |
| Hopfield網(wǎng)絡(luò)(能量穩(wěn)定點(diǎn)-記憶) | - | 有輸入:E=?12Σi=0nΣj=0nωijsisj?Σi=0nIisi,沒有輸入則去除后面的E=-\frac{1}{2}\Sigma_{i=0}^n\Sigma_{j=0}^n\omega_{ij}s_is_j-\Sigma_{i=0}^nI_is_i,沒有輸入則去除后面的E=?21?Σi=0n?Σj=0n?ωij?si?sj??Σi=0n?Ii?si?,沒有輸入則去除后面的 | wij=ji(i!=j) | 權(quán)值是設(shè)定的wij=Σk=1Kxikxjk,i≠j,否則0(n?n矩陣)(s=x)權(quán)值是設(shè)定的w_{ij}=\Sigma_{k=1}^Kx_{ik}x_{jk},i\neq j,否則0(n* n矩陣)(s=x)權(quán)值是設(shè)定的wij?=Σk=1K?xik?xjk?,i?=j,否則0(n?n矩陣)(s=x) | f分布式記憶,動(dòng)態(tài)聯(lián)想,記憶容量有限,偽穩(wěn)定點(diǎn)的聯(lián)想與記憶,樣本接近時(shí),難以回憶 |
感知機(jī)
-
感知機(jī)收斂定理:線性可分則收斂
- w、x是增廣得到的
- 若數(shù)據(jù)集可分,
- 存在w?(∣∣w?∣∣=1),γ>0,使得ytw?xt≥γw^* (||w^* ||=1),\gamma>0,使得y_tw^* x_t\geq \gammaw?(∣∣w?∣∣=1),γ>0,使得yt?w?xt?≥γ
- 令最終分離超平面參數(shù)為w?(∣∣w?∣∣=1)w^* (||w^* ||=1)w?(∣∣w?∣∣=1)
- wkw?=(wk?1+xtyt)w?≥wk?1w?+γ≥...≥kγw_kw^* =(w_{k-1}+x_ty_t)w^* \geq w_{k-1}w^* + \gamma \geq ...\geq k\gammawk?w?=(wk?1?+xt?yt?)w?≥wk?1?w?+γ≥...≥kγ
- ∣∣wk∣∣2=∣∣wk+1+xtyt∣∣2=∣∣wk?1∣∣2+2wk?1Txtyt+∣∣xt∣∣2||w_k||^2=||w_{k+1}+x_ty_t||^2=||w_{k-1}||^2+2w_{k-1}^Tx_ty_t+||x_t||^2∣∣wk?∣∣2=∣∣wk+1?+xt?yt?∣∣2=∣∣wk?1?∣∣2+2wk?1T?xt?yt?+∣∣xt?∣∣2——yt=1
- ≤∣∣wk?1∣∣2+∣∣xt∣∣2≤∣∣wk?1∣∣2+R2≤...≤kR2\leq ||w_{k-1}||^2+||x_t||^2\leq ||w_{k-1}||^2+R^2 \leq ...\leq kR^2≤∣∣wk?1?∣∣2+∣∣xt?∣∣2≤∣∣wk?1?∣∣2+R2≤...≤kR2
- 所以kγ≤wkw?≤∣∣wk∣∣∣∣w?∣∣≤kRk\gamma \leq w_kw^* \leq ||w_k||||w^* || \leq \sqrt{k} Rkγ≤wk?w?≤∣∣wk?∣∣∣∣w?∣∣≤k?R
- k≤R2γ2k\leq \frac{R^2}{\gamma^2}k≤γ2R2?
-
改進(jìn)
- sigmoid激活函數(shù)
- 批處理
- 一次性更新權(quán)重
- 收斂慢
- 增量模式
- 逐樣本更新
- 隨機(jī)近似,但速度快能保證收斂
- 批處理
- sigmoid激活函數(shù)
-
MLP(多層感知機(jī)
- 在實(shí)際應(yīng)用中
- 預(yù)處理很重要—normalize
- 調(diào)整學(xué)習(xí)率——ηt=1/t\eta_t=1/tηt?=1/t
- 表達(dá)能力強(qiáng)
- 容易執(zhí)行
- 收斂速度慢
- newton法
- 過擬合(
- 正則化,約束權(quán)值平滑性
- 采用更少的隱層單元
- 局部極小(不同的初始化,增加擾動(dòng)
- 三層-所有連續(xù)函數(shù)
- 4層:多層連續(xù)
- 權(quán)重如何學(xué)習(xí)?BP–鏈?zhǔn)椒▌t計(jì)算反向傳遞
- 在實(shí)際應(yīng)用中
Hopfield
- 應(yīng)用
- 將優(yōu)化目標(biāo)函數(shù)轉(zhuǎn)換成能量函數(shù)(energy function)——網(wǎng)絡(luò)的穩(wěn)定狀態(tài)是優(yōu)化問題的解
- 兩個(gè)穩(wěn)態(tài):——>解
- E最大——>w1
- E最小——>w2
- 兩個(gè)工作方式
- 異步:每次只改變一個(gè)狀態(tài)x_i
- 同步:所有狀態(tài)均改變:x1~xn
- 反饋網(wǎng)絡(luò)(無向有權(quán)圖)
- 權(quán)值是設(shè)定的,而不是學(xué)習(xí)出來的
- TSP:
- Hopfield網(wǎng)絡(luò):l鄰接矩陣
- 行:城市;列:時(shí)間,每行只有一個(gè)亮,每列也只有一個(gè)on
總結(jié)
以上是生活随笔為你收集整理的国科大高级人工智能2-人工神经网络(MLP、Hopfield)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: “知识图谱+”系列:知识图谱+强化学习
- 下一篇: Java基础语法之Map