交叉熵(cross entropy)概念整理
網上寫得實在是太亂,整理下:
交叉熵函數:
H(p,q)=Ep[?logq]=?∑x∈χp(x)logq(x)①H(p,q)=E_p[-log\ q]=-\sum_{x\in \chi}p(x)log\ q(x)①H(p,q)=Ep?[?log?q]=?x∈χ∑?p(x)log?q(x)①
xxx是某個類別
χ\chiχ是所有的類別的集合
H(p,q)=H(p)+DKL(p∣∣q)H(p,q)=H(p)+D_{KL}(p||q)H(p,q)=H(p)+DKL?(p∣∣q)
DKL(p∣∣q)D_{KL}(p||q)DKL?(p∣∣q)是KL散度,注意,在概念上:
DKL(p∣∣q)D_{KL}(p||q)DKL?(p∣∣q) ≠ DKL(q∣∣p)D_{KL}(q||p)DKL?(q∣∣p)
其中
DKL(p∣∣q)=∑x∈χp(x)?logp(x)q(x)D_{KL}(p||q)=\sum_{x\in \chi}p(x)·log\frac{p(x)}{q(x)}DKL?(p∣∣q)=x∈χ∑?p(x)?logq(x)p(x)?
交叉熵損失函數:
L(w)=1N∑n=1NH(pn,qn)L(w)=\frac{1}{N}\sum_{n=1}^NH(p_n,q_n)L(w)=N1?n=1∑N?H(pn?,qn?)
=?1N∑n=1N[pnlogqn+(1?pn)log(1?qn)]②=-\frac{1}{N}\sum_{n=1}^N[p_nlog\ q_n+(1-p_n)log(1-q_n)]②=?N1?n=1∑N?[pn?log?qn?+(1?pn?)log(1?qn?)]②
這里我們稍微停一下,似乎發現①和②的形式不太一樣???
注意②是特指二分類的形式。
qn=11+e?w?xnq_n=\frac{1}{1+e^{-w·x_n}}qn?=1+e?w?xn?1?
www指的是該隱藏單元的輸入權重,
xnx_nxn?指的是與隱藏單元鏈接的輸入值
從定義可以看到,交叉熵損失函數的值總是小于1的。
其中,
pnp_npn?為真實分布,
qnq_nqn?為非真實分布.
這里的NNN指的是NNN條數據,而不是NNN分類,上述公式是針對二分類的。
參考鏈接:
https://www.cnblogs.com/ljy2013/p/6432269.html#commentform
總結
以上是生活随笔為你收集整理的交叉熵(cross entropy)概念整理的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: tensorflow神经网络结构可视化
- 下一篇: expected dense_10_in