keras从入门到放弃(三)逻辑回归 softmax
生活随笔
收集整理的這篇文章主要介紹了
keras从入门到放弃(三)逻辑回归 softmax
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
邏輯回歸
之前寫過邏輯回歸,是sklearn的方法,基本一樣
https://blog.csdn.net/weixin_44510615/article/details/88608831
補充一個概念:
交叉商損失函數
交叉商是實際輸出概率于期望輸出概率的距離,也就是交叉商的值越小,兩個概率分布就越接近。
假設概率分布p為期望輸出,概率分布q是實際輸出,H(p,q)為交叉商,則:
H(p,q)=?∑p(x)logq(x)
l2是均方差損失函數
在keras交叉熵中,我們使用binary_crossentropy來計算二元交叉熵
對數幾率回歸解決的是二分類問題,對于多分類問題我們可以使用softmax分類函數,它是對數幾率在N個可能不同的值上的推廣
softmax分類
神經網絡的原始輸出不是一個概率值沒實際上知識輸入的數值做了復雜的加權和與非線性處理智慧的一個值而已,那么如何將這個輸出變為概率分布呢
這就是 softm
總結
以上是生活随笔為你收集整理的keras从入门到放弃(三)逻辑回归 softmax的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: keras从入门到放弃(二)多项回归
- 下一篇: 华夏银行卡跨行取款收手续费吗