图像分类_03分类器及损失:线性分类+ SVM损失+Softmax 分类+交叉熵损失
生活随笔
收集整理的這篇文章主要介紹了
图像分类_03分类器及损失:线性分类+ SVM损失+Softmax 分类+交叉熵损失
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
2.3.1 線性分類
2.3.1.1 線性分類解釋
上圖圖中的權重計算結果結果并不好,權重會給我們的貓圖像分配?個?常低的貓分數。得出的結果偏向于狗。
如果可視化分類,我們為了?便,將?個圖?理解成?個?維的點,在下?坐標中顯示如下:
- 解釋:w的每??都是其中?個類的分類器。這些數字的?何解釋是,當我們改變w的?行時,像素空間中相應的線將以不同的?向旋轉。?其中的偏置是為了讓我們避免所有的分類器都過原點。
- 總結:分類器的權重矩陣其實是對應分類的經過訓練得到的?個分類模板,通過測試數據與分類模板間的數據計算來進?分類。在訓練的過程中,其實可以看作是權重矩陣的學習過程,也可以看成是分類模板的學習過程,如何從訓練樣本中學習分類的模板。模板權重的??,反映了樣本中每個像素點對分類的貢獻率。
學習到的權重
2.3.2 損失函數
損失函數是?來告訴我們當前分類器性能好壞的評價函數,是?于指導分類器權重調整的指導性函數,通過該函數可以知道該如何改進權重系數。CV與深度學習課程之前,?家應該都接觸過?些損失函數了,例如解決?分類問題的邏輯回歸中?到的對數似然損失、SVM中的合?損失等等。
對數似然損失
合?損失
現在回到前?的線性分類例?,該函數預測在“貓”、“狗”和“船”類中的分數,我們發現,在這個例?中,我們輸?描繪貓的像素,但是貓的分數與其他類別(狗的分數437.9和船的分數61.95)相??常低(-96.8)。那么這個結果并不好,我們將會去衡量這樣的?個成本,如果分類做好了,這個損失將會減少。
多分類問題的損失該如何去衡量?下?會進?通常會使?的兩種?式作對?,這?介紹在圖像識別中最常?的兩個損失——多類別SVM損失(合?損失hinge loss)和交叉熵損失,分別對應多類別SVM分類器和Softmax分類器
2.3.2.1 多分類SVM損失
我們正針對于前?簡化例?,來復習理解下SVM損失,下圖使我們得到的線性模型預測分數結果
2.2.2.2 Softmax 分類(Multinomial Logistic Regression)與cross-entropy(交叉熵損失)
1、Softmax
?2、cross-entropy
?2.3.3 SVM與Softmax對比
下面這張圖就清楚的展示了兩個分類以及其損失計算方式的區別
總結
以上是生活随笔為你收集整理的图像分类_03分类器及损失:线性分类+ SVM损失+Softmax 分类+交叉熵损失的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 电脑pro,拒绝等待!七彩虹全新设计师电
- 下一篇: ubuntu php 解析,ubuntu