论文阅读笔记:You Only Look Once: Unified, Real-Time Object Detection
轉(zhuǎn)載自:http://blog.csdn.net/tangwei2014/article/details/50915317
這是繼RCNN,fast-RCNN 和 faster-RCNN之后,rbg(Ross Girshick)大神掛名的又一大作,起了一個很娛樂化的名字:YOLO。
雖然目前版本還有一些硬傷,但是解決了目前基于DL檢測中一個大痛點(diǎn),就是速度問題。
其增強(qiáng)版本GPU中能跑45fps,簡化版本155fps。
論文下載:http://arxiv.org/abs/1506.02640
代碼下載:https://github.com/pjreddie/darknet
本篇博文focus到方法上。實驗結(jié)果等整理全了再奉上。
1. YOLO的核心思想
-
YOLO的核心思想就是利用整張圖作為網(wǎng)絡(luò)的輸入,直接在輸出層回歸bounding box的位置和bounding box所屬的類別。
-
沒記錯的話faster RCNN中也直接用整張圖作為輸入,但是faster-RCNN整體還是采用了RCNN那種 proposal+classifier的思想,只不過是將提取proposal的步驟放在CNN中實現(xiàn)了。
2.YOLO的實現(xiàn)方法
- 將一幅圖像分成SxS個網(wǎng)格(grid cell),如果某個object的中心 落在這個網(wǎng)格中,則這個網(wǎng)格就負(fù)責(zé)預(yù)測這個object。
-
每個網(wǎng)格要預(yù)測B個bounding box,每個bounding box除了要回歸自身的位置之外,還要附帶預(yù)測一個confidence值。
這個confidence代表了所預(yù)測的box中含有object的置信度和這個box預(yù)測的有多準(zhǔn)兩重信息,其值是這樣計算的:
其中如果有object落在一個grid cell里,第一項取1,否則取0。 第二項是預(yù)測的bounding box和實際的groundtruth之間的IoU值。 -
每個bounding box要預(yù)測(x, y, w, h)和confidence共5個值,每個網(wǎng)格還要預(yù)測一個類別信息,記為C類。則SxS個網(wǎng)格,每個網(wǎng)格要預(yù)測B個bounding box還要預(yù)測C個categories。輸出就是S x S x (5*B+C)的一個tensor。
注意:class信息是針對每個網(wǎng)格的,confidence信息是針對每個bounding box的。 -
舉例說明: 在PASCAL VOC中,圖像輸入為448x448,取S=7,B=2,一共有20個類別(C=20)。則輸出就是7x7x30的一個tensor。
整個網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示:
-
在test的時候,每個網(wǎng)格預(yù)測的class信息和bounding box預(yù)測的confidence信息相乘,就得到每個bounding box的class-specific confidence score:
等式左邊第一項就是每個網(wǎng)格預(yù)測的類別信息,第二三項就是每個bounding box預(yù)測的confidence。這個乘積即encode了預(yù)測的box屬于某一類的概率,也有該box準(zhǔn)確度的信息。 -
得到每個box的class-specific confidence score以后,設(shè)置閾值,濾掉得分低的boxes,對保留的boxes進(jìn)行NMS處理,就得到最終的檢測結(jié)果。
3.YOLO的實現(xiàn)細(xì)節(jié)
-
每個grid有30維,這30維中,8維是回歸box的坐標(biāo),2維是box的confidence,還有20維是類別。
其中坐標(biāo)的x,y用對應(yīng)網(wǎng)格的offset歸一化到0-1之間,w,h用圖像的width和height歸一化到0-1之間。 -
在實現(xiàn)中,最主要的就是怎么設(shè)計損失函數(shù),讓這個三個方面得到很好的平衡。作者簡單粗暴的全部采用了sum-squared error loss來做這件事。
這種做法存在以下幾個問題:
第一,8維的localization error和20維的classification error同等重要顯然是不合理的;
第二,如果一個網(wǎng)格中沒有object(一幅圖中這種網(wǎng)格很多),那么就會將這些網(wǎng)格中的box的confidence push到0,相比于較少的有object的網(wǎng)格,這種做法是overpowering的,這會導(dǎo)致網(wǎng)絡(luò)不穩(wěn)定甚至發(fā)散。
解決辦法:- 更重視8維的坐標(biāo)預(yù)測,給這些損失前面賦予更大的loss weight, 記為在pascal VOC訓(xùn)練中取5。
- 對沒有object的box的confidence loss,賦予小的loss weight,記為在pascal VOC訓(xùn)練中取0.5。
- 有object的box的confidence loss和類別的loss的loss weight正常取1。
-
對不同大小的box預(yù)測中,相比于大box預(yù)測偏一點(diǎn),小box預(yù)測偏一點(diǎn)肯定更不能被忍受的。而sum-square error loss中對同樣的偏移loss是一樣。
為了緩和這個問題,作者用了一個比較取巧的辦法,就是將box的width和height取平方根代替原本的height和width。這個參考下面的圖很容易理解,小box的橫軸值較小,發(fā)生偏移時,反應(yīng)到y(tǒng)軸上相比大box要大。
-
一個網(wǎng)格預(yù)測多個box,希望的是每個box predictor專門負(fù)責(zé)預(yù)測某個object。具體做法就是看當(dāng)前預(yù)測的box與ground truth box中哪個IoU大,就負(fù)責(zé)哪個。這種做法稱作box predictor的specialization。
- 最后整個的損失函數(shù)如下所示:
這個損失函數(shù)中:
- 只有當(dāng)某個網(wǎng)格中有object的時候才對classification error進(jìn)行懲罰。
- 只有當(dāng)某個box predictor對某個ground truth box負(fù)責(zé)的時候,才會對box的coordinate error進(jìn)行懲罰,而對哪個ground truth box負(fù)責(zé)就看其預(yù)測值和ground truth box的IoU是不是在那個cell的所有box中最大。
- 其他細(xì)節(jié),例如使用激活函數(shù)使用leak RELU,模型用ImageNet預(yù)訓(xùn)練等等,在這里就不一一贅述了。
4.YOLO的缺點(diǎn)
-
YOLO對相互靠的很近的物體,還有很小的群體 檢測效果不好,這是因為一個網(wǎng)格中只預(yù)測了兩個框,并且只屬于一類。
-
對測試圖像中,同一類物體出現(xiàn)的新的不常見的長寬比和其他情況是。泛化能力偏弱。
-
由于損失函數(shù)的問題,定位誤差是影響檢測效果的主要原因。尤其是大小物體的處理上,還有待加強(qiáng)。
總結(jié)
以上是生活随笔為你收集整理的论文阅读笔记:You Only Look Once: Unified, Real-Time Object Detection的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 神经网络weight参数怎么初始化
- 下一篇: caffe卷积层代码阅读笔记