DL之RetinaNet:RetinaNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之RetinaNet:RetinaNet算法的簡(jiǎn)介(論文介紹)、架構(gòu)詳解、案例應(yīng)用等配圖集合之詳細(xì)攻略
?
?
?
目錄
RetinaNet算法的簡(jiǎn)介(論文介紹)
0、實(shí)驗(yàn)結(jié)果
1、RetinaNet算法的特點(diǎn)及其貢獻(xiàn)
RetinaNet算法的架構(gòu)詳解
RetinaNet算法的案例應(yīng)用
?
?
?
?
?
相關(guān)文章
DL之RetinaNet:RetinaNet算法的簡(jiǎn)介(論文介紹)、架構(gòu)詳解、案例應(yīng)用等配圖集合之詳細(xì)攻略
DL之RetinaNet:RetinaNet算法的架構(gòu)詳解
RetinaNet算法的簡(jiǎn)介(論文介紹)
? ? ? ? ?RetinaNet源自論文Focal Loss for Dense Object Detection用于密集目標(biāo)檢測(cè)的焦損失。
Abstract ?
? ? ? ?The highest accuracy object detectors to date are based ?on a two-stage approach popularized by R-CNN, where a ?classifier is applied to a sparse set of candidate object locations. ?In contrast, one-stage detectors that are applied ?over a regular, dense sampling of possible object locations ?have the potential to be faster and simpler, but have trailed ?the accuracy of two-stage detectors thus far. In this paper, ?we investigate why this is the case. We discover that the extreme ?foreground-background class imbalance encountered ?during training of dense detectors is the central cause. We ?propose to address this class imbalance by reshaping the ?standard cross entropy loss such that it down-weights the ?loss assigned to well-classified examples. Our novel Focal ?Loss focuses training on a sparse set of hard examples and ?prevents the vast number of easy negatives from overwhelming ?the detector during training. To evaluate the effectiveness ?of our loss, we design and train a simple dense detector ?we call RetinaNet. Our results show that when trained with ?the focal loss, RetinaNet is able to match the speed of previous ?one-stage detectors while surpassing the accuracy of ?all existing state-of-the-art two-stage detectors. Code is?at: https://github.com/facebookresearch/Detectron.
? ? ? ?迄今為止,精度最高的目標(biāo)檢測(cè)器是基于R-CNN推廣的兩階段方法,其中分類(lèi)器應(yīng)用于稀疏的一組候選對(duì)象位置。相比之下,對(duì)可能的目標(biāo)位置進(jìn)行常規(guī)、密集采樣的單級(jí)探測(cè)器有可能更快、更簡(jiǎn)單,但迄今仍落后于兩級(jí)探測(cè)器的精度。在本文中,我們將探討為什么會(huì)出現(xiàn)這種情況。我們發(fā)現(xiàn),在密集探測(cè)器訓(xùn)練過(guò)程中所遇到的極端的前-后級(jí)不平衡是其主要原因。我們建議通過(guò)重新構(gòu)造標(biāo)準(zhǔn)的交叉熵?fù)p失來(lái)解決這個(gè)類(lèi)的不平衡,這樣它就可以降低分配給分類(lèi)良好的示例的損失。我們的新焦失聚焦訓(xùn)練集中在一組稀疏的硬例子上,防止大量的容易的負(fù)片在訓(xùn)練中壓倒檢測(cè)器。為了評(píng)估我們的損失的有效性,我們?cè)O(shè)計(jì)并訓(xùn)練了一個(gè)簡(jiǎn)單的高密度探測(cè)器,我們稱(chēng)之為RetinaNet。我們的結(jié)果表明,當(dāng)使用聚焦損失訓(xùn)練時(shí),視黃連能夠在超過(guò)現(xiàn)有所有最先進(jìn)的兩級(jí)探測(cè)器精度的同時(shí),與以前的單級(jí)探測(cè)器速度相匹配。代碼如下:https://github.com/facebookresearch/Detectron。
Conclusion ?
? ? ? ?In this work, we identify class imbalance as the primary ?obstacle preventing one-stage object detectors from ?surpassing top-performing, two-stage methods. To address ?this, we propose the focal loss which applies a modulating ?term to the cross entropy loss in order to focus learning ?on hard negative examples. Our approach is simple and ?highly effective. We demonstrate its efficacy by designing ?a fully convolutional one-stage detector and report extensive ?experimental analysis showing that it achieves stateof-the-art ?accuracy and speed. Source code is available at https://github.com/facebookresearch/Detectron [12].
? ? ? ?在這項(xiàng)工作中,我們確定類(lèi)不平衡是阻止單級(jí)對(duì)象檢測(cè)器超越性能最好的兩級(jí)方法的主要障礙。為了解決這個(gè)問(wèn)題,我們提出了焦損失,它應(yīng)用一個(gè)調(diào)制項(xiàng)的交叉熵?fù)p失,以便集中學(xué)習(xí)硬的負(fù)面例子。我們的方法簡(jiǎn)單而高效。我們?cè)O(shè)計(jì)了一種全卷積單級(jí)檢測(cè)器來(lái)驗(yàn)證其有效性,并報(bào)告了大量的實(shí)驗(yàn)分析,結(jié)果表明它達(dá)到了最先進(jìn)的精度和速度。源代碼可從https://github.com/facebookresearch/Detectron[12]獲得。
論文
Tsung-Yi Lin, Priya Goyal, Ross Girshick, KaimingHe, Piotr Dollár.
Focal Loss for Dense Object Detection. ICCV 2017.
https://arxiv.org/abs/1708.02002
?
0、實(shí)驗(yàn)結(jié)果
1、RetinaNet-50 VS?RetinaNet-101
? ? ? ? 在COCO數(shù)據(jù)集上,作者提出的RetinaNet-101-800模型,可以達(dá)到37.8mAP可超過(guò)其他以前提出的單階段檢測(cè)方法,并且檢測(cè)速度是198ms。
2、在COCO test-dev上——分別與單階段、兩階段模型比較
? ? ?目標(biāo)檢測(cè)單模型結(jié)果(邊界框AP),與COCO test-dev的最新技術(shù)相比。RetinaNet可以達(dá)到40.8mAP,甚至可以超過(guò)兩階段方法。
注:該表展示了RetinaNet-101-800模型的結(jié)果,該模型經(jīng)過(guò)尺度抖動(dòng)訓(xùn)練。模型取得了最佳成績(jī),超越了其它單階段和兩階段模型。
?
1、RetinaNet算法的特點(diǎn)及其貢獻(xiàn)
- 找到妨礙單階段目標(biāo)檢測(cè)器實(shí)現(xiàn)高準(zhǔn)確度的主要原因:
-訓(xùn)練期間的前景-背景之間的類(lèi)別不平衡 - 設(shè)計(jì)焦點(diǎn)損失(Focal Loss) 來(lái)解決這種類(lèi)別不平衡問(wèn)題,降低分配給分類(lèi)良好例子的損失。
- 提出了單階段RetinaNet網(wǎng)絡(luò)架構(gòu),使用了焦點(diǎn)損失和多尺度特征金字塔。
?
?
RetinaNet算法的架構(gòu)詳解
更新……
?
DL之RetinaNet:RetinaNet算法的架構(gòu)詳解
?
?
?
?
RetinaNet算法的案例應(yīng)用
更新……
DL之RetinaNet:基于RetinaNet算法(keras框架)利用resnet50_coco數(shù)據(jù)集(.h5文件)實(shí)現(xiàn)目標(biāo)檢測(cè)
?
?
?
?
?
《新程序員》:云原生和全面數(shù)字化實(shí)踐50位技術(shù)專(zhuān)家共同創(chuàng)作,文字、視頻、音頻交互閱讀總結(jié)
以上是生活随笔為你收集整理的DL之RetinaNet:RetinaNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: Python语言学习:基于python五
- 下一篇: ML之Validation:机器学习中模