DL之MobileNetV2:MobileNetV2算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之MobileNet V2:MobileNet V2算法的簡(jiǎn)介(論文介紹)、架構(gòu)詳解、案例應(yīng)用等配圖集合之詳細(xì)攻略
?
?
?
?
目錄
MobileNetV2算法的簡(jiǎn)介(論文介紹)
MobileNet V2算法的架構(gòu)詳解
1、MobileNet V1 →?MobileNet V2
2、主要貢獻(xiàn)是一個(gè)新穎的層模塊
3、實(shí)驗(yàn)結(jié)果
MobileNet V2算法的案例應(yīng)用
?
?
?
?
?
相關(guān)文章
DL之MobileNet:MobileNet算法的簡(jiǎn)介(論文介紹)、架構(gòu)詳解、案例應(yīng)用等配圖集合之詳細(xì)攻略
DL之MobileNet:MobileNet算法的架構(gòu)詳解
DL之MobileNetV2:MobileNetV2算法的簡(jiǎn)介(論文介紹)、架構(gòu)詳解、案例應(yīng)用等配圖集合之詳細(xì)攻略
DL之MobileNetV2:MobileNetV2算法的架構(gòu)詳解(包括ReLu的意義)
MobileNetV2算法的簡(jiǎn)介(論文介紹)
? ? ?作者在MobileNet基礎(chǔ)上,又提出了改進(jìn)的模型MobileNetV2,該模型可用于不同的任務(wù),比如圖像分類(lèi)、目標(biāo)檢測(cè)、圖像分割等。
?
Abstract ?
? ? ? ?In this paper we describe a new mobile architecture, ?MobileNetV2, that improves the state of the art performance ?of mobile models on multiple tasks and benchmarks ?as well as across a spectrum of different model ?sizes. We also describe efficient ways of applying these ?mobile models to object detection in a novel framework ?we call SSDLite. Additionally, we demonstrate how ?to build mobile semantic segmentation models through ?a reduced form of DeepLabv3 which we call Mobile ?DeepLabv3. ?is based on an inverted residual structure where ?the shortcut connections are between the thin bottleneck ?layers. The intermediate expansion layer uses ?lightweight depthwise convolutions to filter features as ?a source of non-linearity.? ? ? ?
? ? ? ?Additionally, we find that it is ?important to remove non-linearities in the narrow layers ?in order to maintain representational power. We demonstrate ?that this improves performance and provide an intuition ?that led to this design. ?
? ? ? ?Finally, our approach allows decoupling of the input/output ?domains from the expressiveness of the transformation, ?which provides a convenient framework for ?further analysis. We measure our performance on ?ImageNet [1] classification, COCO object detection [2], ?VOC image segmentation [3]. We evaluate the trade-offs ?between accuracy, and number of operations measured ?by multiply-adds (MAdd), as well as actual latency, and ?the number of parameters.
摘要
? ? ? ?在本文中,我們描述了一種新的移動(dòng)架構(gòu)mobilenet2,它改善了移動(dòng)模型在多個(gè)任務(wù)和基準(zhǔn)上以及在不同模型大小的范圍內(nèi)的最新性能。我們還描述了在一個(gè)稱(chēng)為SSDLite的新框架中,將這些移動(dòng)模型應(yīng)用于目標(biāo)檢測(cè)的有效方法。此外,我們還演示了如何通過(guò)DeepLabv3 (我們稱(chēng)之為Mobile DeepLabv3 )的簡(jiǎn)化形式來(lái)構(gòu)建移動(dòng)語(yǔ)義分割模型。是基于一個(gè)倒置的residual結(jié)構(gòu),其中的快捷連接是在薄的bottleneck 層之間。中間擴(kuò)展層使用輕量級(jí)的垂直卷積來(lái)過(guò)濾作為非線性源的特征。
? ? ? ?此外,我們發(fā)現(xiàn)為了保持具有代表性的能力,在狹窄的層面上去除非線性是很重要的。我們證明,這提高了性能,并提供了帶來(lái)此設(shè)計(jì)的直覺(jué)(即靈感來(lái)源)。
? ? ? ?最后,我們的方法允許將輸入/輸出域與轉(zhuǎn)換的表現(xiàn)性分離,這為進(jìn)一步分析提供了一個(gè)方便的框架。我們?cè)贗mageNet[1]分類(lèi)、COCO目標(biāo)檢測(cè)[2]和VOC圖像分割[3]上測(cè)量我們的性能。我們?cè)u(píng)估了精度、乘法加法(MAdd)度量的操作數(shù)、實(shí)際延遲和參數(shù)數(shù)之間的權(quán)衡。
Conclusions and future work ?
? ? ? ?We described a very simple network architecture that ?allowed us to build a family of highly efficient mobile ?models. Our basic building unit, has several properties ?that make it particularly suitable for mobile applications. ?It allows very memory-efficient inference and ?relies utilize standard operations present in all neural ?frameworks. ?
? ? ? ?For the ImageNet dataset, our architecture improves ?the state of the art for wide range of performance points. ?
? ? ? ?For object detection task, our network outperforms ?state-of-art realtime detectors on COCO dataset both in ?terms of accuracy and model complexity. Notably, our ?architecture combined with the SSDLite detection module ?is 20× less computation and 10× less parameters ?than YOLOv2. ?
? ? ? ?On the theoretical side: the proposed convolutional ?block has a unique property that allows to separate the ?network expressiviness (encoded by expansion layers) ?from its capacity (encoded by bottleneck inputs). Exploring ?this is an important direction for future research.
結(jié)論與未來(lái)工作
? ? ? ?我們描述了一個(gè)非常簡(jiǎn)單的網(wǎng)絡(luò)架構(gòu),它允許我們構(gòu)建一系列高效的移動(dòng)模型。我們的基本建筑單元有幾個(gè)特性,使其特別適合移動(dòng)應(yīng)用。它允許非常有記憶效率的推理,并且依賴(lài)于使用所有神經(jīng)框架中存在的標(biāo)準(zhǔn)操作。
???????? ? ? ?對(duì)于ImageNet數(shù)據(jù)集,我們的架構(gòu)改善了各種性能點(diǎn)的藝術(shù)狀態(tài)。
???????? ? ? ?對(duì)于目標(biāo)檢測(cè)任務(wù),我們的網(wǎng)絡(luò)在準(zhǔn)確性和模型復(fù)雜性方面都優(yōu)于COCO數(shù)據(jù)集上的最新實(shí)時(shí)檢測(cè)器。值得注意的是,我們的架構(gòu)與SSDLite 檢測(cè)模塊相結(jié)合,比YOLOv2的計(jì)算量少20倍,參數(shù)少10倍。
???????? ? ? ?理論方面:所提出的卷積塊具有獨(dú)特的特性,允許將網(wǎng)絡(luò)表現(xiàn)性(由擴(kuò)展層編碼)與其容量(由瓶頸輸入編碼)分開(kāi)。探索這是今后研究的一個(gè)重要方向。
?
論文
Mark Sandler, Andrew Howard, MenglongZhu, Andrey Zhmoginov, Liang-ChiehChen.
MobileNetV2: Inverted Residuals and Linear Bottlenecks.
https://arxiv.org/abs/1801.04381v3
?
MobileNet V2算法的架構(gòu)詳解
1、MobileNet V1 →?MobileNet V2
?
?
?
2、主要貢獻(xiàn)是一個(gè)新穎的層模塊
? ? ? ?具有線性瓶頸的反轉(zhuǎn)殘差(inverted residual ):該模塊將低維壓縮表示作為輸入,首先將其擴(kuò)展為高維度并使用輕量級(jí)沿深度卷積(depthwiseconvolution)進(jìn)行濾波。隨后通過(guò)線性卷積將特征投射回低維表示。
? ? ? ?中間層使用輕量級(jí)的沿深度卷積來(lái)對(duì)特征進(jìn)行濾波作為非線性的來(lái)源。
?
3、實(shí)驗(yàn)結(jié)果
ImageNet上的分類(lèi)結(jié)果的性能,不同網(wǎng)絡(luò)的比較 Performance on ImageNet, comparison for different networks.
???????
?
?
?
?
MobileNet V2算法的案例應(yīng)用
更新……
?
?
?
?
?
?
?
?
總結(jié)
以上是生活随笔為你收集整理的DL之MobileNetV2:MobileNetV2算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: Python语言学习之字母G开头函数使用
- 下一篇: DL之ShuffleNet:Shuffl