反向 Dropout,韩松团队最新工作NetAug:提高Tiny神经网络性能的新训练方法
生活随笔
收集整理的這篇文章主要介紹了
反向 Dropout,韩松团队最新工作NetAug:提高Tiny神经网络性能的新训练方法
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
?作者丨happy
編輯丨極市平臺
本文首發于極市平臺,轉載請獲得授權并標明出處。
論文鏈接:https://arxiv.org/abs/2110.08890
TinyNN的福音:韓松團隊提出針對TinyNN推理無損漲點的新型訓練方案NetAug。本文從正則技術的作用以及TinyNN與大網絡的容量角度出發,分析了為何正則技術會影響TinyNN的性能,進而提出了適用于TinyNN的新型訓練方案NetAug。在ImageNet分類任務上,NetAug可以提升MobileNetV2-tiny性能達2.1% 。
原文地址:反向 dropout!韓松團隊最新工作 NetAug:提高 Tiny 神經網絡性能的新訓練方法
總結
以上是生活随笔為你收集整理的反向 Dropout,韩松团队最新工作NetAug:提高Tiny神经网络性能的新训练方法的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 何恺明最新工作:简单实用的自监督学习方案
- 下一篇: 一个RGB-T工作的小小感悟与总结