【图像分类】 关于图像分类中类别不平衡那些事
歡迎大家來到圖像分類專欄,類別不平衡時(shí)是很常見的問題,本文介紹了類別不平衡圖像分類算法的發(fā)展現(xiàn)狀,供大家參考學(xué)習(xí)。
作者&編輯 | 郭冰洋
1 簡介
小伙伴們在利用公共數(shù)據(jù)集動手搭建圖像分類模型時(shí),有沒有注意到這樣一個(gè)問題呢——每個(gè)數(shù)據(jù)集不同類別的樣本數(shù)目幾乎都是一樣的。這是因?yàn)椴煌悇e的樣例數(shù)目差異較小,對分類器的性能影響不大,可以在避免其他因素的影響下,充分反映分類模型的性能。反之,如果類別間的樣例數(shù)目相差過大,會對學(xué)習(xí)過程造成一定的影響,從而導(dǎo)致分類模型的性能變差。這就是本篇文章將要討論的類別不平衡問題(Class Imbalance)。
類別不平衡是指分類任務(wù)中不同類別的訓(xùn)練樣本數(shù)目相差較大的情況,通常是由于樣本較難采集或樣本示例較少而引起的,經(jīng)常出現(xiàn)在疾病類別診斷、欺詐類型判別等任務(wù)中。
盡管在傳統(tǒng)機(jī)器學(xué)習(xí)領(lǐng)域內(nèi),有關(guān)類別不平衡的問題已經(jīng)得到了詳盡的研究,但在深度學(xué)習(xí)領(lǐng)域內(nèi),其相關(guān)探索隨著深度學(xué)習(xí)的發(fā)展,經(jīng)歷了一個(gè)先抑后揚(yáng)的過程。
在反向傳播算法誕生初期,有關(guān)深度學(xué)習(xí)的研究尚未成熟,但仍有相關(guān)科研人員研究過類別樣例的數(shù)目對梯度傳播的影響,并得出樣例數(shù)目較多的類別在反向傳播時(shí)對權(quán)重占主導(dǎo)地位。這一現(xiàn)象會使網(wǎng)絡(luò)訓(xùn)練初期,快速的降低數(shù)目較多類別的錯(cuò)誤率,但隨著訓(xùn)練的迭代次數(shù)增加,數(shù)目較少類的錯(cuò)誤率會隨之上升[1]。
隨后的十余年里,由于深度學(xué)習(xí)受到計(jì)算資源的限制、數(shù)據(jù)集采集的難度較大等影響,相關(guān)研究并沒有得到進(jìn)一步的探索,直到近年來才大放異,而深度學(xué)習(xí)領(lǐng)域內(nèi)的類別不平衡問題,也得到了更加深入的研究。
本篇文章將對目前涉及到的相關(guān)解決方案進(jìn)行匯總,共分為數(shù)據(jù)層面、算法層面、數(shù)據(jù)和算法混合層面三個(gè)方面,僅列舉具有代表性的方案闡述,以供讀者參考。
2 方法匯總
1、基于數(shù)據(jù)層面的方法
基于數(shù)據(jù)層面的方法主要對參與訓(xùn)練的數(shù)據(jù)集進(jìn)行相應(yīng)的處理,以減少類別不平衡帶來的影響。
Hensman等[2]提出了提升樣本(over sampling)的方法,即對于類別數(shù)目較少的類別,從中隨機(jī)選擇一些圖片進(jìn)行復(fù)制并添加至該類別包含的圖像內(nèi),直到這個(gè)類別的圖片數(shù)目和最大數(shù)目類的個(gè)數(shù)相等為止。通過實(shí)驗(yàn)發(fā)現(xiàn),這一方法對最終的分類結(jié)果有了非常大的提升。
Lee等[3]提出了一種兩階段(two-phase)訓(xùn)練法。首先根據(jù)數(shù)據(jù)集分布情況設(shè)置一個(gè)閾值N,通常為最少類別所包含樣例個(gè)數(shù)。隨后對樣例個(gè)數(shù)大于閾值的類別進(jìn)行隨機(jī)抽取,直到達(dá)到閾值。此時(shí)根據(jù)閾值抽取的數(shù)據(jù)集作為第一階段的訓(xùn)練樣本進(jìn)行訓(xùn)練,并保存模型參數(shù)。最后采用第一階段的模型作為預(yù)訓(xùn)練數(shù)據(jù),再在整個(gè)數(shù)據(jù)集上進(jìn)行訓(xùn)練,對最終的分類結(jié)果有了一定的提升.
Pouyanfar等[4]則提出了一種動態(tài)采樣(dynamic sampling)的方法。該方法借鑒了提升樣本的思想,將根據(jù)訓(xùn)練結(jié)果對數(shù)據(jù)集進(jìn)行動態(tài)調(diào)整,對結(jié)果較好的類別進(jìn)行隨機(jī)刪除樣本操作,對結(jié)果較差的類別進(jìn)行隨機(jī)復(fù)制操作,以保證分類模型每次學(xué)習(xí)都能學(xué)到相關(guān)的信息。
2、基于算法層面的方法
基于算法層面的方法主要對現(xiàn)有的深度學(xué)習(xí)算法進(jìn)行改進(jìn),通過修改損失函數(shù)或?qū)W習(xí)方式的方法來消除類別不平衡帶來的影響。
Wang等[5]提出mean squared false error (MSFE) loss。這一新的損失函數(shù)是在mean false error (MFE) loss的基礎(chǔ)上進(jìn)行改進(jìn),具體公式如下圖所示:
MSFE loss能夠很好地平衡正反例之間的關(guān)系,從而實(shí)現(xiàn)更好的優(yōu)化結(jié)果。
Buda等[6]提出輸出閾值(output thresholding)的方法,通過調(diào)整網(wǎng)絡(luò)結(jié)果的輸出閾值來改善類別不平衡的問題。模型設(shè)計(jì)者根據(jù)數(shù)據(jù)集的構(gòu)成和輸出的概率值,人工設(shè)計(jì)一個(gè)合理的閾值,以降低樣本數(shù)目較少的類別的輸出要求,使得其預(yù)測結(jié)果更加合理。
3、基于數(shù)據(jù)和算法的混合方法
上述兩類層面的方法均能取得較好的改善結(jié)果,如果將兩種思想加以結(jié)合,能否有進(jìn)一步的提升呢?
Huang等[7]提出Large Margin Local Embedding (LMLE)的方法,采用五倍抽樣法(quintuplet sampling?)和tripleheader hinge loss函數(shù),可以更好地提取樣本特征,隨后將特征送入改進(jìn)的K-NN分類模型,能夠?qū)崿F(xiàn)更好的聚類效果。除此之外,Dong等[8]則融合了難例挖掘和類別修正損失函數(shù)的思想,同樣是在數(shù)據(jù)和損失函數(shù)進(jìn)行改進(jìn)。
由于篇幅和時(shí)間有限,本文只列取了每個(gè)類別的典型解決方案。同時(shí)也搜集了關(guān)于解決類別不平衡問題的相關(guān)綜述文獻(xiàn),截圖如下:
具體名稱可以借鑒參考文獻(xiàn)[9]。
3 參考文獻(xiàn)
[1] Anand R, Mehrotra KG, Mohan CK, Ranka S. An improved algorithm for neural network classification of imbalanced training sets. IEEE Trans Neural Netw. 1993;4(6):962–9.
[2]?Hensman P, Masko D. The impact of imbalanced training data for convolutional neural networks. 2015.
[3]?Lee H, Park M, Kim J. Plankton classification on imbalanced large scale database via convolutional neural networks?with transfer learning. In: 2016 IEEE international conference on image processing (ICIP). 2016. p. 3713–7.
[4]?Pouyanfar S, Tao Y, Mohan A, Tian H, Kaseb AS, Gauen K, Dailey R, Aghajanzadeh S, Lu Y, Chen S, Shyu M. Dynamic sampling in convolutional neural networks for imbalanced data classification. In: 2018 IEEE conference on multimedia information processing and retrieval (MIPR). 2018. p. 112–7.
[5]?Wang S, Liu W, Wu J, Cao L, Meng Q, Kennedy PJ. Training deep neural networks on imbalanced data sets. In:?2016 international joint conference on neural networks (IJCNN). 2016. p. 4368–74.
[6]?Buda M, Maki A, Mazurowski MA. A systematic study of the class imbalance problem in convolutional neural
networks. Neural Netw. 2018;106:249–59.
[7]?Huang C, Li Y, Loy CC, Tang X. Learning deep representation for imbalanced classification. In: 2016 IEEE conference?on computer vision and pattern recognition (CVPR). 2016. p. 5375–84.
[8]?Dong Q, Gong S, Zhu X. Imbalanced deep learning by minority class incremental rectification. In: IEEE transactions?on pattern analysis and machine intelligence. 2018. p. 1–1
[9]?Justin M. Johnson and Taghi M. Khoshgoftaar.Survey on deep learning with class?imbalance.Johnson and Khoshgoftaar J Big Data.(2019) 6:27
總結(jié)
以上就是關(guān)于類別不平衡問題的相關(guān)解決方案,詳細(xì)內(nèi)容可以閱讀參考文獻(xiàn)綜述9,相信通過更加詳細(xì)的文章閱讀,你會收獲更多的經(jīng)驗(yàn)!
有三AI夏季劃
有三AI夏季劃進(jìn)行中,歡迎了解并加入,系統(tǒng)性成長為中級CV算法工程師。
轉(zhuǎn)載文章請后臺聯(lián)系
侵權(quán)必究
往期精選
【技術(shù)綜述】你真的了解圖像分類嗎?
【技術(shù)綜述】多標(biāo)簽圖像分類綜述
【圖像分類】分類專欄正式上線啦!初入CV、AI你需要一份指南針!
【圖像分類】從數(shù)據(jù)集和經(jīng)典網(wǎng)絡(luò)開始
【圖像分類】 基于Pytorch的多類別圖像分類實(shí)戰(zhàn)
【圖像分類】細(xì)粒度圖像分類是什么,有什么方法,發(fā)展的怎么樣
【圖像分類】 基于Pytorch的細(xì)粒度圖像分類實(shí)戰(zhàn)
【圖像分類】簡述無監(jiān)督圖像分類發(fā)展現(xiàn)狀
總結(jié)
以上是生活随笔為你收集整理的【图像分类】 关于图像分类中类别不平衡那些事的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【NLP】XLnet:GPT和BERT的
- 下一篇: 【杂谈】认识有三AI的一年,从机械转行C