无监督和有监督的区别_无监督元学习(Unsupervised Meta-Learning)
自從ICML2017的Model-Agnostic Meta-Learning (MAML)以及NIPS17的Prototypical Networks (ProtoNet)等paper出現之后,一系列meta learning以及few-shot learning的paper如雨后春筍般涌現出來。同時,常用的幾個數據集Omniglot、miniImagenet、tieredImagenet的性能也被不斷刷新。
結合最近無監督學習的潮流,元學習相關方法和無監督學習的結合,成為了最近一個新的方向。本文主要介紹基于MAML的無監督元學習相關工作。
有監督和無監督元學習的對比,如圖1。區別主要在Meta-train階段,有監督元學習可以利用標簽信息進行訓練,而無監督元學習只能利用無標注的原始數據。無監督的常見方法,比如self-supervised learning,clustering,generative model等等都有可能應用到無監督元學習中。
圖1. 有監督和無監督元學習比較。在Meta-train階段,無監督元學習只能利用無標注的數據進行學習,而有監督元學習可以利用標簽信息進行訓練。Meta-test階段,有監督和無監督的設置相同。CACTUs (Unsupervised learning via meta-learning)
圖2. CACTUs方法框架圖。首先,預訓練得到特征表示(1),對訓練數據進行無監督聚類,得到若干組偽標簽數據(2a)。然后根據偽標簽隨機采樣多個任務(tasks)(2b),運行正常的元學習算法(3),例如MAML或者ProtoNet。這篇論文是MAML的作者Chelsea Finn等人發表在ICLR19的paper,主要提出了unsupervised meta-learning的設置以及一種簡單的基于聚類的方法。雖然方法簡單,但是也為后續基于無監督的元學習方法開辟了一個方向。
整個方法可以分成三個步驟(圖2):
作者在Omniglot、Mnist、MiniImagenet以及CelebA上進行了實驗,驗證了clustering+meta learning的有效性。另外,如圖3,通過無監督元學習和有監督元學習的對比,可以看出無監督性能逐步接近有監督性能。
圖3. 無監督元學習和有監督元學習性能對比UMTRA (Unsupervised Meta-Learning for Few-Shot Image Classification)
圖4. UMTRA方法框架圖。首先,隨機選取N個樣本作為N個類別,然后將原圖片作為support set,augmentation之后的圖片作為query set。最后,使用有監督的MAML算法進行元學習參數更新。CACTUs是一個多步驟的元學習算法,需要先單獨訓練特征表示,然后用于聚類,最后訓練新的網絡結構。它的過程相對負責,而且沒有很好的靈活性。
受到一些自監督(self-supervised)方法的啟發,UMTRA提出了一個end2end的元學習框架,如圖4。整個方法包含三個部分:
作者對方法的動機進行了解釋:假設訓練集合共有
個類別,每個類別有 個樣本,我們每次隨機選取 個樣本。這 個樣本全部來自不同類別的概率是:上述公式,分子是
個樣本全部來自不同類別的可能情況,分母是所有隨機組合的情況數目。對于Omniglot( ), ;對于MiniImagenet, ;對于Imagenet, 。所以,隨機選擇的樣本有很大概率來自不同類別,這樣選出來的樣本應該比k-means聚類得到的偽標簽更接近真實數據。其他方法
AAL和UMTRA是同期工作,方法也很大程度重合,但是性能略低于UMTRA。
Centroid Networks提出了不同的Unsupervised meta-learning的設置,但是由于它是ICLR2020的拒稿paper,這里不做深入解讀。
本文涉及到的論文如下:
總結
以上是生活随笔為你收集整理的无监督和有监督的区别_无监督元学习(Unsupervised Meta-Learning)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 抽象工厂模式_抽象工厂模式
- 下一篇: python核心数据类型_Python核