SCI三区论文大修笔记(已录用)
本人5月份往Journal of Process Control期刊投了一篇論文,是基于深度學習圖像序列預測的。前幾天收到一審結果,大修。兩個審稿人給了幾篇參考文獻,此貼專門用來做筆記方便自己查閱。
論文1: Video salient object detection via fully convolutional networks
提出了一種深度學習模型,可以有效地檢測視頻中的顯著區域。解決了兩個重要問題:
1)深度視頻顯著性模型訓練,缺少足夠大和按像素標注的視頻數據;
2)快速視頻顯著性訓練和檢測。
- 所提出的深度視頻顯著性網絡包括兩個模塊,分別用于捕獲空間和時間顯著性信息。動態顯著性模型結合靜態顯著性模型的顯著性估計,直接產生時空顯著性推斷而無需耗時的光流計算。并提出了一種新穎的數據增強技術。
- 利用大量圖像訓練數據來合成視頻數據的新技術。CNN模型可以在豐富的視頻和圖像上進行有效且完整的訓練,從而成功地學習靜態和動態顯著特征。
顯著性模型由兩個模塊組成,這兩個模塊設計用于同時捕獲空間和時間顯著性信息。靜態顯著性網絡將單幀作為輸入并輸出靜態顯著性估計。動態顯著性網絡從幀對中學習動態顯著性,并將第一個模塊生成的靜態顯著性作為先驗,從而產生最終的時空顯著圖。
靜態顯著性檢測網絡的插圖。網絡采用單幀圖像(例如,224 × 224 )作為輸入,采用多層卷積網絡,將輸入圖像轉換為多維特征表示,然后應用一堆反卷積網絡對從卷積網絡中提取的特征進行上采樣。最后,一個完全卷積網絡1 × 1 內核和sigmoid活動函數用于輸出與輸入相同大小的概率圖,其中較大的值表示較高的顯著性值。
網絡動態顯著性檢測的插圖。連續幀對來自真實視頻數據或從現有圖像數據集合成,以及從我們的靜態顯著性網絡推斷出的靜態顯著性信息被連接并饋送到動態網絡中,該動態網絡具有與靜態網絡類似的FCN架構。動態網絡捕獲動態顯著性,同時考慮靜態顯著性,從而直接生成時空顯著性估計。
總結:
1、論文一直強調將單個視頻幀輸入到神經網絡訓練,往往沒有學習時間信息,但在我的網絡中,LSTM部分似乎可以解釋學習到了時間信息。
2、論文中的數據集是將大量圖像數據合成視頻數據,而我本來就是用視頻根據時間順序按幀提取的,同樣包含時間信息。
論文2: A deep network solution for attention and aesthetics aware photo cropping
研究照片裁剪的問題,其目的在于找到輸入圖像的裁剪窗口,以盡可能地保留其重要部分,同時在美學上令人愉悅。(感覺與我論文的內容不太相關,沒有深入研究)
論文3: Stochastic Configuration Networks: Fundamentals and Algorithms
提出的學習者模型由隨機配置(SC)算法(稱為SC網絡(SCN))遞增地生成。與現有的單層前饋網絡隨機學習算法相比,根據監督機制隨機分配隱藏節點的輸入權重和偏差,并以建設性或選擇性方式對輸出權重進行分析評估。
主要和原始貢獻在于為隨機參數分配不等式約束并自適應地選擇隨機參數的范圍,確保構建隨機化的通用逼近性質。SCN的三種算法實現,即算法SC-I,SC-II和SC-III,具有用于配置隨機參數的相同監督機制,但是計算輸出權重的方法不同。具體地說,SC-I采用一種建設性方案來僅為新添加的隱藏節點評估輸出權重,并保持所有先前獲得的輸出權重不變; SC-II通過用戶指定的移位窗口大小求解局部最小二乘問題來重新計算當前輸出權重的一部分; 和SC-III通過解決當前學習者模型的全局最小二乘問題,一起找到輸出權重。
神經網絡的過程不是用固定的架構訓練學習者模型,而是從小型網絡開始,然后逐步添加隱藏節點,直到達到可接受的容差。該方法不需要關于給定任務的網絡復雜性的任何先驗知識。
總結:與用于單層前饋神經網絡(例如,隨機向量功能鏈路網絡)的已知隨機學習算法相比,隨機配置網絡(SCN)根據監督機制隨機分配隱藏節點的輸入權重和偏差。 同時以建設性或選擇性方式對輸出權重進行分析評估。(隨機學習算法,在線性回歸和圖像分類任務中表現優)
總結
以上是生活随笔為你收集整理的SCI三区论文大修笔记(已录用)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: C语言中delay的用法
- 下一篇: c语言while延时10ms,for循环