CVPR 2020 《Local-Global Video-Text Interactions for Temporal Grounding》论文笔记
生活随笔
收集整理的這篇文章主要介紹了
CVPR 2020 《Local-Global Video-Text Interactions for Temporal Grounding》论文笔记
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
目錄
- 簡介
- 動機
- 貢獻
- 方法
- 實驗
簡介
本文的作者來自浦項科技大學和首爾大學
下載鏈接
動機
在Grounding領域,早些的方法都可以歸結為scan-and-localize framework,主要包括兩個步驟:1. 生成proposals;2. 根據matching score進行選擇。但是這一類方法存在很大的弊端:獲得matching score的過程中,使用text query的全局特征,丟失了用于定位的細節信息。后續,有人對方法進行了改進,將此task視為注意力定位問題,通過回歸解決。弊端:局限于最具有判別力的短語,沒有對context進行全面的理解。
貢獻
方法
本文方法的整體框架如圖所示。
實驗
在Charades-STA數據集上的實驗結果:
在ActivityNet Captions數據集上的實驗結果:
在Charades-STA數據集上的消融實驗:
總結
以上是生活随笔為你收集整理的CVPR 2020 《Local-Global Video-Text Interactions for Temporal Grounding》论文笔记的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 2020-06-18 CVPR2020
- 下一篇: 2020-07-02 CVPR2020