AAAI论文首发:几何驱动的自监督的人体3D姿态估计方法
徐亦達團隊和北理工李侃老師的共同博士生李楊在AAAI 的發表了一篇機器學習論文,本人得到徐老師授權在本站發布論文。
Geometry-driven Self-supervised Method for 3D Human Pose Estimation
論文第一作者:李楊
論文介紹
Geometry-driven Self-supervised Method for 3D Human Pose Estimation
幾何驅動的自監督的人體3D姿態估計方法
論文摘要
近年來,基于深度學習的單目人體3D姿態估計吸引了越來越多研究人員的關注。深度神經網絡的訓練依賴于大量的標注數據,然而人體3D關節點的標注是一項成本昂貴的工作。為了解決此問題,本文提出了一種新的自監督的人體3D姿態估計方法,不同于現有的弱/自監督方法,我們的方法完全依靠于相機幾何先驗知識,無需任何額外的人體3D關節點標注。我們的方法總體上基于兩階段的框架:人體2D姿態估計和2D到3D姿態提升。為了達到自監督網絡訓練的目的,我們提出了變換重投影損失,利用多視角一致性信息構建損失函數訓練2D到3D姿態提升網絡。此外,我們使用人體2D關節點的置信度來整合不同視角的損失,以減輕由于遮擋導致的噪聲的影響。最后,我們設計了一個用于訓練的雙分支網絡結構,該網絡可以在訓練過程中保留人體3D姿態的尺度信息。我們在兩個主流的人體3D姿態數據集,Human3.6M和MPI-INF-3DHP,上驗證了我們方法的性能,實驗結果表明我們方法的性能明顯優于最近的弱/自監督方法。
算法框架
實驗效果
在兩個主流的人體3D姿態數據集,Human3.6M和MPI-INF-3DHP的效果
總結
論文下載:
https://github.com/leon532/Geometry-driven-Self-supervised-Method-for-3D-Human-Pose-Estimation/blob/master/AAAI2020/AAAI-LiY.7454.pdf
或者鏈接:https://pan.baidu.com/s/1EkTX1MsgYumluPIIJuga9w
提取碼:dfzr
不多說了,徐亦達老師團隊出品,必屬精品,建議下載慢慢看。
備注:公眾號菜單包含了整理了一本AI小抄,非常適合在通勤路上用學習。
往期精彩回顧那些年做的學術公益-你不是一個人在戰斗適合初學者入門人工智能的路線及資料下載機器學習在線手冊深度學習在線手冊備注:加入本站微信群或者qq群,請回復“加群”加入知識星球(4500+用戶,ID:92416895),請回復“知識星球”喜歡文章,點個在看
與50位技術專家面對面20年技術見證,附贈技術全景圖總結
以上是生活随笔為你收集整理的AAAI论文首发:几何驱动的自监督的人体3D姿态估计方法的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Attention 扫盲:注意力机制及其
- 下一篇: 机器学习深度学习论文写作工具推荐