博雯 發自 凹非寺
量子位 報道 | 公眾號 QbitAI
長久以來,三維姿態估計都在追求準確性上一路狂奔。
但精度提高得同時,也帶來了計算成本得上升。
而剛剛被CPVR 2021接受得論文中所提出得模型,MobileHumanPose卻可以同時做到又小又好。
還是放在手機上都能hold得住得那種。來感受一下這個feel:
這種動作得健身操也沒問題:
據了解,這個模型得尺寸,只有基于ResNet-50得模型得1/7,算力達到了3.92GFLOPS。
而且平均每關節位置誤差(MPJPE),也只有大約5厘米。
那么這一模型到底是如何在有限得算力下產生極佳性能得呢?
基于編碼器-解碼器結構得改進這是一個從基本得編碼器-解碼器結構改良得來得模型。
在編碼器用于全局特征提取,而解碼器進行姿態估計得基礎架構上,研究團隊對其主干網絡、激活函數,以及Skip concatenation功能都進行了修改。
先來看研究團隊選擇得主干網絡,MobileNetV2。
他們在MobileNetV2得前四個倒置殘差塊(Residual Block)處修改了通道大小,獲得了性能提升。
接下來,將PReLU函數用于實現激活功能,其中ai為學習參數 yi是輸入信號。
這一函數中得可學習參數能夠在每一層網絡都獲得額外得信息,因此在人體姿勢估計任務中使用參數化PReLU時可提升性能。
△修改了激活函數后得baseline現在,模型得效率已經不低了,但考慮到推理速度,團隊使用Skip concatenation結構。這一結構能從編碼器到解碼器中導出低級別特征信號(Lowlevel feature signal),不會降低性能。
參數量減少5倍,計算成本降到1/3團隊使用Human3.6M和MuCo-3DHP作為三維人體姿勢數據集,他們提出了MobileNetV2得大小兩個模型。
在Human3.6M上,MobileNetV2大模型實現了51.44毫米得平均每關節位置誤差。
且其參數量為4.07M,對比同類模型得20.4M(chen)減少了5倍,計算成本為5.49GFLOPS,是同類模型得1/3不到(14.1G)。
對于多人三維姿勢估計任務,研究者使用RootNet來估計每個人得可能嗎?坐標,在MuPoTS得20個場景中進行了實驗:
實驗結果證明,對比Zerui Chen等研究者提出得獲ECCV 2020得三維人體姿態估計方法,MobileNetV2在一般場景中得性能都更好,且在少數場景中取得了可靠些性能:
在模型效率上,MobileNetV2得大模型效率為2.24M/3.92GFLOPS,遠超同類模型得13.0M/10.7GFLOPS(Zerui Chen)。
而小模型也能實現56.94毫米得平均每關節位置誤差,有224萬個參數,計算成本為3.92GFLOPS。
感謝分享介紹論文得三位感謝分享皆畢業于韓國高等技術研究院,一作Sangbum Choi為該校得電機及電子工程可以碩士。
論文:
感謝分享openaccess.thecvf感謝原創分享者/content/CVPR2021W/MAI/html/Choi_MobileHumanPose_Toward_Real-Time_3D_Human_Pose_Estimation_in_Mobile_Devices_CVPRW_2021_paper.html
開源地址:
[1]感謝分享github感謝原創分享者/SangbumChoi/MobileHumanPose
[2]感謝分享github感謝原創分享者/ibaiGorordo/ONNX-Mobile-Human-Pose-3D
— 完 —
量子位 QbitAI · 頭條號簽約
感謝對創作者的支持我們,第壹時間獲知前沿科技動態