Attention-Based Recurrent Autoencoder for Motion Capture Denoising,ERICDATA高等教育知識庫
高等教育出版
熱門: 朱丽彬  黃光男  王善边  王美玲  崔雪娟  黃乃熒  
高等教育出版
首頁 臺灣期刊   學校系所   學協會   民間出版   大陸/海外期刊   政府機關   學校系所   學協會   民間出版   DOI註冊服務
篇名
Attention-Based Recurrent Autoencoder for Motion Capture Denoising
並列篇名
Attention-Based Recurrent Autoencoder for Motion Capture Denoising
作者 Yong-Qiong ZhuFan ZhangZhidong Xiao
英文摘要

To resolve the problem of massive loss of MoCap data from optical motion capture, we propose a novel network architecture based on attention mechanism and recurrent network. Its advantage is that the use of encoder-decoder enables automatic human motion manifold learning, capturing the hidden spatial-temporal relationships in motion sequences. In addition, by using the multi-head attention mechanism, it is possible to identify the most relevant corrupted frames with specific position information to recovery the missing markers, which can lead to more accurate motion reconstruction. Simulation experiments demonstrate that the network model we proposed can effectively handle the large-scale missing markers problem with better robustness, smaller errors and more natural recovered motion sequence compared to the reference method.

 

起訖頁 1325-1333
關鍵詞 Motion captureAttention mechanismDeep learningNeural network
刊名 網際網路技術學刊  
期數 202211 (23:6期)
出版單位 台灣學術網路管理委員會
DOI 10.53106/160792642022112306015   複製DOI
QR Code
該期刊
上一篇
An Improvement of an IP Fast Reroute Method Using Multiple Routing Tables
該期刊
下一篇
Cognitive Fuzzy-based Behavioral Learning System for Augmenting the Automated Multi-issue Negotiation in the E-commerce Applications

高等教育知識庫  閱讀計畫  教育研究月刊  新書優惠  

教師服務
合作出版
期刊徵稿
聯絡高教
高教FB
讀者服務
圖書目錄
教育期刊
訂購服務
活動訊息
數位服務
高等教育知識庫
國際資料庫收錄
投審稿系統
DOI註冊
線上購買
高點網路書店 
元照網路書店
博客來網路書店
教育資源
教育網站
國際教育網站
關於高教
高教簡介
出版授權
合作單位
知識達 知識達 知識達 知識達 知識達 知識達
版權所有‧轉載必究 Copyright2011 高等教育文化事業股份有限公司  All Rights Reserved
服務信箱:edubook@edubook.com.tw 台北市館前路 26 號 6 樓 Tel:+886-2-23885899 Fax:+886-2-23892500