a国产,中文字幕久久波多野结衣AV,欧美粗大猛烈老熟妇,女人av天堂

當(dāng)前位置:主頁 > 碩博論文 > 信息類碩士論文 >

基于雙Kinect的人體運(yùn)動捕捉

發(fā)布時間:2018-03-12 21:17

  本文選題:運(yùn)動捕捉 切入點(diǎn):姿態(tài)估計 出處:《南京大學(xué)》2017年碩士論文 論文類型:學(xué)位論文


【摘要】:人體運(yùn)動捕捉,就是從單個視角或者多個已同步或者非同步視角的數(shù)據(jù)或者序列中恢復(fù)出人體的姿態(tài)參數(shù)。精確性和魯棒性是動態(tài)人體運(yùn)動捕捉算法的基本追求。長期以來,很多學(xué)者和工程師都在致力于研究先進(jìn)的人體運(yùn)動捕捉算法,以期望能實(shí)時、自動、準(zhǔn)確地構(gòu)建三維空間中的人體運(yùn)動形體。精確的人體運(yùn)動捕捉,廣泛應(yīng)用于體育運(yùn)動分析、遠(yuǎn)程醫(yī)療和虛擬現(xiàn)實(shí)等多個領(lǐng)域,豐富人們的娛樂方式和日常生活。當(dāng)前,學(xué)術(shù)界在人體運(yùn)動捕捉方面已經(jīng)取得了巨大的進(jìn)展,然而當(dāng)遮擋發(fā)生時,當(dāng)前比較流行的運(yùn)動捕捉技術(shù)容易陷入局部最優(yōu),降低了運(yùn)動估計結(jié)果的精確度,這促使著眾多的學(xué)者和工程師更積極地投入到運(yùn)動捕捉算法的研究中去。本文提出了一個完整的高精度的人體運(yùn)動捕捉系統(tǒng)。首先,我們介紹了人體語義參數(shù)化的人體體型重建方法。本方法通過建立人體的三維模型與人體的語義參數(shù)(如身高、三圍等)之間的線性映射關(guān)系,再利用采集得到的人體三維點(diǎn)云數(shù)據(jù)的約束,精確得重建人體體型模型。精確的人體體型模型使得人體運(yùn)動姿態(tài)重建更加精確。對于運(yùn)動捕捉,與以往的單目深度相機(jī)系統(tǒng)不同,我們使用兩個Kinect相機(jī)從不同的角度來獲取人體的運(yùn)動信息,并以根據(jù)前一幀圖像數(shù)據(jù)求解得出的人體形體作為當(dāng)前待求解的圖像的人體模板,將人體姿態(tài)參數(shù)的求解轉(zhuǎn)化為一個MAP問題來解決。雙Kinect相機(jī)系統(tǒng)的使用,使得當(dāng)遮擋的情況出現(xiàn)時我們?nèi)匀挥凶銐虻男畔⒂糜诰_估計人體的運(yùn)動姿態(tài)。另一方面,利用人體運(yùn)動在時域上的連續(xù)性,我們引入了時域約束條件,使用學(xué)習(xí)的方法來進(jìn)一步挖掘人體姿態(tài)變化上的時域信息來約束人體運(yùn)動參數(shù)的求解。時域約束條件的引入,使得我們在面對較快速度運(yùn)動的人體時的求解結(jié)果精度更高。實(shí)驗證明,時域約束條件有助于提高我們的運(yùn)動捕捉系統(tǒng)的精度。
[Abstract]:Human motion capture is to recover human posture parameters from data or sequences of single or multiple synchronized or asynchronous visual angles. Accuracy and robustness are the basic pursuit of dynamic human motion capture algorithm for a long time. Many scholars and engineers are working on advanced human motion capture algorithms in the hope that they can construct human motion bodies in three dimensional space in real time, automatically and accurately. Accurate human motion capture is widely used in sports analysis. Telemedicine and virtual reality enrich people's entertainment and daily life. At present, great progress has been made in the field of human motion capture, but when occlusion occurs, The current popular motion capture techniques tend to fall into local optimum, which reduces the accuracy of motion estimation results. This has prompted many scholars and engineers to devote themselves more actively to the research of motion capture algorithms. In this paper, a complete human motion capture system with high accuracy is proposed. In this paper, we introduce the method of human body shape reconstruction with semantic parameterization. By establishing the linear mapping relationship between human body 3D model and human body semantic parameters (such as height, Sanwei, etc.), Then using the constraint of the collected 3D point cloud data, the body shape model can be reconstructed accurately. The precise body shape model makes the human body posture reconstruction more accurate. Different from the previous monocular depth camera system, we use two Kinect cameras to obtain human body motion information from different angles, and take the human body shape obtained from the previous frame image data as the human body template of the current image to be solved. The solution of attitude parameters of human body is transformed into a MAP problem. With the use of double Kinect camera system, we still have enough information to estimate the human body's motion attitude when the occlusion occurs. On the other hand, Using the continuity of human motion in time domain, we introduce the time domain constraint condition, and use the learning method to further excavate the time domain information of the human body attitude change to constrain the solution of the human body motion parameter, and introduce the time domain constraint condition. The experimental results show that the time-domain constraint condition is helpful to improve the accuracy of our motion capture system.
【學(xué)位授予單位】:南京大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2017
【分類號】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前2條

1 瞿文吉,藍(lán)祖云,張鴻姿,張人驤;人體體型的立體測量[J];科學(xué)通報;1987年23期

2 ;[J];;年期

相關(guān)重要報紙文章 前1條

1 文化;制衣業(yè)要靠新設(shè)備“武裝”[N];中國商報;2000年

相關(guān)博士學(xué)位論文 前1條

1 陳文飛;基于服裝合體性的女性人體體型研究[D];東華大學(xué);2001年

相關(guān)碩士學(xué)位論文 前10條

1 趙廣艷;適體女上裝的結(jié)構(gòu)優(yōu)化設(shè)計[D];河北科技大學(xué);2014年

2 高之泉;基于雙Kinect的人體運(yùn)動捕捉[D];南京大學(xué);2017年

3 王瑩;面向個性化服裝定制的人體體型分析系統(tǒng)的研究[D];東華大學(xué);2008年

4 王鵬;數(shù)字化電子量身定制系統(tǒng)關(guān)鍵技術(shù)研究及應(yīng)用[D];東華大學(xué);2006年

5 米婷婷;東華原型的補(bǔ)充性研究[D];東華大學(xué);2009年

6 孫潔;基于神經(jīng)網(wǎng)絡(luò)集成的人體體型分析與號型歸檔研究[D];浙江理工大學(xué);2013年

7 凌晨;面向電子化量身定制服裝eMTM的人體體型分析系統(tǒng)設(shè)計與實(shí)現(xiàn)[D];東華大學(xué);2005年

8 姜濤;基于數(shù)碼照片測量技術(shù)的女性人體體型研究[D];蘇州大學(xué);2007年

9 林在韻;人體體型因素及界面展示方式對線上服裝購買成功率的影響[D];東華大學(xué);2014年

10 龐程方;基于橫截面形態(tài)的青年男性體型細(xì)分與識別研究[D];浙江理工大學(xué);2015年

,

本文編號:1603323

資料下載
論文發(fā)表

本文鏈接:http://www.wukwdryxk.cn/shoufeilunwen/xixikjs/1603323.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶cd0b6***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com
精品久久久无码人妻中文字幕| 日韩aⅴ| 亚洲国产欧美在线观看| 亚洲国产成AV人天堂无码| 国产精品理论片在线观看| 亚洲少妇熟女| 久久热在线播放| 国产a级| 成人99| 人人插| 欧美男人天堂| 一区二区三区黄片| 最近免费韩国日本HD中文字幕| 成全视频免费观看在线播放| 一本之道av不卡精品| 亚洲人成色77777在线观看| 自拍偷自拍亚洲精品第1页| 农村老熟妇乱子伦视频 | 人妻影音先锋啪啪AV资源| 天天爱天天做天天爽2021| 久久福利中文字幕一区二区的| 狠狠色噜噜狠狠狠7777米奇| 攀枝花市| 抚松县| 亚洲综合无码精品一区二区三区| t66y最新地址一地址二地址三 | 玖玖| 日韩私人影院| 最新av网址| 日本久久久久久久| 熟妇xxx| 国产精品久久久久久亚洲av| h视频在线免费观看| 奇米网7777| 西西熟女少妇大尺度毛毛| a在线视频| 欧美18videosex性极品| 色综合色天天久久婷婷基地| 国产综合视频一区二区三区| 无码国产精品一区二区免费久久| 色悠久久久久久久综合网伊人 |