a国产,中文字幕久久波多野结衣AV,欧美粗大猛烈老熟妇,女人av天堂

基于雙Kinect的人體運(yùn)動(dòng)捕捉

發(fā)布時(shí)間:2018-03-12 21:17

  本文選題:運(yùn)動(dòng)捕捉 切入點(diǎn):姿態(tài)估計(jì) 出處:《南京大學(xué)》2017年碩士論文 論文類(lèi)型:學(xué)位論文


【摘要】:人體運(yùn)動(dòng)捕捉,就是從單個(gè)視角或者多個(gè)已同步或者非同步視角的數(shù)據(jù)或者序列中恢復(fù)出人體的姿態(tài)參數(shù)。精確性和魯棒性是動(dòng)態(tài)人體運(yùn)動(dòng)捕捉算法的基本追求。長(zhǎng)期以來(lái),很多學(xué)者和工程師都在致力于研究先進(jìn)的人體運(yùn)動(dòng)捕捉算法,以期望能實(shí)時(shí)、自動(dòng)、準(zhǔn)確地構(gòu)建三維空間中的人體運(yùn)動(dòng)形體。精確的人體運(yùn)動(dòng)捕捉,廣泛應(yīng)用于體育運(yùn)動(dòng)分析、遠(yuǎn)程醫(yī)療和虛擬現(xiàn)實(shí)等多個(gè)領(lǐng)域,豐富人們的娛樂(lè)方式和日常生活。當(dāng)前,學(xué)術(shù)界在人體運(yùn)動(dòng)捕捉方面已經(jīng)取得了巨大的進(jìn)展,然而當(dāng)遮擋發(fā)生時(shí),當(dāng)前比較流行的運(yùn)動(dòng)捕捉技術(shù)容易陷入局部最優(yōu),降低了運(yùn)動(dòng)估計(jì)結(jié)果的精確度,這促使著眾多的學(xué)者和工程師更積極地投入到運(yùn)動(dòng)捕捉算法的研究中去。本文提出了一個(gè)完整的高精度的人體運(yùn)動(dòng)捕捉系統(tǒng)。首先,我們介紹了人體語(yǔ)義參數(shù)化的人體體型重建方法。本方法通過(guò)建立人體的三維模型與人體的語(yǔ)義參數(shù)(如身高、三圍等)之間的線(xiàn)性映射關(guān)系,再利用采集得到的人體三維點(diǎn)云數(shù)據(jù)的約束,精確得重建人體體型模型。精確的人體體型模型使得人體運(yùn)動(dòng)姿態(tài)重建更加精確。對(duì)于運(yùn)動(dòng)捕捉,與以往的單目深度相機(jī)系統(tǒng)不同,我們使用兩個(gè)Kinect相機(jī)從不同的角度來(lái)獲取人體的運(yùn)動(dòng)信息,并以根據(jù)前一幀圖像數(shù)據(jù)求解得出的人體形體作為當(dāng)前待求解的圖像的人體模板,將人體姿態(tài)參數(shù)的求解轉(zhuǎn)化為一個(gè)MAP問(wèn)題來(lái)解決。雙Kinect相機(jī)系統(tǒng)的使用,使得當(dāng)遮擋的情況出現(xiàn)時(shí)我們?nèi)匀挥凶銐虻男畔⒂糜诰_估計(jì)人體的運(yùn)動(dòng)姿態(tài)。另一方面,利用人體運(yùn)動(dòng)在時(shí)域上的連續(xù)性,我們引入了時(shí)域約束條件,使用學(xué)習(xí)的方法來(lái)進(jìn)一步挖掘人體姿態(tài)變化上的時(shí)域信息來(lái)約束人體運(yùn)動(dòng)參數(shù)的求解。時(shí)域約束條件的引入,使得我們?cè)诿鎸?duì)較快速度運(yùn)動(dòng)的人體時(shí)的求解結(jié)果精度更高。實(shí)驗(yàn)證明,時(shí)域約束條件有助于提高我們的運(yùn)動(dòng)捕捉系統(tǒng)的精度。
[Abstract]:Human motion capture is to recover human posture parameters from data or sequences of single or multiple synchronized or asynchronous visual angles. Accuracy and robustness are the basic pursuit of dynamic human motion capture algorithm for a long time. Many scholars and engineers are working on advanced human motion capture algorithms in the hope that they can construct human motion bodies in three dimensional space in real time, automatically and accurately. Accurate human motion capture is widely used in sports analysis. Telemedicine and virtual reality enrich people's entertainment and daily life. At present, great progress has been made in the field of human motion capture, but when occlusion occurs, The current popular motion capture techniques tend to fall into local optimum, which reduces the accuracy of motion estimation results. This has prompted many scholars and engineers to devote themselves more actively to the research of motion capture algorithms. In this paper, a complete human motion capture system with high accuracy is proposed. In this paper, we introduce the method of human body shape reconstruction with semantic parameterization. By establishing the linear mapping relationship between human body 3D model and human body semantic parameters (such as height, Sanwei, etc.), Then using the constraint of the collected 3D point cloud data, the body shape model can be reconstructed accurately. The precise body shape model makes the human body posture reconstruction more accurate. Different from the previous monocular depth camera system, we use two Kinect cameras to obtain human body motion information from different angles, and take the human body shape obtained from the previous frame image data as the human body template of the current image to be solved. The solution of attitude parameters of human body is transformed into a MAP problem. With the use of double Kinect camera system, we still have enough information to estimate the human body's motion attitude when the occlusion occurs. On the other hand, Using the continuity of human motion in time domain, we introduce the time domain constraint condition, and use the learning method to further excavate the time domain information of the human body attitude change to constrain the solution of the human body motion parameter, and introduce the time domain constraint condition. The experimental results show that the time-domain constraint condition is helpful to improve the accuracy of our motion capture system.
【學(xué)位授予單位】:南京大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類(lèi)號(hào)】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前2條

1 瞿文吉,藍(lán)祖云,張鴻姿,張人驤;人體體型的立體測(cè)量[J];科學(xué)通報(bào);1987年23期

2 ;[J];;年期

相關(guān)重要報(bào)紙文章 前1條

1 文化;制衣業(yè)要靠新設(shè)備“武裝”[N];中國(guó)商報(bào);2000年

相關(guān)博士學(xué)位論文 前1條

1 陳文飛;基于服裝合體性的女性人體體型研究[D];東華大學(xué);2001年

相關(guān)碩士學(xué)位論文 前10條

1 趙廣艷;適體女上裝的結(jié)構(gòu)優(yōu)化設(shè)計(jì)[D];河北科技大學(xué);2014年

2 高之泉;基于雙Kinect的人體運(yùn)動(dòng)捕捉[D];南京大學(xué);2017年

3 王瑩;面向個(gè)性化服裝定制的人體體型分析系統(tǒng)的研究[D];東華大學(xué);2008年

4 王鵬;數(shù)字化電子量身定制系統(tǒng)關(guān)鍵技術(shù)研究及應(yīng)用[D];東華大學(xué);2006年

5 米婷婷;東華原型的補(bǔ)充性研究[D];東華大學(xué);2009年

6 孫潔;基于神經(jīng)網(wǎng)絡(luò)集成的人體體型分析與號(hào)型歸檔研究[D];浙江理工大學(xué);2013年

7 凌晨;面向電子化量身定制服裝eMTM的人體體型分析系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D];東華大學(xué);2005年

8 姜濤;基于數(shù)碼照片測(cè)量技術(shù)的女性人體體型研究[D];蘇州大學(xué);2007年

9 林在韻;人體體型因素及界面展示方式對(duì)線(xiàn)上服裝購(gòu)買(mǎi)成功率的影響[D];東華大學(xué);2014年

10 龐程方;基于橫截面形態(tài)的青年男性體型細(xì)分與識(shí)別研究[D];浙江理工大學(xué);2015年



本文編號(hào):1603323

資料下載
論文發(fā)表

本文鏈接:http://www.wukwdryxk.cn/shoufeilunwen/xixikjs/1603323.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶(hù)cd0b6***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com
精品少妇人妻| 在线观看国产成人AV片| 最新国产拍偷乱偷精品| 91中文字幕人妻无码专区| 人禽杂交18禁网站免费| 亚洲午夜未满十八勿入网站2| 国产v综合v亚洲欧美大| 亚洲加勒比无码一区二区| 中文无码日韩欧免费视频| 察雅县| а中文在线天堂| 中国四大美女是哪四个| 亚洲人成伊人成综合网久久久| 国产成人精品一区二区三区| 日韩人妻无码精品免费shipin | yeyesav| 国产视频一区二区| 日韩精品无码免费专区午夜| 日本成本人片免费网站| 永久免费AV无码网站04| 2021年精品国产福利在线| 野外亲子乱子伦视频丶| 国产思思99re99在线观看| 国产精品无码mv在线观看| 亚洲成av人片在www| 91久久婷婷人人澡人人澡| 久久久久久久精品成人热下载| 九色视频网站| 国产91中文综合日韩免费| 色婷婷综合久久久久中文| 久久九九久精品国产| 中文字幕无码毛片免费看| 欧美日韩人妻精品一区二区在线| 嘉禾县| 精品欧美| 久久99国产精一区二区三区| 色呦呦| 黄片一区二区| 亚洲综合久久成人av| 欧美亚洲日韩国产另类精品| 久久久国产精品无码一区|