a国产,中文字幕久久波多野结衣AV,欧美粗大猛烈老熟妇,女人av天堂

當(dāng)前位置:主頁 > 碩博論文 > 信息類博士論文 >

復(fù)雜環(huán)境下行為識(shí)別特征提取方法研究

發(fā)布時(shí)間:2018-07-10 13:07

  本文選題:行為識(shí)別 + 特征提取 ; 參考:《東南大學(xué)》2016年博士論文


【摘要】:行為識(shí)別是計(jì)算機(jī)視覺領(lǐng)域的研究熱點(diǎn)之一,在虛擬現(xiàn)實(shí)、增強(qiáng)現(xiàn)實(shí)、智能監(jiān)控、移動(dòng)分析和基于內(nèi)容的視頻檢索等領(lǐng)域具有廣闊的應(yīng)用前景,F(xiàn)有的簡單的、日常標(biāo)準(zhǔn)動(dòng)作的行為識(shí)別技術(shù)逐漸成熟,而對(duì)于復(fù)雜環(huán)境下的行為識(shí)別,如何提高識(shí)別率和效率成為了行為識(shí)別的研究焦點(diǎn)。為了提高識(shí)別率,目前行為識(shí)別的研究主要針對(duì)特征提取方法和分類方法兩個(gè)方面,特征是分類器的輸入數(shù)據(jù),其性能直接影響分類器的分類效果,進(jìn)而影響行為識(shí)別的識(shí)別率和效率。本論文主要研究復(fù)雜環(huán)境下行為識(shí)別的特征提取方法,以提高識(shí)別率和效率,主要工作與創(chuàng)新如下:1)提出一種基于移動(dòng)邊界采樣的底層特征提取方法:移動(dòng)邊界采樣為光流(optical flow)的不連續(xù)區(qū)域,并將其應(yīng)用到改進(jìn)型稠密軌跡上,減少一些不必要的移動(dòng)軌跡,在保證識(shí)別率的前提下提高了效率并且節(jié)省了存儲(chǔ)空間。仿真結(jié)果表明,在應(yīng)用移動(dòng)邊界采樣方法時(shí),識(shí)別率與改進(jìn)型稠密軌跡相當(dāng),復(fù)雜環(huán)境下的軌跡數(shù)減少了一半,存儲(chǔ)效率提高了一倍。2)提出一種基于線性降維技術(shù)的中層特征提取方法:在行為識(shí)別的特征提取過程中多次使用線性降維算法,即在FV (fisher vector)提取之前,對(duì)底層描述器(extractor)進(jìn)行一次降維,在FV進(jìn)入分類器之前,采用線性的降維技術(shù)對(duì)其進(jìn)行降維,從而提高效率和識(shí)別率。仿真結(jié)果表明,采用降維技術(shù)比不采用降維技術(shù)的測試和訓(xùn)練時(shí)間至少可降低2個(gè)數(shù)量級(jí),并且UCF11識(shí)別率提高到92.51%, HMDB51提高到56.47%。3)設(shè)計(jì)一種快速分類方法和融合策略:快速分類方法用的是極限學(xué)習(xí)機(jī),融合策略分為前融合策略和后融合策略,前融合策略分為底層描述器(位置1)融合和中層描述器(位置2)融合,后融合策略主要是通過六種不同的規(guī)則進(jìn)行識(shí)別率的分析和比較,提高了大類行為識(shí)別的效率和識(shí)別率。實(shí)驗(yàn)結(jié)果表明,ELM的訓(xùn)練時(shí)間和測試時(shí)間至少比SVM降低了10倍,位置2融合和后融合的求積、求和規(guī)則對(duì)應(yīng)的是最穩(wěn)定并且識(shí)別率最高的融合;谝陨涎芯,提出一種基于移動(dòng)邊界采樣的改進(jìn)型稠密軌跡和多次使用降維方法的行為識(shí)別架構(gòu),進(jìn)一步提高行為識(shí)別的效率和識(shí)別率。設(shè)計(jì)了一種基于非全能量下的主成分分析的降維方法,根據(jù)能量比方法、特征值大于平均特征值、特征值大于1、broken_stick和改進(jìn)型broken_stick方案來選擇特征值的個(gè)數(shù)實(shí)現(xiàn)識(shí)別率的最大化。實(shí)驗(yàn)結(jié)果顯示,在非全能量下,broken_stick和改進(jìn)型的broken stick方案獲得較好的識(shí)別率,比全能量下提高了0.5%,并且效率也得到了提高。
[Abstract]:Behavior recognition is one of the hotspots in the field of computer vision. It has a broad application prospect in the fields of virtual reality, augmented reality, intelligent monitoring, mobile analysis and content-based video retrieval. The existing simple, daily standard action behavior recognition technology is gradually mature, and how to improve the recognition rate and efficiency of behavior recognition in complex environment has become the focus of behavior recognition research. In order to improve the recognition rate, the current research on behavior recognition mainly focuses on two aspects: feature extraction method and classification method. The feature is the input data of the classifier, and its performance directly affects the classification effect of the classifier. Furthermore, it affects the recognition rate and efficiency of behavior recognition. In this paper, we mainly study the feature extraction method of behavior recognition in complex environment to improve the recognition rate and efficiency. The main work and innovations are as follows: (1) A method of feature extraction based on moving boundary sampling is proposed: the moving boundary is sampled as a discontinuous region of optical flow (optical flow), and applied to the improved dense trajectory. It reduces some unnecessary moving trajectories, improves efficiency and saves storage space while ensuring recognition rate. The simulation results show that the recognition rate is equivalent to that of the improved dense trajectory, and the number of tracks in complex environment is reduced by half when the moving boundary sampling method is applied. (2) A middle level feature extraction method based on linear dimensionality reduction is proposed: linear dimensionality reduction algorithm is used many times in the feature extraction process of behavior recognition, that is, before FV (fisher vector) extraction, The dimensionality of the underlying descriptor (extractor) is reduced once, and the linear dimensionality reduction technique is used to improve the efficiency and recognition rate before the FV enters the classifier. The simulation results show that the testing and training time of using dimensionality reduction technique can be reduced by at least two orders of magnitude compared with that without dimensionality reduction technique. And the recognition rate of UCF11 is raised to 92.51 and HMDB51 is raised to 56.47.3) A fast classification method and fusion strategy are designed: the fast classification method uses the extreme learning machine, and the fusion strategy is divided into pre-fusion strategy and post-fusion strategy. The former fusion strategy is divided into the bottom descriptor (position 1) fusion and the middle level descriptor (position 2) fusion. The post fusion strategy mainly analyzes and compares the recognition rate through six different rules, which improves the efficiency and recognition rate of large class behavior recognition. The experimental results show that the training time and test time of ELM are at least 10 times lower than that of SVM. The quadrature of position 2 fusion and post fusion is the most stable fusion with the highest recognition rate. Based on the above research, an improved behavior recognition architecture based on moving boundary sampling and multiple dimensionality reduction methods is proposed to improve the efficiency and recognition rate of behavior recognition. A dimensionality reduction method based on principal component analysis (PCA) with incomplete energy is designed. According to the energy ratio method, the eigenvalue is greater than the average eigenvalue, and the eigenvalue is greater than 1kW / s stick and the improved broken_stick scheme to select the number of eigenvalues to maximize the recognition rate. The experimental results show that the recognition rate of the proposed scheme is better than that of the full energy broken stick scheme, and the efficiency is also improved.
【學(xué)位授予單位】:東南大學(xué)
【學(xué)位級(jí)別】:博士
【學(xué)位授予年份】:2016
【分類號(hào)】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 李寧;須德;傅曉英;袁玲;;結(jié)合人體運(yùn)動(dòng)特征的行為識(shí)別[J];北京交通大學(xué)學(xué)報(bào);2009年02期

2 張偉東;陳峰;徐文立;杜友田;;基于階層多觀測模型的多人行為識(shí)別[J];清華大學(xué)學(xué)報(bào)(自然科學(xué)版);2009年07期

3 吳聯(lián)世;夏利民;羅大庸;;人的交互行為識(shí)別與理解研究綜述[J];計(jì)算機(jī)應(yīng)用與軟件;2011年11期

4 申曉霞;張樺;高贊;薛彥兵;徐光平;;一種魯棒的基于深度數(shù)據(jù)的行為識(shí)別算法[J];光電子.激光;2013年08期

5 鄭胤;陳權(quán)崎;章毓晉;;深度學(xué)習(xí)及其在目標(biāo)和行為識(shí)別中的新進(jìn)展[J];中國圖象圖形學(xué)報(bào);2014年02期

6 曾青松;余明輝;賀衛(wèi)國;李玲;;一種行為識(shí)別的新方法[J];昆明理工大學(xué)學(xué)報(bào)(理工版);2009年06期

7 谷軍霞;丁曉青;王生進(jìn);;基于人體行為3D模型的2D行為識(shí)別[J];自動(dòng)化學(xué)報(bào);2010年01期

8 李英杰;尹怡欣;鄧飛;;一種有效的行為識(shí)別視頻特征[J];計(jì)算機(jī)應(yīng)用;2011年02期

9 王新旭;;基于視覺的人體行為識(shí)別研究[J];中國新通信;2012年21期

10 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動(dòng)用戶行為識(shí)別中的應(yīng)用[J];北京郵電大學(xué)學(xué)報(bào);2014年S1期

相關(guān)會(huì)議論文 前7條

1 苗強(qiáng);周興社;於志文;倪紅波;;一種非覺察式的睡眠行為識(shí)別技術(shù)研究[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

2 齊娟;陳益強(qiáng);劉軍發(fā);;基于多模信息感知與融合的行為識(shí)別[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

3 方帥;曹洋;王浩;;視頻監(jiān)控中的行為識(shí)別[A];2007中國控制與決策學(xué)術(shù)年會(huì)論文集[C];2007年

4 黃紫藤;吳玲達(dá);;監(jiān)控視頻中簡單人物行為識(shí)別研究[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

5 安國成;羅志強(qiáng);李洪研;;改進(jìn)運(yùn)動(dòng)歷史圖的異常行為識(shí)別算法[A];第八屆中國智能交通年會(huì)優(yōu)秀論文集——智能交通與安全[C];2013年

6 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動(dòng)用戶行為識(shí)別中的應(yīng)用研究[A];2013年全國通信軟件學(xué)術(shù)會(huì)議論文集[C];2013年

7 劉威;李石堅(jiān);潘綱;;uRecorder:基于位置的社會(huì)行為自動(dòng)日志[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

相關(guān)重要報(bào)紙文章 前4條

1 李晨光;導(dǎo)入CIS要注意什么?[N];河北經(jīng)濟(jì)日報(bào);2001年

2 農(nóng)發(fā)行鹿邑支行黨支部書記 行長 劉永貞;發(fā)行形象與文化落地農(nóng)[N];周口日報(bào);2007年

3 東林;行為識(shí)別新技術(shù)讓監(jiān)控沒有“死角”[N];人民公安報(bào);2007年

4 田凱 徐蕊 李政育 信木祥;博物館安全的國際經(jīng)驗(yàn)[N];中國文物報(bào);2014年

相關(guān)博士學(xué)位論文 前10條

1 邵延華;基于計(jì)算機(jī)視覺的人體行為識(shí)別研究[D];重慶大學(xué);2015年

2 仝鈺;基于條件隨機(jī)場的智能家居行為識(shí)別研究[D];大連海事大學(xué);2015年

3 馮銀付;多模態(tài)人體行為識(shí)別技術(shù)研究[D];浙江大學(xué);2015年

4 姜新波;基于三維骨架序列的人體行為識(shí)別研究[D];山東大學(xué);2015年

5 韓姍姍;基于視覺的運(yùn)動(dòng)人體特征描述與行為識(shí)別研究[D];浙江工業(yè)大學(xué);2015年

6 裴利沈;視頻中人體行為識(shí)別若干問題研究[D];電子科技大學(xué);2016年

7 周同馳;行為識(shí)別中基于局部時(shí)空關(guān)系的特征模型研究[D];東南大學(xué);2016年

8 徐海燕;復(fù)雜環(huán)境下行為識(shí)別特征提取方法研究[D];東南大學(xué);2016年

9 何衛(wèi)華;人體行為識(shí)別關(guān)鍵技術(shù)研究[D];重慶大學(xué);2012年

10 吳秋霞;復(fù)雜場景下的人體行為識(shí)別[D];華南理工大學(xué);2012年

相關(guān)碩士學(xué)位論文 前10條

1 唐小琴;基于全局和局部運(yùn)動(dòng)模式的人體行為識(shí)別研究[D];西南大學(xué);2015年

2 胡秋揚(yáng);可穿戴式個(gè)人室內(nèi)位置和行為監(jiān)測系統(tǒng)[D];浙江大學(xué);2015年

3 陳鈺昕;基于時(shí)空特性的人體行為識(shí)別研究[D];燕山大學(xué);2015年

4 任亮;智能車環(huán)境下車輛典型行為識(shí)別方法研究[D];長安大學(xué);2015年

5 金澤豪;并行化的人體行為識(shí)別方法研究與實(shí)現(xiàn)[D];華南理工大學(xué);2015年

6 王呈;穿戴式多傳感器人體日;顒(dòng)監(jiān)測系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D];南京理工大學(xué);2015年

7 王露;基于稀疏時(shí)空特征的人體行為識(shí)別研究[D];蘇州大學(xué);2015年

8 于靜;基于物品信息和人體深度信息的行為識(shí)別研究[D];山東大學(xué);2015年

9 章瑜;人體運(yùn)動(dòng)行為識(shí)別相關(guān)方法研究[D];南京師范大學(xué);2015年

10 趙揚(yáng);家庭智能空間下基于行走軌跡的人體行為理解[D];山東大學(xué);2015年

,

本文編號(hào):2113483

資料下載
論文發(fā)表

本文鏈接:http://www.wukwdryxk.cn/shoufeilunwen/xxkjbs/2113483.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶396de***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com
国产一区二区三区四区老人| 人妻无码久久中文字幕专区 | 亚洲精品一区二区口爆| 国产精品免费av片在线观看| 免费人妻无码不卡中文字幕18禁| 狠狠爱网站| 日本欧美大码aⅴ在线播放| 精品人妻一区二区三区浪潮在线 | 国产精品一区二区三| 久久啪久久mm精品23| 国产午夜福利在线观看视龊| 无码视频一区二区三区| 狠狠色色综合网站| 中国熟妇| 最新欧美shemale人妖护士| 国产精品日本| 人妻久久无码精品区| 日本亚洲欧洲无免费码在线| 男人的天堂免费一区二区视频 | 国产一区二区三区在线| 我在开会他在下添好爽视频| 欧美性| 久久久一本精品99久久精品66直播| 中文字幕高清免费日韩视频在线 | 国产啪精品视频网站丝袜| 宅男666在线永久免费观看| 中文字幕乱码一区二区免费| 出轨的新婚少妇| 精品久久久一区| ess少妇精选pics| 69天堂| 99久久免费精品国产72精品九九| 中文字幕AV不卡电影网| 亚洲精品tv久久久久久久久| 日韩精品无码人妻一区二区三区| 2021在线精品自偷自拍无码| 精品久久久噜噜噜久久| www.狠狠| 一人一心一境界,一思一念一尘缘| 欧美videossexo高潮| 69亚洲精品|