亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

基于產(chǎn)生式和判別式結(jié)合的人體運(yùn)動(dòng)跟蹤方法與流程

文檔序號(hào):12598049閱讀:222來(lái)源:國(guó)知局
基于產(chǎn)生式和判別式結(jié)合的人體運(yùn)動(dòng)跟蹤方法與流程

本發(fā)明屬于圖像處理技術(shù)領(lǐng)域,更進(jìn)一步涉及計(jì)算機(jī)視覺(jué)領(lǐng)域中實(shí)現(xiàn)人體運(yùn)動(dòng)跟蹤的一種方法,采用一種多目標(biāo)優(yōu)化的方法實(shí)現(xiàn)人體運(yùn)動(dòng)跟蹤和三維姿態(tài)估計(jì),可用于體育訓(xùn)練和動(dòng)畫(huà)制作等領(lǐng)域。



背景技術(shù):

人體運(yùn)動(dòng)跟蹤的主要任務(wù)是從視頻圖像中檢測(cè)出人體輪廓,再對(duì)人體的關(guān)節(jié)點(diǎn)進(jìn)行定位,在此基礎(chǔ)上識(shí)別出人體運(yùn)動(dòng)姿態(tài),最終重建三維人體運(yùn)動(dòng)姿態(tài)。由于目前視頻圖像是三維場(chǎng)景中的人體輪廓在二維圖像上的投影,所以,丟失了大量的深度信息,并且人體運(yùn)動(dòng)過(guò)程中,人體四肢自遮擋現(xiàn)象時(shí)常發(fā)生,視頻圖像存在歧義性,這使得很難從無(wú)標(biāo)記單目視頻中恢復(fù)人體運(yùn)動(dòng)姿態(tài)。但是,由于基于單目視頻的人體運(yùn)動(dòng)跟蹤在醫(yī)學(xué)治療、體育訓(xùn)練、動(dòng)畫(huà)制作、智能監(jiān)控系統(tǒng)等各個(gè)方面都有潛在的應(yīng)用和經(jīng)濟(jì)價(jià)值,所以受到了很多學(xué)者的關(guān)注。至今,基于視頻的人體運(yùn)動(dòng)跟蹤的方法主要分為兩大類:基于學(xué)習(xí)的人體運(yùn)動(dòng)跟蹤和基于模型的人體運(yùn)動(dòng)跟蹤。

第一種,基于學(xué)習(xí)的人體運(yùn)動(dòng)跟蹤方法:該方法首先在訓(xùn)練的視頻圖像和目標(biāo)視頻圖像數(shù)據(jù)庫(kù)里提取精確的圖像特征,然后學(xué)習(xí)訓(xùn)練視頻圖像數(shù)據(jù)庫(kù)的圖像特征與運(yùn)動(dòng)捕捉數(shù)據(jù)之間的映射,最后在目標(biāo)視頻圖像上直接使用人體特征恢復(fù)三維姿態(tài)。如Urtasun et al.(R.Urtasun and T.Darrell.Local Probabilistic Regression for Activity-Independent Human Pose Inference IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2008)文章,就是使用平衡高斯過(guò)程動(dòng)態(tài)模型指導(dǎo)在單目視頻序列中跟蹤三維人體運(yùn)動(dòng),該動(dòng)態(tài)模型是從較少的包含多種模式的運(yùn)動(dòng)訓(xùn)練數(shù)據(jù)中學(xué)習(xí)得到。Sigal et al.(L.Sigal and M.Black.Measure Locally,Reason Globally:Occlusion-sensitive articulated pose estimation.IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2006.)在該文章中提出一個(gè)貝葉斯框架,該框架包含序列重要性采樣和退火粒子濾波,并且在跟蹤時(shí)使用了多種運(yùn)動(dòng)模型。為了使三維姿態(tài)恢復(fù)更加符合解剖學(xué)關(guān)節(jié)約束,同時(shí)使搜索空間降維,該框架從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)運(yùn)動(dòng)模型,使用虛擬標(biāo)記的歐式距離差作為量測(cè)誤差。該方法的缺點(diǎn)是提取精確的圖像特征需要花費(fèi)大量的時(shí)間,而且視頻跟蹤受到是否存在學(xué)習(xí)數(shù)據(jù)庫(kù)的限制,若不存在學(xué)習(xí)數(shù)據(jù)庫(kù),則無(wú)法完成視頻跟蹤。

第二種,基于模型的人體運(yùn)動(dòng)跟蹤方法:該方法不需要學(xué)習(xí)數(shù)據(jù)庫(kù),直接在目標(biāo)視頻圖像上提取圖像信息,建立目標(biāo)圖像與模型的相似度函數(shù),然后對(duì)相似度函數(shù)進(jìn)行優(yōu)化從而在高維的狀態(tài)空間中搜索最優(yōu)的狀態(tài),從而獲得準(zhǔn)確的人體姿態(tài)。如法國(guó)國(guó)家信息與自動(dòng)化研究所(INRIA)的C.Sminchisescu和A.Jepson.在(C.Sminchisescu and A.Jepson.Generative Modeling for Continuous Non-Linearly Embedded Visual Inference.International Conference on Machine Learning(ICML),2004)的文章中采用此種方法實(shí)現(xiàn)了使用多種人體模型的運(yùn)動(dòng)跟蹤。Deutscher et al.在(J.Deutscher and I.Reid.Articulated body motion capture by stochastic search.International Journal of ComputerVision(IJCV),61(2):185-205,2004.)的文章中使用邊界和側(cè)影作為圖像特征構(gòu)建加權(quán)的相似度函數(shù),應(yīng)用退火粒子濾波實(shí)現(xiàn)了人體運(yùn)動(dòng)跟蹤。由于該方法只建立一個(gè)相似度函數(shù),而用于優(yōu)化相似度函數(shù)的方法在搜索最優(yōu)結(jié)果時(shí)很容易陷入局部最優(yōu),導(dǎo)致跟蹤到的人體姿態(tài)不準(zhǔn)確,而且算法的時(shí)間復(fù)雜度高。

湖南大學(xué)申請(qǐng)的專利申請(qǐng)?zhí)?00910043537.5,公開(kāi)號(hào)CN101561928的“基于屬性關(guān)系圖外觀模型的多人體跟蹤方法”,該專利首先對(duì)當(dāng)前幀人體檢測(cè)區(qū)域建立屬性關(guān)系圖外觀模型,計(jì)算與上一幀跟蹤人體的屬性關(guān)系圖外觀模型的相似度,根據(jù)相似度確定幀間人體的匹配關(guān)系,從而確定人體跟蹤情況及獲取運(yùn)動(dòng)軌跡。該專利申請(qǐng)公開(kāi)的方法存在的不足是:只能對(duì)固定場(chǎng)景的運(yùn)動(dòng)者進(jìn)行人體跟蹤,只通過(guò)外觀模型的相似度不足以準(zhǔn)確的跟蹤人體姿態(tài)。



技術(shù)實(shí)現(xiàn)要素:

本發(fā)明的目的在于針對(duì)上述現(xiàn)有技術(shù)中的不足,提出一種基于模型的多目標(biāo)優(yōu)化的人體運(yùn)動(dòng)跟蹤方法,實(shí)現(xiàn)對(duì)不同場(chǎng)景中的運(yùn)動(dòng)者進(jìn)行準(zhǔn)確的人體姿態(tài)跟蹤。

實(shí)現(xiàn)本發(fā)明目的的技術(shù)方案是,采用基于模型的方法,建立人體骨架模型,利用視頻圖像提取關(guān)節(jié)點(diǎn)的位置和灰度信息,構(gòu)建兩個(gè)距離相似度函數(shù),通過(guò)對(duì)構(gòu)建的多目標(biāo)距離相似度函數(shù)進(jìn)行優(yōu)化,在人體骨骼長(zhǎng)度的約束下,對(duì)這兩個(gè)距離相似度函數(shù)采用多目標(biāo)優(yōu)化算法實(shí)現(xiàn)對(duì)人體運(yùn)動(dòng)姿態(tài)的跟蹤。其實(shí)現(xiàn)步驟包括如下:

(1)用骨骼抽象的方法建立三維人體骨架模型:即將人體骨架按照15個(gè)關(guān)節(jié)劃分為14個(gè)部分,每部分由一根桿狀骨骼模型表達(dá),在空間用14條具有三維坐標(biāo)的關(guān)節(jié)點(diǎn)之間的直線段表示這14根桿狀骨骼模型,連接相應(yīng)的關(guān)節(jié)點(diǎn)坐標(biāo)組成整個(gè)三維人體骨架模型,當(dāng)輸入一組運(yùn)動(dòng)人體對(duì)應(yīng)的15個(gè)關(guān)節(jié)點(diǎn)的三維坐標(biāo)值時(shí),人體骨架模型將模擬出三維人體的運(yùn)動(dòng)姿態(tài);

(2)預(yù)處理人體視頻圖像

2a)輸入人體視頻圖像,通過(guò)背景差分獲得人體側(cè)影,提取人體輪廓,對(duì)人體輪廓進(jìn)行中軸細(xì)化處理,形成人體骨架線;

2b)在人體骨架線上沿骨架線搜索得到頭、腹部、膝、腳節(jié)點(diǎn)坐標(biāo)位置,使用粒子濾波預(yù)測(cè)檢測(cè)出其余的人體關(guān)節(jié)點(diǎn)坐標(biāo)位置;

(3)提取視頻圖像的第二代條帶波變換Bandlet2的圖像特征r,作為雙高斯過(guò)程的輸入,使用雙高斯TGP算法,預(yù)測(cè)出第i幀人體的3維坐標(biāo)關(guān)節(jié)點(diǎn)v′i,i∈[1,N],獲得視頻序列的3D關(guān)節(jié)點(diǎn)輸出為V′,

r=(r1,r2,r3,...,rN)T,V′=(v1′,v2′,v3′,...,vN′)T,]]>

其中,ri為第i幀圖像的Bandlet2為圖像特征,i∈[1,N],(·)T表示矩陣的轉(zhuǎn)秩;

(4)初始化人體骨架模型

4a)對(duì)步驟2b)得到的初始時(shí)刻視頻圖像關(guān)節(jié)點(diǎn)位置進(jìn)行手工標(biāo)定,由標(biāo)定數(shù)據(jù)設(shè)置初始時(shí)刻人體姿態(tài)對(duì)應(yīng)的人體骨架記為v0,其中v0為2b)中檢測(cè)到的第一幀視頻圖像的人體關(guān)節(jié)點(diǎn)位置;

4b)將t-1時(shí)刻跟蹤得到的人體骨架作為t時(shí)刻的初始化人體骨架,t>0;

(5)構(gòu)建相似度函數(shù)

5a)將人體的3D關(guān)節(jié)點(diǎn)用V表示,2D關(guān)節(jié)點(diǎn)用Vq表示,Vq為V在2D平面上的投影,V為待估計(jì)量:

V=(v1,v2,v3,...,vN)T,Vq=(v1q,v2q,v3q,...,vNq),]]>

其中,vi為第i幀圖像的3D關(guān)節(jié)點(diǎn),i∈[1,N],為第i幀的2D關(guān)節(jié)點(diǎn),i∈[1,N],N為視頻幀數(shù);

5b)將用雙高斯TGP方法預(yù)測(cè)出的第i幀人體3D關(guān)節(jié)點(diǎn)V′在2D平面上做投影,得到2D投影的關(guān)節(jié)點(diǎn)坐標(biāo)V′p

Vp′=(vp1′,vp2′,vp3′,...,vpN′)T,]]>

其中,為第i幀關(guān)節(jié)點(diǎn)3D關(guān)節(jié)點(diǎn)在2D上的投影,i∈[1,N];

5c)分別建立3D下的距離相似度函數(shù)f1(vi,v′i)和2D下的距離相似度函數(shù)

(6)利用非支配鄰域免疫算法,在t時(shí)刻對(duì)兩個(gè)距離相似度函數(shù)f1(vi,v′i)、在骨骼長(zhǎng)度約束下進(jìn)行優(yōu)化,獲得t時(shí)刻一組與真實(shí)人體運(yùn)動(dòng)姿態(tài)相似的人體骨架;

(7)在t時(shí)刻對(duì)每一個(gè)由步驟(6)得到的人體骨架獲得骨架,計(jì)算該骨架關(guān)節(jié)點(diǎn)與t-1時(shí)刻跟蹤到的人體骨架關(guān)節(jié)點(diǎn)的歐式距離,選擇出歐式距離最小的人體骨架作為t時(shí)刻跟蹤到的最精確的人體骨架。

本發(fā)明與現(xiàn)有的技術(shù)相比具有以下優(yōu)點(diǎn):

1、由于本發(fā)明使用了粒子濾波預(yù)測(cè)人體關(guān)節(jié)點(diǎn)獲得更精確的人體關(guān)節(jié)點(diǎn)圖像位置,與現(xiàn)有技術(shù)相比獲取關(guān)節(jié)點(diǎn)位置的方法更簡(jiǎn)單,且時(shí)間復(fù)雜度更低。

2、本發(fā)明由于結(jié)合了當(dāng)前人體跟蹤領(lǐng)域流行的產(chǎn)生式和判別式的方法,分別建立了2D和3D的距離相似度函數(shù),可以更好的利用視頻圖像信息。

3、本發(fā)明由于使用了多目標(biāo)進(jìn)化算法的非支配鄰域免疫算法優(yōu)化目標(biāo)函數(shù),較現(xiàn)有的單目標(biāo)優(yōu)化人體跟蹤方法可以避免陷入局部最優(yōu),提高了人體運(yùn)動(dòng)跟蹤的精確度。

附圖說(shuō)明

圖1為本發(fā)明的總流程圖。

圖2為本發(fā)明中的人體關(guān)節(jié)點(diǎn)檢測(cè)子流程圖。

圖3為本發(fā)明對(duì)行走姿態(tài)的仿真實(shí)驗(yàn)的三維跟蹤結(jié)果圖。

圖4為本發(fā)明對(duì)拳擊姿態(tài)的仿真實(shí)驗(yàn)的三維跟蹤結(jié)果圖。

具體實(shí)施方式

下面結(jié)合附圖對(duì)本發(fā)明做進(jìn)一步的描述。

參照?qǐng)D1,本發(fā)明的具體實(shí)現(xiàn)步驟如下:

步驟1,建立人體骨架模型。

根據(jù)解剖學(xué)知識(shí),人體骨架雖然受年齡和健康的影響而不斷發(fā)生變化,但是骨架的組成是不變的,人體大致包括:脛骨、股骨、胯骨、軀干、橈骨、肱骨、鎖骨、頸、頭。在這種情況下本發(fā)明把人體表示為由15個(gè)關(guān)節(jié)點(diǎn)和14跟桿狀骨骼組成的骨架模型。在虛擬空間用14條具有三維坐標(biāo)的關(guān)節(jié)點(diǎn)之間的直線段表示這14根桿狀骨骼模型。

將每一個(gè)關(guān)節(jié)點(diǎn)的坐標(biāo)表示為i∈[1,15],n∈[1,N],N為待跟蹤人體運(yùn)動(dòng)視頻幀數(shù);將第n幀人體骨架表示為相鄰兩個(gè)關(guān)節(jié)點(diǎn)的骨骼長(zhǎng)度表示為p,q∈[1,15],由此得到人體骨架模型的限制條件||Livn||=li,i=1,2,…,其中Li是3×15矩陣,li是第i根骨骼的長(zhǎng)度,m是總的骨骼數(shù);

在上述骨骼約束||Livn||=li,i=1,2,…下,由相鄰的關(guān)節(jié)點(diǎn)連接組成整個(gè)三維人體骨架模型,當(dāng)輸入一組對(duì)應(yīng)人體運(yùn)動(dòng)時(shí)15個(gè)關(guān)節(jié)點(diǎn)的三維坐標(biāo)值時(shí),人體骨架模型將模擬出運(yùn)動(dòng)的三維人體姿態(tài)。

步驟2,預(yù)處理視頻圖像。

參照?qǐng)D2,本步驟的具體實(shí)現(xiàn)如下:

2a)提取人體側(cè)影的骨架線:

2a1)輸入人體視頻圖像,采用最小平方中值LMedS方法獲取背景圖像;

2a2)將獲得的背景圖像與人體運(yùn)動(dòng)圖像做像素差,獲得背景差圖像;

2a3)對(duì)獲得的背景差圖像采用形態(tài)學(xué)方法清除背景差圖像中的分割噪聲,得到清晰的人體側(cè)影;

2a4)對(duì)獲得的人體側(cè)影采用邊緣跟蹤算法獲得人體側(cè)影外輪廓,提取側(cè)影外輪廓的中軸線細(xì)化人體側(cè)影,得到人體側(cè)影的骨架線;

2b)在步驟2a)中獲得的人體側(cè)影的骨架線上沿骨架線搜索,得到頭、根、膝、腳節(jié)點(diǎn)的坐標(biāo)位置:

2b1)使用同心圓模板沿著骨架線搜索,將落入圓環(huán)的人體側(cè)影輪廓點(diǎn)最多時(shí)的圓心作為頭節(jié)點(diǎn);

2b2)選取人體側(cè)影重心部位為根節(jié)點(diǎn),將所有人體側(cè)影點(diǎn)x坐標(biāo)值的算術(shù)平均值作為根節(jié)點(diǎn)的x坐標(biāo),將y坐標(biāo)值的算術(shù)平均值作為根節(jié)點(diǎn)的y坐標(biāo);

2b3)將三維人體骨架模型以根節(jié)點(diǎn)為基準(zhǔn)在視頻圖像上投影,得到人體軀干中心點(diǎn)、鎖骨關(guān)節(jié)點(diǎn)和左右臀部關(guān)節(jié)點(diǎn);

2b4)根據(jù)以上獲得的頭,根關(guān)節(jié)點(diǎn),使用粒子濾波檢測(cè)出手、肘、肩、膝和腳關(guān)節(jié)點(diǎn)的坐標(biāo)位置。

步驟3:提取視頻圖像的第二代條帶波變換Bandlet2的圖像特征r:

3a)輸入待處理視頻圖像,提取圖像中人體框圖,對(duì)框圖進(jìn)行二維多尺度小波變換;

3b)對(duì)二維多尺度小波變換后的圖像用四叉樹(shù)劃分算法和自底向上融合法則尋找并量化最優(yōu)幾何流方向;

3c)將量化后的最優(yōu)幾何流方向信號(hào)做一維小波變換,重組為二維形式,得到Bandelet2系數(shù)矩陣;

3d)提取最大幾何流統(tǒng)計(jì)特征作為圖像的Bandlet2特征r,r=(r1,...ri,...rN)T,其中,ri為第i幀圖像的Bandlet2圖像特征,i∈[1,N],N為視頻幀數(shù)(·)T表示矩陣的轉(zhuǎn)置。

步驟4:用步驟3提取的視頻圖像的第二代條帶波變換Bandlet2圖像特征r,作為雙高斯方法的輸入,預(yù)測(cè)出第i幀人體的3維坐標(biāo)關(guān)節(jié)點(diǎn)v′i

((V′)(d))T(vi′)(d)∝NR(0,KRKRr(KRr)TKR(r,r)),]]>

其中,NR(·)表示高斯過(guò)程,(·)T表示矩陣的轉(zhuǎn)置,r為輸入的bandlet2特征,V′為待預(yù)測(cè)人體姿態(tài)的3D關(guān)節(jié)點(diǎn)輸出,V′=(v′1,v′2,v′3...,v′N)T,N為視頻幀數(shù),((V′)(d))T是待預(yù)測(cè)人體姿態(tài)V′的第d行即第d幀的人體姿態(tài),(v′i)(d)是待預(yù)測(cè)的第i幀人體的3維關(guān)節(jié)點(diǎn)v′i中的第d個(gè)關(guān)節(jié)點(diǎn)坐標(biāo),KR(r,r)為零,KR是一個(gè)N×N的矩陣,KR中的第i行第j列的元素為(KR)ij,是一個(gè)N×1的列向量,中第i行元素為

(KRr)i=KR(ri,r),]]>KR(ri,r)=cov(f(ri),f(r)),

(KR)ij=KR(ri,rj),KR(ri,rj)=cov(f(ri),f(rj)),

式中cov(f(ri),f(rj))是f(ri),f(rj)之間的協(xié)方差函數(shù),f(ri)是第i幀的bandlet2特征的零均值高斯函數(shù),f(rj)是第j幀的bandlet2特征的零均值高斯函數(shù),f(r)是輸入的bandlet2特征的零均值高斯函數(shù)。

步驟5:初始化人體骨架模型

5a)對(duì)步驟2b)得到的初始時(shí)刻視頻圖像關(guān)節(jié)點(diǎn)位置進(jìn)行手工標(biāo)定,由標(biāo)定數(shù)據(jù)設(shè)置初始時(shí)刻人體姿態(tài)對(duì)應(yīng)的人體骨架為v0,其中v0為2b)中檢測(cè)到的第一幀視頻圖像的人體關(guān)節(jié)點(diǎn)位置;

5b)將t-1時(shí)刻跟蹤得到的人體骨架作為t時(shí)刻的初始化人體骨架,t>0。

步驟6:建立相似度函數(shù)

6a)根據(jù)雙高斯預(yù)測(cè)得到的3D關(guān)節(jié)點(diǎn)和待預(yù)測(cè)的人體關(guān)節(jié)點(diǎn),建立第n幀視頻下的3D距離相似度函數(shù)f1(vn,v′n):

f1(vn,vn′)=Σi=115||vni-vni′||2,n∈[1,N],]]>

其中,N為視頻幀數(shù),||·||2表示2范數(shù),為待預(yù)測(cè)關(guān)節(jié)點(diǎn),為雙高斯預(yù)測(cè)到的關(guān)節(jié)點(diǎn);

6b)根據(jù)雙高斯預(yù)測(cè)到的關(guān)節(jié)點(diǎn)和待預(yù)測(cè)的人體關(guān)節(jié)點(diǎn)在2D平面上的投影,建立第n幀視頻下的2D距離相似度函數(shù)

f2(vnq,vpn′)=Σi=115||vniq-vpni′||2,n∈[1,N],]]>

其中,N為視頻幀數(shù),||·||2表示2范數(shù),為待預(yù)測(cè)關(guān)節(jié)點(diǎn)的投影,為雙高斯預(yù)測(cè)到的關(guān)節(jié)點(diǎn)的投影。

步驟7:優(yōu)化相似度函數(shù)

在步驟6中得到的兩個(gè)相似度函數(shù)和步驟1中的人體骨骼長(zhǎng)度的約束下,設(shè)定求解兩個(gè)相似度函數(shù)f1(vn,v′n)和最小值的方程組:

argminf1(vn,vn′)=Σi=115||vni-vni′||2,argminf2(vnq,vpn′)=Σi=115||vniq-vpni′||2,s.t.||Livn||=li,i=1,2,···]]>

其中,li為第i個(gè)人體骨骼長(zhǎng)度,m為人體骨骼數(shù),n∈[1,N],N為視頻幀數(shù),arg min(·)表示求最小值,||·||2表示2范數(shù)。

利用非支配鄰域免疫算法,在t時(shí)刻在骨骼長(zhǎng)度約束下求解方程組的最小值,獲得t時(shí)刻一組與真實(shí)人體運(yùn)動(dòng)姿態(tài)相似的人體骨架。

步驟8:選擇人體最佳運(yùn)動(dòng)姿態(tài)

在t時(shí)刻對(duì)每一個(gè)由步驟7得到的人體骨架,計(jì)算該骨架關(guān)節(jié)點(diǎn)與t-1時(shí)刻跟蹤到的人體骨架關(guān)節(jié)點(diǎn)的歐式距離,選擇出歐式距離最小的人體骨架作為t時(shí)刻跟蹤到的最精確的人體骨架。

實(shí)驗(yàn)仿真

本發(fā)明的效果可以通過(guò)以下仿真實(shí)驗(yàn)得到驗(yàn)證:

本發(fā)明的仿真實(shí)驗(yàn)在Matlab 2010a上編譯完成,執(zhí)行環(huán)境為Windows框架下的HP工作站。本發(fā)明仿真實(shí)驗(yàn)所用的視頻圖像來(lái)自美國(guó)布朗大學(xué)的HumanEva數(shù)據(jù)庫(kù),視頻圖像大小為320×240。

仿真內(nèi)容

仿真1,使用本發(fā)明對(duì)行走狀態(tài)進(jìn)行跟蹤,結(jié)果如圖3所示。圖3中的人體是原始視頻圖像,人體表面的骨架線為跟蹤得到的最優(yōu)運(yùn)動(dòng)狀態(tài)。

從圖3可以看出,跟蹤結(jié)果沒(méi)有出現(xiàn)歧義的姿態(tài),準(zhǔn)確恢復(fù)了人體運(yùn)動(dòng)姿態(tài),表明本發(fā)明對(duì)簡(jiǎn)單的運(yùn)動(dòng)姿態(tài)可以實(shí)現(xiàn)準(zhǔn)確的跟蹤。

仿真2,使用本發(fā)明對(duì)拳擊狀態(tài)進(jìn)行跟蹤,結(jié)果如圖4所示。圖4中的人體圖像是原始視頻圖像,人體圖像表面的骨架線為跟蹤得到的最優(yōu)運(yùn)動(dòng)狀態(tài)。

從圖4中可以看出,跟蹤結(jié)果沒(méi)有歧義姿態(tài)出現(xiàn),準(zhǔn)確恢復(fù)了人體運(yùn)動(dòng)姿態(tài),表明本方法對(duì)復(fù)雜的人體運(yùn)動(dòng)狀態(tài)也可以實(shí)現(xiàn)準(zhǔn)確跟蹤。

仿真結(jié)果分析:從圖3、圖4還可看出,本發(fā)明對(duì)不同的運(yùn)動(dòng)狀態(tài)視頻圖像跟蹤結(jié)果與真實(shí)的人體運(yùn)動(dòng)姿態(tài)基本相同,有效的解決了人體運(yùn)動(dòng)跟蹤的歧義性問(wèn)題,提高了跟蹤的準(zhǔn)確性和穩(wěn)定性。主要原因在于本方法采用了兩個(gè)相似度函數(shù),更好的利用視頻圖像信息,在最小化兩個(gè)相似度函數(shù)時(shí)加入了人體骨架長(zhǎng)度約束條件,限制了歧義人體姿態(tài)出現(xiàn)。

當(dāng)前第1頁(yè)1 2 3 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1