亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種應用在基于Kinect的三維仿真試衣中的人體姿態(tài)跟蹤方法

文檔序號:6375566閱讀:416來源:國知局
專利名稱:一種應用在基于Kinect的三維仿真試衣中的人體姿態(tài)跟蹤方法
一種應用在基于Kinect的三維仿真試衣中的人體姿態(tài)跟蹤方法領域領域本發(fā)明涉及ー種人體影像跟蹤方法,具體的說是ー種應用在基于Kinect的三維仿真試衣中的人體姿態(tài)跟蹤方法。
背景技術
基于傳統(tǒng)試衣所存有的不足,人們研發(fā)了基于人體影像與虛擬產品圖相結合的三維立體試衣的方式替代實體試衣,使購物者可以把自己喜歡的服飾穿戴到模特身上,具體的說是將衣物的圖片與模特影像相組合,方便直觀地看用戶挑選的衣服、鞋帽等搭配效果,直到搭配出用戶自己滿意的風格后再買。現(xiàn)有的的三維立體試衣裝置中,多是先使用Kinect設備作為其人體識別裝置,從 而獲取人體影像信息用于后續(xù)處理。為帶來更好的試衣真實感,就需要系統(tǒng)能夠對使用者的人體姿態(tài)進行識別跟蹤,方能控制衣物圖像也人體姿態(tài)同步適配,實現(xiàn)最真實的模擬試衣效果。但僅利用Kinect設備所獲取三維坐標數(shù)據(jù),現(xiàn)有的方法很難進行人體姿態(tài)的識另O、判斷和跟蹤,故而常常需要另行增添硬件設備,進行人體姿態(tài)數(shù)據(jù)的獲取。

發(fā)明內容
本發(fā)明的目的在于提供一種可僅利用Kinect設備所獲取三維坐標數(shù)據(jù)對人體姿態(tài)進行識別、判斷和跟蹤的方法。本發(fā)明的實現(xiàn)包括以下步驟步驟一,通過Kinect獲取人體三維坐標信息以及人體影像數(shù)據(jù),將人體影像數(shù)據(jù)與數(shù)據(jù)庫模型數(shù)據(jù)進行對比,獲取人體影像中左肩膀點,右肩膀點,和肩膀中心點的三維坐標數(shù)據(jù);步驟ニ,判斷左、右肩膀點的Z軸大小,取數(shù)值小的與肩膀中心點的Z軸進行計算,將肩膀中心點的X軸與Z軸分別減去數(shù)值小的肩膀點的X軸與Z軸,從而得到的差值數(shù)據(jù)保存下來;步驟三,將差值數(shù)據(jù)代入系統(tǒng)函數(shù)System. Math. Asin中計算出其左、右肩膀點連線角度Angle ;步驟四,設定一個為O的角度數(shù)modelCurr,將modelCurr與Angle比較,當modelCurr加O. If度小于Angle時,衣物模型以O. If度的速度正旋轉一次,完成后將modelCurr加O. If度,當modelCurr減去0. If度大于Angle,衣物模型以0. If度的反速度旋轉一次,完成后將modelCurr減0. If度,直至modelCurr與Angle數(shù)值相同。采用本發(fā)明的計算方法,可大大減少姿態(tài)跟蹤的計算量,可降低對硬件設備的要求。


附圖I是本發(fā)明的工作流程圖,也是摘要用圖。
具體實施例方式現(xiàn)結合附圖舉ー實施例,方便對本發(fā)明進行理解。本發(fā)明的實現(xiàn)包括以下步驟步驟一,通過Kinect獲取人體三維坐標信息以及人體影像數(shù)據(jù),將人體影像數(shù)據(jù)與數(shù)據(jù)庫模型數(shù)據(jù)進行對比,獲取人體影像中左肩膀點,右肩膀點,和肩膀中心點的三維坐標數(shù)據(jù);步驟ニ,判斷左、右肩膀點的Z軸大小,取數(shù)值小的與肩膀中心點的Z軸進行計算,將肩膀中心點的X軸與Z軸分別減去數(shù)值小的肩膀點的X軸與Z軸,從而得到的差值數(shù)據(jù)保存下來; 步驟三,將差值數(shù)據(jù)代入系統(tǒng)函數(shù)System. Math. Asin中計算出其左、右肩膀點連線角度Angle。步驟四,設定一個為O的角度數(shù)modelCurr,將modelCurr與Angle比較,當modelCurr加O. If度小于Angle時,衣物模型以O. If度的速度正旋轉一次,完成后將modelCurr加O. If度,當modelCurr減去0. If度大于Angle,衣物模型以0. If度的反速度旋轉一次,完成后將modelCurr減0. If度,直至modelCurr與Angle數(shù)值相同。
權利要求
1.一種應用在基于Kinect的三維仿真試衣中的人體姿態(tài)跟蹤方法,其特征在于包括以下步驟步驟一,通過Kinect獲取人體三維坐標信息以及人體影像數(shù)據(jù),將人體影像數(shù)據(jù)與數(shù)據(jù)庫模型數(shù)據(jù)進行對比,獲取人體影像中左肩膀點,右肩膀點,和肩膀中心點的三維坐標數(shù)據(jù);步驟ニ,判斷左、右肩膀點的Z軸大小,取數(shù)值小的與肩膀中心點的Z軸進行計算,將肩膀中心點的X軸與Z軸分別減去數(shù)值小的肩膀點的X軸與Z軸,從而得到的差值數(shù)據(jù)保存下來;步驟三,將差值數(shù)據(jù)代入系統(tǒng)函數(shù)System. Math. Asin中計算出其左、右肩膀點連線角度Angle ;步驟四,設定ー個為O的角度數(shù)modelCurr,將modelCurr與Angle比較,當modelCurr加O. If度小于Angle時,衣物模型以O. If度的速度正旋轉一次,完成后將modelCurr加O. If度,當modelCurr減去O. If度大于Angle,衣物模型以O. If度的反速度旋轉一次,完成后將modelCurr減O. If度,直至modelCurr與Angle數(shù)值相同。
全文摘要
本發(fā)明的目的在于提供一種可僅利用Kinect設備所獲取三維坐標數(shù)據(jù)對人體姿態(tài)進行識別、判斷和跟蹤的方法。本發(fā)明的實現(xiàn)包括以下步驟步驟一,通過Kinect獲取人體三維坐標信息以及人體影像數(shù)據(jù),將人體影像數(shù)據(jù)與數(shù)據(jù)庫模型數(shù)據(jù)進行對比,獲取人體影像中左肩膀點,右肩膀點,和肩膀中心點的三維坐標數(shù)據(jù);步驟二,判斷左、右肩膀點的Z軸大小,取數(shù)值小的與肩膀中心點的Z軸進行計算,將肩膀中心點的X軸與Z軸分別減去數(shù)值小的肩膀點的X軸與Z軸,從而得到的差值數(shù)據(jù)保存下來。
文檔編號G06F19/00GK102867112SQ201210302999
公開日2013年1月9日 申請日期2012年8月24日 優(yōu)先權日2012年8月24日
發(fā)明者黃敏, 馬國權, 吳基作 申請人:黃敏
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1