亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

基于核密度估計的遮擋人體跟蹤方法

文檔序號:6508301閱讀:526來源:國知局
專利名稱:基于核密度估計的遮擋人體跟蹤方法
技術領域
本發(fā)明涉及一種基于核密度估計的遮擋人體跟蹤方法,具體地說,涉及一種對運 動人體的前景檢測結果進行遮擋人體跟蹤的方法。
背景技術
目標跟蹤是圖像處理、模式識別、計算機視覺等領域的研究熱點,在視頻監(jiān)控、智 能交通和軍事等方面有廣泛應用。視頻監(jiān)控最終目的是要用計算機視覺的方法,對被監(jiān)控 場景中的變化通過攝像機拍攝的圖像序列自動分析來進行定位識別和跟蹤,并在此基礎上 分析和判斷目標的行為,做到既能完成日常管理又能在異常情況下及時做出相應反應。一 個實用的跟蹤系統(tǒng)不但要求能夠?qū)崟r適應目標各種運動導致的外觀變化,而且要求對場景 中存在的諸如遮擋、光照變化等因素的影響不敏感??v觀國內(nèi)外對視頻監(jiān)控技術的研究,當前主要集中在多攝像機融合、攝像機標定、 目標檢測跟蹤、目標行為識別與描述等技術方面。其中運動目標跟蹤已成為模式識別、計算 機視覺、圖像處理、武器制導等領域重要研究課題,它將圖像處理、信息科學、自動控制等有 機結合起來,形成了一種能從圖像信號中自動識別目標、提取和預測目標位置信息、自動跟 蹤運動目標的技術。所謂的目標跟蹤就是通過分析圖像傳感器拍攝到的視頻序列,得到運動目標的運 動參數(shù)比如位置、加速度、速度、運動軌跡等等,以及運動目標的其他特征信息,從而進一步 處理與分析,實現(xiàn)對運動目標行為的理解,以完成更高一級的任務。一般視頻監(jiān)控系統(tǒng)分為目標檢測和人體跟蹤兩部分,幾乎每一個視頻監(jiān)控系統(tǒng)都 是從目標檢測這一步開始,所謂目標檢測,就是把目標物體對應的區(qū)域從視頻序列的圖像 中分離出來。目標檢測的方法主要分為三種光流法、幀差法、減背景法。在解決人體遮擋問題的目標跟蹤中,主要采用單攝像機和多攝像機兩種方法,多 攝像機的方法是指多個攝像機在不同的角度對同一個視野進行拍攝,該方法彌補了一些三 維信息的丟失,但是彌補的信息仍然是有限的,而且對計算攝像機間的位置配置的精確度 要求非常高,同時場景變化后對原來的算法影響較大,單攝像機的方法主要是通過單個攝 像機來實現(xiàn)人體的跟蹤,該方法能夠很容易對位置進行配置,有很好的實用價值,解決遮擋 問題時還可采用基于顏色的單攝像機的方法和基于模塊的單攝像機方法。

發(fā)明內(nèi)容
本發(fā)明的目的是提供一種有效的基于核密度估計的遮擋人體跟蹤方法。為實現(xiàn)上述目的,本發(fā)明所采取的技術方案是(1)根據(jù)人體衣服的顏色信息,通過均值漂移的聚類算法對檢測結果中的人體進 行聚類,形成相應的顏色相近的第一模塊區(qū)域;根據(jù)當前幀的前景區(qū)域中的像素的位置獲 取第二模塊區(qū)域,該第二模塊區(qū)域滿足以下關系式(1)
權利要求
1. 一種基于核密度估計的遮擋人體跟蹤方法,在對運動人體的前景檢測后,對檢測結 果進行跟蹤,其特征是,所述跟蹤的步驟如下(1)根據(jù)人體衣服的顏色信息,通過均值漂移的聚類算法對所述檢測結果中的人體進 行聚類,形成相應的顏色相近的第一模塊區(qū)域;根據(jù)當前幀的前景區(qū)域中的像素的位置獲 取第二模塊區(qū)域,該第二模塊區(qū)域滿足以下關系式(1)ht ht式(1)中,Μ"表示第二模塊區(qū)域,Wtftv1分別表示已存儲模型中人體的寬度和高度信 息,ct,x,y表示當前幀的前景區(qū)域中的像素,ht表示當前像素xt,x,y所在的人體的高度信息, yt表示當前像素Ct,x,y的縱坐標yt,α是個小數(shù);(x,y)表示根據(jù)當前幀的前景區(qū)域中的像 素ct, x,y位置獲取第二模塊區(qū)域的坐標;然后取第一模塊區(qū)域和第二模塊區(qū)域的交集得到第三模塊區(qū)域;(2)使用核密度估計的方法來估計第三模塊區(qū)域的顏色密度分布情況;并根據(jù)公式 (2)獲得運動人體的前景的運動密度函數(shù)Put-x (v.)=^y^ -yt-i,i)ga2 (xta-Xt-^yta ―只—以)、(χ>,3 -x^y0 一 只-口)(2)式⑵中,PM^(Vt)表示運動密度函數(shù),vt表示運動向量;(xt,^yta), (xt,2,yr,2),(xt,3, yt,3)表示當前幀中人體的運動特征點;(Xt-I^yt-U), (xt-i,2' Yt-iJ ‘ (xt-i,3' yt-i,3)表示前一 幀中人體的運動特征點;g。(χ, y)為二維高斯函數(shù);(3)利用公式(3)得到當前幀中每個像素對于第三模塊區(qū)域的概率密度函數(shù)P(C^ylMt-U) = max {P (ct, x, ^B1), P (ct, x, y | B2), P (ct, x, y | B3) - } (3)式(3)中,P(CtijJMuk)為概率密度函數(shù)辦,B2, B3……表示第三模塊區(qū)域中的小區(qū) 域,Mt^k= (B1,B2,B3,B4,…}為第三模塊區(qū)域中的小區(qū)域的集合;P(C^jJB1)、P(ct,x,y|B2)、 P(ct,x,y|B3)為顏色密度函數(shù);(4)根據(jù)所述運動密度函數(shù)和第三模塊區(qū)域的顏色概率密度函數(shù),利用公式(4)得到 當前幀的每個像素屬于所述檢測結果中的人體的后驗概率密度
全文摘要
本發(fā)明充分利用空間信息、顏色信息、運動信息對視頻圖像進行塊建模、顏色建模和運動建模,通過混合高斯建模法,將運動人體的前景信息提取出來;根據(jù)人體衣服的顏色信息,利用Epanechnikov核密度梯度估計算法,對存儲模型中的人體進行聚類,實現(xiàn)塊建模;采用非參數(shù)的核密度估計算法和基于高斯分布的運動建模,分別獲取顏色密度函數(shù)和運動密度函數(shù),并利用顏色密度函數(shù)和運動密度函數(shù)對當前幀的前景區(qū)域進行后驗概率估計,以獲取后驗概率圖像,根據(jù)對該圖像中遮擋人體進行分割以實現(xiàn)人體目標的跟蹤。實驗結果表明,本發(fā)明提出的算法有效地解決了遮擋人體目標跟蹤問題。
文檔編號G06T7/20GK102005052SQ20101053679
公開日2011年4月6日 申請日期2010年11月9日 優(yōu)先權日2010年11月9日
發(fā)明者劉濟林, 杜小麗, 王選賀 申請人:浙江大學
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1