亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種用于視頻監(jiān)控的感興趣區(qū)域提取方法

文檔序號:6582638閱讀:542來源:國知局
專利名稱:一種用于視頻監(jiān)控的感興趣區(qū)域提取方法
技術領域
本發(fā)明屬于圖像檢測技術領域,涉及一種可以用于視頻監(jiān)控的感興趣區(qū)域提取方法。
背景技術
對于視頻和圖像來說,用戶只對其中的部分區(qū)域感興趣,這部分區(qū)域包含較大的信息量,能比較顯著的吸引人的注意。使用計算機自動準確地獲取感興趣區(qū)域,在圖像檢測、目標識別、跟蹤等領域具有廣泛的應用。目前已有很多感興趣區(qū)域的提取方法,比如用于運動目標提取的幀間差值法和背景減除法1,基于圖像顯著性分析的區(qū)域提取方法2,以及一些針對特定物體的檢測算法(如HOG行人檢測3),這些方法能夠提取具有一定區(qū)分度的感興趣區(qū)域。但是,幀間差值和背景差值法只能檢測前景運動目標,缺乏對靜止目標的識別能力;顯著性的區(qū)域檢測容易受顏色和亮度的影響,檢測效果并不穩(wěn)定;針對特定物體的檢測算法往往通過訓 練好的分類器進行識別,檢測比較準確,但往往只能針對特定目標,應用范圍較窄而且難以實時。參考文獻IZivkovic, Z.and F.van der Heijden (2006).Efficient adaptive densityestimation per image pixel for the task of background subtraction[J].Patternrecognition letters 27 (7):773-780.
2Itti L, Koch C and NieburE.A model of saliency-based visual attentionfor rapid scene analysis[J].1EEE Transaction on Pattern Analysis and Machine Intelligence.1998,20(11):1254-1259.
3N.Dalai,B.Triggsj Histograms of oriented gradients for humandetection[C].1n:Computer Vision and Pattern Recognition, San Diego,CA,June20-25,2005.

發(fā)明內(nèi)容
本發(fā)明的目的在于克服現(xiàn)有技術的上述不足,提供一種新的感興趣區(qū)域提取方法,它能夠同時提取出視頻圖像中動態(tài)和靜態(tài)的感興趣區(qū)域,并能夠有效克服顏色和亮度因素的影響。本發(fā)明的技術方案是:一種用于視頻監(jiān)控的感興趣區(qū)域提取方法,包括以下步驟:I)使用預先標定好的雙目攝像機,或者將雙目攝像頭連接電腦采集獲得左、右視點的雙目視頻圖像;2)根據(jù)攝像機或雙目攝像頭的內(nèi)、外參數(shù),對左、右視點的雙目視頻圖像做雙目校正,消除畸變,使得兩幅圖像能夠嚴格的對齊;3)選擇左、右視點的其中一個作為基準視點,使用BM模式匹配算法計算雙目視差以獲得深度圖,并利用此視點的連續(xù)圖像序列,再使用高斯混合模型(GMM)建立此視點的背景模型;4)根據(jù)所獲取的深度圖,使用全局加權的深度差值平方之和計算所有深度顯著圖
權利要求
1.一種用于視頻監(jiān)控的感興趣區(qū)域提取方法,包括以下步驟: 1)使用預先標定好的雙目攝像機,或者將雙目攝像頭連接電腦采集獲得左、右視點的雙目視頻圖像; 2)根據(jù)攝像機或雙目攝像頭的內(nèi)、外參數(shù),對左、右視點的雙目視頻圖像做雙目校正,消除畸變,使得兩幅圖像能夠嚴格的對齊; 3)選擇左、右視點的其中一個作為基準視點,使用BM模式匹配算法計算雙目視差以獲得深度圖,并利用此視點的連續(xù)圖像序列,再使用高斯混合模型(GMM)建立此視點的背景模型; 4)根據(jù)所獲取的深度圖,使用全局加權的深度差值平方之和計算所有深度顯著圖
2.根據(jù)權利要求1所述的用于用于視頻監(jiān)控的感興趣區(qū)域提取方法,其特征在于,步驟5)中,滿足如下公式時,認為像素屬于前景感興趣區(qū)域: i(t)-bg(t) I 彡 T2 其中,i (t)代表t幀中的像素,bg(t)為t幀的背景模型,T2為閾值。
全文摘要
本發(fā)明提供一種視頻圖像中感興趣區(qū)域的提取方法,適用于視頻監(jiān)控領域。所述方法可以將感興趣區(qū)域自動標記出來,具體包括以下步驟1)采用雙目攝像頭(已預先標定)進行視頻采集;2)對左右兩視點的圖像進行校正,消除畸變;3)左右視點選擇其一,通過雙目視差計算其深度圖,并通過連續(xù)圖像構建其高斯混合背景模型;4)使用全局的深度對比度獲取深度顯著性區(qū)域,同時使用背景差值的方法獲取運動區(qū)域,得到兩幅二值圖像;5)對步驟4獲取的兩幅二值圖像做異或運算,然后篩選連通區(qū)域(去噪),并對剩余的連通區(qū)域做膨脹操作;6)最后標記輪廓和外接矩形,獲取最終的感興趣區(qū)域。本發(fā)明有效地克服了顏色和亮度變化對感興趣區(qū)域檢測的影響,具有很高的準確性和魯棒性。
文檔編號G06T7/00GK103077521SQ20131000681
公開日2013年5月1日 申請日期2013年1月8日 優(yōu)先權日2013年1月8日
發(fā)明者金志剛, 劉曉輝, 徐楚 申請人:天津大學
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1