專利名稱:一種基于動作子空間與權重化行為識別模型的行為識別方法
技術領域:
本發(fā)明涉及的是一種基于動作子空間與權重化行為識別模型的行為識別方法。
背景技術:
人類行為識別有著廣泛的應用前景,如視頻監(jiān)控和監(jiān)測、對象視頻摘要、智能接口、人機交互、體育視頻分析、視頻檢索等。吸引了越來越多計算機視覺研究者的關注。通常,行為識別涉及兩個重要問題。其一是如何從原始視頻數據中提取有用的運動信息,其二是如何建立運動參考模型,使訓練和識別方法能有效地處理空間和時間尺度變化的類內類似行為。行為識別可以利用各種線索,例如,關鍵姿勢、光流、局部描述符、運動軌跡或特征跟蹤、輪廓等。但是使用關鍵幀缺乏運動信息。根據光流或興趣點的行為識別在平滑的表面,運動奇異性和低質量的視頻情況下是不可靠的。由于人體外表和關節(jié)出現(xiàn)大的變化,特征跟蹤也并非容易實現(xiàn)。由于人類行為是一種時空行為,時空模型(如Hidden Markov Models, HMMs及其變種)已被廣泛用于人體動作建模。然而,該生成模型通常使用了強烈的獨立性假設,這使得它很難適應多種復雜的特征或觀測中的遠距離依賴關系。由Lafferty提出的條件隨機場模型(CRFs)避免觀察之間的獨立性假設,同時將復雜的特征和遠距離依賴關系融合進模型中。參考文獻[I]S. Wang,Q. Ariadna,L. P. Morency,et al. Hidden conditional random fieldsfor gesture recognition[C]. CVPR, US New York, 2006, 2 :1521-1527.[2] Z. ff. Wang, S. Z. Li , S. Z. Su , et al. A quickly-speed runningwatermarkingalgorithm based on quantum evolutionary algorithm[J]. Journal ofOptoelectronics Laser,2010,21(5) :737-742.[3]G. V. Veres, L. Gordon, J. N. Carter, et al. What image information isimportant in silhouette-based gait recognition [C]·CVPR, US -Washington, DC,2004,2 :776-782.[4]Y. Dedeoglu, B. U. Toreyin, U. Giidiikbay, et al. Silhouette-based methodforobject classification and human action recognition in video[C]. ECCV2006fforkshop on HCI, Austria Graz,2006 :64-77.[5]L. wang,d. suter. Recognizing Human Activities from Silhouettes MotionSubspace and Factorial Discriminative Graphical Model[C]· US-Minneapolis, MN,CVPR,2007 l-8.[6]C. Schuldt, I. Laptev, and B. Caputo. Recognizing human actions a localSVM approach [C]. ICPR, UK Cambridge, 2004, 3 :32-36.
[7] N. Nguyen, D. Phung, S. Venkatesh, et al. Learning and detectingactivities from movement trajectories using the hierarchical hidden Markovmodels[C], CVPR, US San Diego, CA,2005,2 :955-960.[8] J. Ben-Arie, Z. Wang, P. Pandit, et al. Human activity recognition usingmultidimensional indexing[J]. IEEE Transactions on Pattern Analysis and MachineIntelligence,2002,24(8) :1091-1104.[9]A.Bobick and J.Davis, The recognition of human movement usingtemporal templates[J]. IEEE Transactions on Pattern Analysis and MachineIntelligence,2001,23(3) :257-267.[10]L. Gorelick, M. Blank, E. Shechtman, et al. Action as space-timeshapes[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(12) :2247-2253.[11]M. Brand, N. Oliver and A. Pentland. Coupled hidden Markov models forcomplexaction recognition [C]. CVPR, US San Juan, PR,1997 :994-999.[12]C. Sutton, A. McCallum, K. Rohanimanesh. Dynamic conditional randomfields :Factorized probabilistic models for labeling and segmenting sequencedata[J] · Journal of Machine Learning Research,2007,8 :693-723.[13]B. Scholkopf,A. Smola,and K. Muller. Nonlinear component analysis as akernel eigenvalue problem[J]. Neural Computation,1998,10 (5) :1299-1319.[14] J. C. Niebles, H. C. Wang, F. F. Li. Unsupervised learning of human actioncategories using spatial-temporal words[J]. International Journal of ComputerVision,2008,79(3) :299-318.[15] A. Veeraraghavan, R.Chellappa,and A. K. Roy-Chowdhury, The functionspace of an activity [C]. CVPR, US New York,2006,I :959-966.
發(fā)明內容
本發(fā)明在此基礎上提出了具有聯(lián)合判別學習能力的基于動作子空間與權重化行為識別模型的行為識別方法。使用KPCA來發(fā)現(xiàn)關節(jié)動作空間的內在結構,并利用權重化條件隨機場從簡單的輪廓觀察中識別人類行為。實驗結果證明了提出方法的有效性和魯棒性。本發(fā)明的技術方案如下一種基于動作子空間與權重化行為識別模型的行為識別方法,包括以下步驟A1,輸入待測試的行為視頻序列,利用動態(tài)背景檢測方法或靜態(tài)背景檢測方法來檢測背景圖像,利用減背景方法來獲取前景圖像;A2,提取運動目標的輪廓并對輪廓特征進行相應表示;A3,利用KPCA算法在核引導子空間中對高維特征實現(xiàn)非線性降維,在低維空間中進行行為軌跡的映射;A4,利用行為識別模型即WCRF模型進行行為識別。所述的行為識別方法,所述步驟A2具體方法為,等距劃分每個輪廓圖像為hXw個互不重疊的子塊;然后用Ni = b(i)/mv, i = 1,2,…,hXw計算每個子塊的歸一化值,其中,b(i)是第i個分塊的前景像素數目,mv是所有b(i)的最大值;在空間中,第t幀的輪廓描述符是ft = [N1, N2, ···, NhXw]T,整個視頻相應表示為
權利要求
1.一種基于動作子空間與權重化行為識別模型的行為識別方法,其特征在于,包括以下步驟:A1,輸入待測試的行為視頻序列,利用動態(tài)背景檢測方法或靜態(tài)背景檢測方法來檢測背景圖像,利用減背景方法來獲取前景圖像;A2,提取運動目標的輪廓并對輪廓特征進行相應表示;A3,利用KPCA算法在核引導子空間中對高維特征實現(xiàn)非線性降維,在低維空間中進行行為軌跡的映射;A4,利用行為識別模型即WCRF模型進行行為識別。
2.根據權利要求I所述的行為識別方法,其特征在于,所述步驟A2具體方法為,等距劃分每個輪廓圖像為hXw個互不重疊的子塊;然后用Ni = b(i)/mv, i = 1,2,…,hXw計算每個子塊的歸一化值,其中,b(i)是第i個分塊的前景像素數目,mv是所有b(i)的最大值;在Sihxw空間中,第t幀的輪廓描述符是ft = [N1, N2,…,Nhxw]τ,整個視頻相應表示為vf = {f1; f2, ... fT}。
3.根據權利要求I所述的行為識別方法,其特征在于,所述步驟A3具體方法為,設k是一個半正定核函數,通過式(I)定義兩個向量5,和勺之間的非線性關系。
4.根據權利要求I所述的行為識別方法,其特征在于,所述步驟Α4中所述的WCRF模型,利用下述方法進行行為建模設S1,,是L鏈的WCRF中鏈I在時間t的變量,隱狀態(tài)的分布定義為
全文摘要
本發(fā)明公開了一種基于動作子空間與權重化行為識別模型的行為識別方法,包括以下步驟A1,輸入待測試的行為視頻序列,利用動態(tài)背景檢測方法或靜態(tài)背景檢測方法來檢測背景圖像,利用減背景方法來獲取前景圖像;A2,提取運動目標的輪廓并對輪廓特征進行相應表示;A3,利用KPCA算法在核引導子空間中對高維特征實現(xiàn)非線性降維,在低維空間中進行行為軌跡的映射;A4,利用行為識別模型即WCRF模型進行行為識別。實驗結果表明,提出的框架不僅能夠準確地識別隨時間、區(qū)域內外人員變化的人類行為,而且對噪聲和其它影響因素魯棒性強。
文檔編號G06K9/62GK102938070SQ201210345589
公開日2013年2月20日 申請日期2012年9月11日 優(yōu)先權日2012年9月11日
發(fā)明者王智文, 劉美珍, 夏冬雪, 蔡啟先, 李紹滋, 唐新來, 羅功坤, 陽樹洪, 廖志高 申請人:廣西工學院, 王智文