亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

無重疊視域多攝像機(jī)人體目標(biāo)跟蹤方法

文檔序號:7697396閱讀:232來源:國知局

專利名稱::無重疊視域多攝像機(jī)人體目標(biāo)跟蹤方法
技術(shù)領(lǐng)域
:本發(fā)明涉及一種多攝像機(jī)視頻監(jiān)控領(lǐng)域中的目標(biāo)跟蹤方法,具體是一種在多攝像機(jī)之間拓?fù)潢P(guān)系已知的情況下,在無重疊視域的多攝像機(jī)視頻中進(jìn)行人體目標(biāo)匹配與跟蹤的方法。屬于視頻監(jiān)控
技術(shù)領(lǐng)域

背景技術(shù)
:隨著視頻監(jiān)控技術(shù)的快速發(fā)展,以及單攝像機(jī)有限的視域無法滿足廣域視頻監(jiān)控的要求,無重疊視域多攝像機(jī)目標(biāo)跟蹤成為有效解決廣域視頻監(jiān)控問題的一種途徑。無重疊視域多攝像機(jī)目標(biāo)跟蹤問題不同于單攝像機(jī)和重疊視域多攝像機(jī)跟蹤問題。單攝像機(jī)目標(biāo)跟蹤的研究主要集中在背景建模、前景檢測、陰影去除、遮擋處理等關(guān)鍵問題上,這些關(guān)鍵問題也是多攝像機(jī)目標(biāo)跟蹤的研究基礎(chǔ)。多攝像機(jī)目標(biāo)跟蹤從視域角度上看可以分為重疊視域多攝像機(jī)目標(biāo)跟蹤與無重疊視域多攝像機(jī)目標(biāo)跟蹤。對于前者由于視域是重疊的,目標(biāo)在離開前一個攝像機(jī)視域之前已經(jīng)出現(xiàn)在后一個攝像機(jī)的視域中,因此攝像機(jī)之間的目標(biāo)跟蹤可以由一個攝像機(jī)傳遞給另一個。而對于后者由于攝像機(jī)之間存在一個盲區(qū),目標(biāo)在這個盲區(qū)內(nèi)的運動無法獲知,因此造成時間和空間上的不連續(xù),這為問題的解決設(shè)置了巨大障礙,而且使得前者的許多研究方法無法有效地應(yīng)用到后者中。對于無重疊視域多攝像機(jī)目標(biāo)跟蹤問題,由于問題本身的復(fù)雜性和困難性,目前仍處于研究的初級階段。經(jīng)對現(xiàn)有技術(shù)文獻(xiàn)的檢索發(fā)現(xiàn),無重疊視域多攝像機(jī)目標(biāo)跟蹤問題的研究主要集中在不同攝像機(jī)中相同目標(biāo)的匹配以及監(jiān)控攝像機(jī)之間拓?fù)潢P(guān)系的估計。目前已有的匹配方法主要為對目標(biāo)建立外觀模型。Javed等人于2008年在《ComputerVisionandImageUnderstanding》(計算機(jī)視覺與圖像理解)發(fā)表的論文"Modelinginter-cameraspace-timeandappearancerelationshipsfortrackingacrossnon-overlappingviews"(針對非重疊視域跟蹤的多攝像機(jī)時空及外觀關(guān)系建模)運用顏色直方圖建立外觀模型。Teixeira等人于2008年在《PatternRecognitionLetters》)(模式識另U快報)發(fā)表的論文"Videoobjectmatchingacrossmultipleindependentviewsusinglocaldescriptorsandadaptivelearning"(基于局部特征描述器及適應(yīng)性學(xué)習(xí)的獨立多攝像機(jī)視頻目標(biāo)匹配)運用一個由量化的局部特征描述器組成的直方圖建立外觀模型。然而,由于多攝像機(jī)視域中各攝像機(jī)之間多種因素變化的不確定性,這些特征均無法對于這些不確定因素同時具有魯棒性。Javed等人于2008年在《ComputerVisionandImageUnderstanding》(計算機(jī)視覺與圖像理解)發(fā)表的論文"Modelinginter-cameraspace-timeandappearancerelationshipsfortrackingacrossnon-overl即pingviews"(針對非重疊視域跟蹤的多攝像機(jī)時空及外觀關(guān)系建模)采用一個基于Parzen窗和高斯核的混合概率密度估計器來估計由時間間隔、進(jìn)出觀測視域的位置和進(jìn)出視域時的運動速度等量組成的概率密度函數(shù),整個估計過程通過學(xué)習(xí)訓(xùn)練集數(shù)據(jù)的方法實現(xiàn)。然而,這種方法算法復(fù)雜,不易實現(xiàn),因此不適合實際的工程運用。
發(fā)明內(nèi)容本發(fā)明的目的在于針對現(xiàn)有技術(shù)的不足,提供一種無重疊視域多攝像機(jī)人體目標(biāo)跟蹤方法,能在多攝像機(jī)之間的拓?fù)潢P(guān)系已知的前提下,實時準(zhǔn)確的跟蹤單個行人目標(biāo)。為實現(xiàn)上述目的,本發(fā)明首先建立多攝像機(jī)之間的拓?fù)潢P(guān)系矩陣,然后提取行人目標(biāo)的前景圖像,接著通過人機(jī)交互界面在某個攝像機(jī)的視域范圍選定跟蹤目標(biāo),并使用混合高斯模型提取該目標(biāo)的外觀特征,包括顏色直方圖特征和UV色度特征,在整個跟蹤過程中,采用樹的結(jié)構(gòu)對跟蹤任務(wù)進(jìn)行管理,并采用貝葉斯模型估計全局相似度,根據(jù)全局相似度尋找最佳匹配目標(biāo)。本發(fā)明方法通過以下具體步驟實現(xiàn)1、為每個攝像機(jī)設(shè)定編號1,2,……,N;為每個攝像機(jī)定義出入口編號1,2,……,m;從一個攝像機(jī)的某個出口至另一個攝像機(jī)的某個入口所用平均時間為f;引入一個時間窗參數(shù)W,使得所有行人從一個攝像機(jī)的某個出口至另一個攝像機(jī)的某個入口所用時間落在(t-w,t+w)區(qū)間內(nèi);根據(jù)己知多攝像機(jī)之間的拓?fù)潢P(guān)系,建立拓?fù)潢P(guān)系矩陣,11^12,21^22,2j,2W《J…('W,i=l,2,',N;j=l,2,',N;其中,^表示從攝像機(jī)Z'到攝像機(jī)_/之間的連接信息,^用以下結(jié)構(gòu)表示(攝像機(jī)號i,出口號),(攝像機(jī)號j,入口號),平均時間,時間窗}。2、將攝像機(jī)采集的視頻讀入計算機(jī),對每幀圖像進(jìn)行背景建模與背景實時更新,通過當(dāng)前幀與背景幀相減的方法,得到每個行人目標(biāo)的前景圖像。3、通過人機(jī)交互界面在某個攝像機(jī)的視域范圍選定跟蹤目標(biāo),根據(jù)與該跟蹤目標(biāo)對應(yīng)的行人目標(biāo)前景圖像,使用混合高斯模型提取跟蹤目標(biāo)的外觀特征,包括顏色直方圖特征和uv色度特征。4、當(dāng)跟蹤目標(biāo)走出選定時所在攝像機(jī)視域范圍,則針對該攝像機(jī)建立節(jié)點作為跟蹤樹的根節(jié)點;然后根據(jù)拓?fù)潢P(guān)系矩陣得到與該攝像機(jī)相連的所有攝像機(jī),并向這些攝像機(jī)發(fā)布跟蹤任務(wù),同時針對這些攝像機(jī)為根節(jié)點分別建立子節(jié)點;所述節(jié)點的結(jié)構(gòu)為節(jié)點={父節(jié)點,子節(jié)點,攝像機(jī)號,對應(yīng)跟蹤任務(wù),行人目標(biāo)對象};其中行人目標(biāo)對象包括行人目標(biāo)的外觀特征以及該行人目標(biāo)與選定跟蹤目標(biāo)之間的全局相似度;所述跟蹤任務(wù)的結(jié)構(gòu)為跟蹤任務(wù)={監(jiān)控時間,出入口號,對應(yīng)節(jié)點}。5、當(dāng)行人目標(biāo)進(jìn)入某個攝像機(jī)的視域范圍,則在該攝像機(jī)的跟蹤任務(wù)列表中尋找與之匹配的跟蹤任務(wù);若存在匹配的跟蹤任務(wù),則根據(jù)該行人目標(biāo)的前景圖像,使用混合高斯模型提取該行人目標(biāo)的顏色直方圖特征和UV色度特征;計算該行人目標(biāo)與選定跟蹤目標(biāo)之間的相似度,再利用貝葉斯模型估計全局相似度,將此全局相似度與該攝像機(jī)對應(yīng)節(jié)點中保存行人目標(biāo)對象的全局相似度進(jìn)行比較,保留較大者對應(yīng)的行人目標(biāo)對象作為局部最佳匹配目標(biāo),再根據(jù)全局相似度在該攝像機(jī)所對應(yīng)的當(dāng)前層節(jié)點中尋找全局最佳匹配節(jié)點,對于失去全局最佳匹配節(jié)點身份的節(jié)點,刪除其子節(jié)點。6、當(dāng)與全局最佳匹配節(jié)點對應(yīng)的行人目標(biāo)走出某個攝像機(jī)的視域范圍,則根據(jù)拓?fù)潢P(guān)系矩陣得到所有與該攝像機(jī)相連的攝像機(jī),并向這些攝像機(jī)發(fā)布跟蹤任務(wù),同時針對這些攝像機(jī)為當(dāng)前節(jié)點分別建立子節(jié)點。7、當(dāng)某個跟蹤任務(wù)的監(jiān)控時間失效,在該跟蹤任務(wù)對應(yīng)節(jié)點的所有兄弟節(jié)點中尋找全局最佳匹配節(jié)點,若該跟蹤任務(wù)對應(yīng)節(jié)點不是全局最佳匹配節(jié)點,則刪除該跟蹤任務(wù)對應(yīng)節(jié)點及其子節(jié)點。8、若所有節(jié)點的跟蹤任務(wù)時間均失效,則完成無重疊視域多攝像機(jī)的目標(biāo)本發(fā)明與現(xiàn)有技術(shù)相比的顯著效果在于融合兩種特征建立外觀模型以實現(xiàn)更加精確的匹配,并利用己知的拓?fù)潢P(guān)系來輔助目標(biāo)匹配,具有精確度高,算法簡單,易于實現(xiàn)、實時性強(qiáng)等優(yōu)點,可以為多攝像機(jī)目標(biāo)識別與跟蹤提供一種新的實時可靠的方法。圖1為本發(fā)明方法步驟方框示意圖。圖2為攝像機(jī)出入口號定義方式示意圖。圖3為攝像機(jī)拓?fù)浣Y(jié)構(gòu)示意圖。圖4為跟蹤樹示意圖。具體實施例方式下面結(jié)合附圖和實施例對本發(fā)明的技術(shù)方案作詳細(xì)說明。本實施例在以本發(fā)明技術(shù)方案為前提下進(jìn)行實施,給出了詳細(xì)的實施方式和過程,但本發(fā)明的保護(hù)范圍不限于下述的實施例。為了便于理解本發(fā)明提出的方法,在本實施例中選取非重疊視域攝像機(jī)數(shù)目為4,所選取的視頻中共有兩個行人分別為行人A與行人B先后經(jīng)過,行人A依次經(jīng)過攝像機(jī)l、2、4的視域,行人B依次經(jīng)過攝像機(jī)1、3、4的視域。圖1給出了本發(fā)明方法流程示意圖。如圖1所示,本實施例具體實施步驟如下1、建立多攝像機(jī)之間的拓?fù)潢P(guān)系矩陣在本實施例中選取非重疊視域攝像機(jī)數(shù)目為4,依次為每個攝像機(jī)設(shè)定編號1,2,3,4;然后,所有攝像機(jī)均按附圖2所示方式定義出入口編號1,2,3,4;根據(jù)攝像機(jī)的實際連接方式以及以上定義,可以畫出本實施例中4個攝像機(jī)的拓?fù)浣Y(jié)構(gòu)如附圖3所示。定義從一個攝像機(jī)的某個出口至另一個攝像機(jī)的某個入口所用平均時間為6引入一個時間窗參數(shù)w,使得所有行人從一個攝像機(jī)的某個出口至另一個攝像機(jī)的某個入口所用時間落在(t-w,t+w)區(qū)間內(nèi)。t與w的取值根據(jù)一定數(shù)量的樣本統(tǒng)計得到。如圖3所示,本實施例中,行人A的行走路線中,1號攝像機(jī)的4號出口至2號攝像機(jī)的4號入口所用平均時間r為21s,時間窗參數(shù)w=5s;2號攝像機(jī)的2號出口至4號攝像機(jī)的4號入口所用平均時間f為44s,時間窗參數(shù)w^9s。行人B行走的路線中,l號攝像機(jī)的4號出口至3號攝像機(jī)的4號入口所用平均時間f為28s,時間窗參數(shù)w=7s;3號攝像機(jī)的2號出口至4號攝像機(jī)的4號入口所用平均時間/為35s,時間窗參數(shù)w=8s。根據(jù)已知的拓?fù)潢P(guān)系,建立多攝像機(jī)之間的拓?fù)潢P(guān)系矩陣<formula>formulaseeoriginaldocumentpage8</formula>其中,^表示從攝像機(jī)/到攝像機(jī)/之間的連接信息,包括出口號、入口號、平均時間以及時間窗參數(shù)。^用以下結(jié)構(gòu)表示(攝像機(jī)號i,出口號),(攝像機(jī)號j,入口號),平均時間,時間窗}。如果兩攝像機(jī)之間不存在連接,則出口號與入口號賦-1,平均時間與時間窗賦0。2、提取行人目標(biāo)的前景圖像采用OpenCV(Intel開源計算機(jī)視覺庫)中的功能函數(shù)進(jìn)行視頻讀取,把攝像機(jī)采集的視頻讀入計算機(jī),然后采用TaoYang等人于2005年在CVPR(計算機(jī)視覺與模式識別會議)發(fā)表的論文"Real-timeMultipleObjectsTrackingw他OcclusionHandlinginDynamicScenes"(動態(tài)場景中的實時重疊多目標(biāo)跟蹤)中的方法對每幀圖像進(jìn)行背景建模與背景實時更新。通過當(dāng)前幀與背景幀相減的方法,并結(jié)合高斯濾波與形態(tài)學(xué)處理,可以得到比較準(zhǔn)確的每個行人目標(biāo)的前景圖像。3、選定跟蹤目標(biāo),提取跟蹤目標(biāo)的外觀特征當(dāng)行人A首先出現(xiàn)在攝像機(jī)1的視域,通過人機(jī)交互界面選定它為跟蹤目標(biāo)。使用Cai等人于2007年在ACCV(亞洲計算機(jī)視覺會議)發(fā)表的論文"Continuouslytrackingobjectsacrossmultiplewidelyseparatedcameras"(廣域非重疊多攝像機(jī)持續(xù)目標(biāo)跟蹤)的方法提取基于前景分割的顏色直方圖特征。根據(jù)空間關(guān)系將目標(biāo)劃分為三個部分,對于每部分使用高斯混合模型(GMM)來估計顏色分布,不同部分的權(quán)值由下式計算—來=&,)其中,",和^代表攝像機(jī)A和B中的檢測目標(biāo),代表&和^中的對應(yīng)部分相匹配的概率,戶(^=6,)代表攝像機(jī)A和B中的目標(biāo)相匹配的概率。"f吏用Jeong禾口Jaynes于2008年在《MachineVisionandApplications》(機(jī)器視覺及應(yīng)用)發(fā)表的論文"Objectmatchingindisjointcamerasusingacolortransferapproach"(使用顏色轉(zhuǎn)換方法的非重疊攝像機(jī)目標(biāo)匹配)提取UV色度空間模型。將目標(biāo)劃分為三個部分,根據(jù)YUV顏色空間的UV通道建立色度平面。對于平面上的顏色分布建立二維高斯混合模型。權(quán)值計算同顏色直方圖。多攝像機(jī)之間的跟蹤任務(wù)管理采用樹的結(jié)構(gòu)進(jìn)行,在本實施例中,整個管理過程依次通過以下幾步實現(xiàn)4、選定的跟蹤目標(biāo)(行人A)走出攝像機(jī)1的視域范圍,則針對攝像機(jī)1建立節(jié)點作為跟蹤樹的根節(jié)點;然后搜索拓?fù)潢P(guān)系矩陣,得到所有與之相連的攝像機(jī)為攝像機(jī)2和攝像機(jī)3;根據(jù)平均時間t與時間窗W向攝像機(jī)2和攝像機(jī)3發(fā)布跟蹤任務(wù),同時針對攝像機(jī)2和攝像機(jī)3為根節(jié)點建立子節(jié)點;所述節(jié)點的結(jié)構(gòu)為節(jié)點={父節(jié)點,子節(jié)點,攝像機(jī)號,對應(yīng)跟蹤任務(wù),行人目標(biāo)對象};其中行人目標(biāo)對象包括行人目標(biāo)的外觀特征以及該行人目標(biāo)與選定跟蹤目標(biāo)之間的全局相似度;所述跟蹤任務(wù)的結(jié)構(gòu)為跟蹤任務(wù)={監(jiān)控時間,出入口號,對應(yīng)節(jié)點};此時的跟蹤樹如附圖4(a)所示。圖中節(jié)點內(nèi)的標(biāo)號代表對應(yīng)的攝像機(jī)號。5、行人A進(jìn)入攝像機(jī)2的視域,則在攝像機(jī)2的跟蹤任務(wù)列表中根據(jù)待監(jiān)控的攝像機(jī)出入口號以及有效監(jiān)控時間尋找與之匹配的跟蹤任務(wù);結(jié)果為存在匹配的跟蹤任務(wù),則根據(jù)該行人目標(biāo)的前景圖像,使用混合高斯模型提取該行人目標(biāo)的顏色直方圖特征和UV色度特征;計算該行人目標(biāo)與選定跟蹤目標(biāo)之間的相似度,再利用貝葉斯模型估計全局相似度,將該行人目標(biāo)對象作為局部最佳匹配目標(biāo)保存在攝像機(jī)2對應(yīng)節(jié)點中;再根據(jù)全局相似度在攝像機(jī)1所對應(yīng)的當(dāng)前層節(jié)點中尋找全局最佳匹配節(jié)點,結(jié)果為攝像機(jī)2對應(yīng)節(jié)點為最佳匹配節(jié)點。接著,行人B進(jìn)入攝像機(jī)3的視域,則在攝像機(jī)3的監(jiān)控任務(wù)列表中根據(jù)待監(jiān)控的攝像機(jī)出入口號以及有效監(jiān)控時間尋找與之匹配的監(jiān)控任務(wù);結(jié)果為存在匹配的監(jiān)控任務(wù),則根據(jù)該行人目標(biāo)的前景圖像,使用混合高斯模型提取該行人目標(biāo)的顏色直方圖特征和UV色度特征;計算該行人目標(biāo)與選定跟蹤目標(biāo)之間的相似度,再利用貝葉斯模型估計全局相似度,將該行人目標(biāo)對象作為局部最佳匹配目標(biāo)保存在攝像機(jī)3對應(yīng)節(jié)點中;此時攝像機(jī)3所對應(yīng)的當(dāng)前層中有兩個節(jié)點,比較它們的全局相似度,取相似度最大者為最佳匹配節(jié)點;結(jié)果上一步出現(xiàn)的行人(行人A)相似度更大,因此攝像機(jī)2對應(yīng)節(jié)點被判為當(dāng)前的最佳匹配節(jié)點;由于未發(fā)生最佳匹配節(jié)點身份的轉(zhuǎn)移,所以不需進(jìn)行刪除子節(jié)點操作。6、行人A走出攝像機(jī)2的視域,搜索拓?fù)潢P(guān)系矩陣,得到所有與攝像機(jī)2出口相連的攝像機(jī)為攝像機(jī)4;根據(jù)平均時間t與時間窗w向攝像機(jī)4發(fā)布跟蹤任務(wù),同時針對攝像機(jī)4為當(dāng)前節(jié)點建立子節(jié)點;此時的跟蹤樹如附圖4(b)所示。7、攝像機(jī)2的跟蹤任務(wù)監(jiān)控時間失效,在攝像機(jī)2對應(yīng)節(jié)點的所有兄弟節(jié)點中尋找全局最佳匹配節(jié)點,結(jié)果攝像機(jī)2對應(yīng)節(jié)點為最佳匹配節(jié)點;因此不進(jìn)行刪除節(jié)點操作。攝像機(jī)3的跟蹤任務(wù)監(jiān)控時間失效,在攝像機(jī)3對應(yīng)節(jié)點的所有兄弟節(jié)點中尋找全局最佳匹配節(jié)點,結(jié)果攝像機(jī)2對應(yīng)節(jié)點為最佳匹配節(jié)點;刪除攝像機(jī)3對應(yīng)節(jié)點及其子節(jié)點;此時的跟蹤樹如附圖4(c)所示。行人A走出攝像機(jī)2的視域范圍后,進(jìn)入了攝像機(jī)4的視域,采用與步驟5相同的方法進(jìn)行跟蹤任務(wù)管理。即在攝像機(jī)4的跟蹤任務(wù)列表中根據(jù)待監(jiān)控的攝像機(jī)出入口號以及有效監(jiān)控時間尋找與之匹配的跟蹤任務(wù);結(jié)果為存在匹配的跟蹤任務(wù),則根據(jù)該行人目標(biāo)的前景圖像,使用混合高斯模型提取該行人目標(biāo)的顏色直方圖特征和UV色度特征;計算該行人目標(biāo)與選定跟蹤目標(biāo)之間的相似度,再利用貝葉斯模型估計全局相似度,將該行人目標(biāo)對象作為局部最佳匹配目標(biāo)保存在攝像機(jī)2對應(yīng)節(jié)點中,再根據(jù)全局相似度在攝像機(jī)4所對應(yīng)的當(dāng)前層節(jié)點中尋找全局最佳匹配節(jié)點,由于此時當(dāng)前層只有一個節(jié)點,于是它被判為當(dāng)前的最佳匹配目標(biāo)。行人A走出攝像機(jī)4的視域,搜索拓?fù)潢P(guān)系矩陣,沒有與攝像機(jī)4出口相連的其它攝像機(jī),不進(jìn)行任何操作。攝像機(jī)4的跟蹤任務(wù)監(jiān)控時間失效,在攝像機(jī)4對應(yīng)節(jié)點的所有兄弟節(jié)點中尋找全局最佳匹配節(jié)點,由于當(dāng)前層只有一個節(jié)點,結(jié)果攝像機(jī)4對應(yīng)節(jié)點為最佳匹配節(jié)點;因此不進(jìn)行刪除節(jié)點操作。8、攝像機(jī)4的跟蹤任務(wù)監(jiān)控時間失效,即所有攝像機(jī)的跟蹤任務(wù)監(jiān)控時間失效,則完成無重疊視域多攝像機(jī)的目標(biāo)跟蹤。于是,在整個跟蹤過程中,成功地跟蹤了行人A的運動軌跡。權(quán)利要求1、一種無重疊視域多攝像機(jī)人體目標(biāo)跟蹤方法,其特征在于包括以下步驟1)為每個攝像機(jī)設(shè)定編號1,2,……,N;為每個攝像機(jī)定義出入口編號1,2,……,m;從一個攝像機(jī)的某個出口至另一個攝像機(jī)的某個入口所用平均時間為t;引入一個時間窗參數(shù)w,使得所有行人從一個攝像機(jī)的某個出口至另一個攝像機(jī)的某個入口所用時間落在(t-w,t+w)區(qū)間內(nèi);根據(jù)已知多攝像機(jī)之間的拓?fù)潢P(guān)系,建立拓?fù)潢P(guān)系矩陣<mathsid="math0001"num="0001"><math><![CDATA[<mrow><mi>T</mi><mo>=</mo><mfencedopen='['close=']'><mtable><mtr><mtd><msub><mi>t</mi><mn>11</mn></msub></mtd><mtd><msub><mi>t</mi><mn>12</mn></msub></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><msub><mi>t</mi><mrow><mn>1</mn><mi>j</mi></mrow></msub></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><msub><mi>t</mi><mrow><mn>1</mn><mi>N</mi></mrow></msub></mtd></mtr><mtr><mtd><msub><mi>t</mi><mn>21</mn></msub></mtd><mtd><msub><mi>t</mi><mn>22</mn></msub></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><msub><mi>t</mi><mrow><mn>2</mn><mi>j</mi></mrow></msub></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><msub><mi>t</mi><mrow><mn>2</mn><mi>N</mi></mrow></msub></mtd></mtr><mtr><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd></mtr><mtr><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd></mtr><mtr><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd></mtr><mtr><mtd><msub><mi>t</mi><mrow><mi>i</mi><mn>1</mn></mrow></msub></mtd><mtd><msub><mi>t</mi><mrow><mi>i</mi><mn>2</mn></mrow></msub></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><msub><mi>t</mi><mi>ij</mi></msub></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><msub><mi>t</mi><mi>iN</mi></msub></mtd></mtr><mtr><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd></mtr><mtr><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd></mtr><mtr><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd></mtr><mtr><mtd><msub><mi>t</mi><mrow><mi>N</mi><mn>1</mn></mrow></msub></mtd><mtd><msub><mi>t</mi><mrow><mi>N</mi><mn>2</mn></mrow></msub></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><msub><mi>t</mi><mi>Nj</mi></msub></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><msub><mi>t</mi><mi>NN</mi></msub></mtd></mtr></mtable></mfenced><mo>,</mo></mrow>]]></math>id="icf0001"file="A2009100549250002C1.tif"wi="45"he="39"top="83"left="46"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths>i=1,2,……,N;j=1,2,……,N;其中,tij表示從攝像機(jī)i到攝像機(jī)j之間的連接信息,tij用以下結(jié)構(gòu)表示tij={(攝像機(jī)號i,出口號),(攝像機(jī)號j,入口號),平均時間,時間窗};2)將攝像機(jī)采集的視頻讀入計算機(jī),對每幀圖像進(jìn)行背景建模與背景實時更新,通過當(dāng)前幀與背景幀相減的方法,得到每個行人目標(biāo)的前景圖像;3)通過人機(jī)交互界面在某個攝像機(jī)的視域范圍選定跟蹤目標(biāo),根據(jù)與該跟蹤目標(biāo)對應(yīng)的行人目標(biāo)前景圖像,使用混合高斯模型提取跟蹤目標(biāo)的外觀特征,包括顏色直方圖特征和UV色度特征;4)當(dāng)跟蹤目標(biāo)走出選定時所在攝像機(jī)視域范圍,則針對該攝像機(jī)建立節(jié)點作為跟蹤樹的根節(jié)點;然后根據(jù)拓?fù)潢P(guān)系矩陣得到與該攝像機(jī)相連的所有攝像機(jī),并向這些攝像機(jī)發(fā)布跟蹤任務(wù),同時針對這些攝像機(jī)為根節(jié)點分別建立子節(jié)點;所述節(jié)點的結(jié)構(gòu)為節(jié)點={父節(jié)點,子節(jié)點,攝像機(jī)號,對應(yīng)跟蹤任務(wù),行人目標(biāo)對象};其中行人目標(biāo)對象包括行人目標(biāo)的外觀特征以及該行人目標(biāo)與選定跟蹤目標(biāo)之間的全局相似度;所述跟蹤任務(wù)的結(jié)構(gòu)為跟蹤任務(wù)={監(jiān)控時間,出入口號,對應(yīng)節(jié)點};5)當(dāng)行人目標(biāo)進(jìn)入某個攝像機(jī)的視域范圍,則在該攝像機(jī)的跟蹤任務(wù)列表中尋找與之匹配的跟蹤任務(wù);若存在匹配的跟蹤任務(wù),則根據(jù)該行人目標(biāo)的前景圖像,使用混合高斯模型提取該行人目標(biāo)的顏色直方圖特征和UV色度特征;計算該行人目標(biāo)與選定跟蹤目標(biāo)之間的相似度,再利用貝葉斯模型估計全局相似度,將此全局相似度與該攝像機(jī)對應(yīng)節(jié)點中保存行人目標(biāo)對象的全局相似度進(jìn)行比較,保留較大者對應(yīng)的行人目標(biāo)對象作為局部最佳匹配目標(biāo),再根據(jù)全局相似度在該攝像機(jī)所對應(yīng)的當(dāng)前層節(jié)點中尋找全局最佳匹配節(jié)點;對于失去全局最佳匹配節(jié)點身份的節(jié)點,刪除其子節(jié)點;6)當(dāng)與全局最佳匹配節(jié)點對應(yīng)的行人目標(biāo)走出某個攝像機(jī)的視域范圍,則根據(jù)拓?fù)潢P(guān)系矩陣得到所有與該攝像機(jī)相連的攝像機(jī),并向這些攝像機(jī)發(fā)布跟蹤任務(wù),同時針對這些攝像機(jī)為當(dāng)前節(jié)點分別建立子節(jié)點;7)當(dāng)某個跟蹤任務(wù)的監(jiān)控時間失效,在該跟蹤任務(wù)對應(yīng)節(jié)點的所有兄弟節(jié)點中尋找全局最佳匹配節(jié)點,若該跟蹤任務(wù)對應(yīng)節(jié)點不是全局最佳匹配節(jié)點,則刪除該跟蹤任務(wù)對應(yīng)節(jié)點及其子節(jié)點;8)若所有節(jié)點的跟蹤任務(wù)時間均失效,則完成無重疊視域多攝像機(jī)的目標(biāo)跟蹤。全文摘要本發(fā)明涉及一種無重疊視域多攝像機(jī)人體目標(biāo)跟蹤方法,具體是一種在多攝像機(jī)之間拓?fù)潢P(guān)系已知的情況下,在無重疊視域的多攝像機(jī)視頻中進(jìn)行目標(biāo)匹配與跟蹤的方法,首先建立多攝像機(jī)之間的拓?fù)潢P(guān)系矩陣,然后提取行人目標(biāo)的前景圖像,接著通過人機(jī)交互界面在某個攝像機(jī)的視域范圍選定跟蹤目標(biāo),并使用混合高斯模型提取該目標(biāo)的外觀特征,包括顏色直方圖特征和UV色度特征,在整個跟蹤過程中,采用樹的結(jié)構(gòu)對跟蹤任務(wù)進(jìn)行管理,并采用貝葉斯模型估計全局相似度,根據(jù)全局相似度尋找最佳匹配目標(biāo)。本發(fā)明具有精確度高、算法簡單、易于實現(xiàn)、實時性強(qiáng)等優(yōu)點,可以為多攝像機(jī)目標(biāo)識別與跟蹤提供一種新的實時可靠的方法。文檔編號H04N7/18GK101616309SQ20091005492公開日2009年12月30日申請日期2009年7月16日優(yōu)先權(quán)日2009年7月16日發(fā)明者劉允才,呂曉威,雄李,菲翁申請人:上海交通大學(xué)
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1