一種基于視頻圖像處理的公交客流統(tǒng)計(jì)方法
【專(zhuān)利摘要】本發(fā)明涉及一種基于視頻圖像處理的公交客流統(tǒng)計(jì)方法:對(duì)所選取的各幀視頻圖像進(jìn)行預(yù)處理,獲取各幀視頻圖像中每一個(gè)前景的輪廓;利用一些視頻圖像,訓(xùn)練乘客目標(biāo)檢測(cè)分類(lèi)器,得到強(qiáng)分類(lèi)器;在進(jìn)行客流統(tǒng)計(jì)時(shí),利用訓(xùn)練后得到的強(qiáng)分類(lèi)器在不同的尺寸位置空間上,對(duì)前景提取后的當(dāng)前幀視頻圖像窗口遍歷,如果該窗口被判別為乘客目標(biāo),則記錄位置和當(dāng)前尺度,否則丟棄;建立一個(gè)乘客目標(biāo)鏈,用于存儲(chǔ)所有的乘客目標(biāo);采SURF算法對(duì)每相鄰兩幀視頻圖像進(jìn)行SURF特征提取和特征點(diǎn)匹配;區(qū)分情況進(jìn)行乘客目標(biāo)鏈更新,從而實(shí)現(xiàn)乘客目標(biāo)的跟蹤。本發(fā)明可以在人體衣服顏色與背景顏色相似、背景中有類(lèi)似人體輪廓的物體、天氣或光照變化等情況下,仍能準(zhǔn)確進(jìn)行公交客流統(tǒng)計(jì)。
【專(zhuān)利說(shuō)明】一種基于視頻圖像處理的公交客流統(tǒng)計(jì)方法 所屬【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及一種公交客流統(tǒng)計(jì)方法。
【背景技術(shù)】
[0002] 隨著我國(guó)人口不斷增長(zhǎng),城鄉(xiāng)一體化進(jìn)程不斷推進(jìn),我國(guó)的交通面臨著嚴(yán)峻的挑 戰(zhàn)。大力發(fā)展公共交通是解決城市交通擁堵的有效手段,有利于合理利用城市交通資源。公 交客流統(tǒng)計(jì)可以反映真實(shí)的公交運(yùn)營(yíng)情況,是制定科學(xué)的公交調(diào)度方案的基礎(chǔ),是提供高 質(zhì)量的公交服務(wù)的保證。
[0003] 公交客流統(tǒng)計(jì)的方法有很多,其中國(guó)內(nèi)外比較主流方法有紅外傳感技術(shù)統(tǒng)計(jì)法, 即在上下車(chē)門(mén)處安裝紅外探測(cè)裝置,利用人體輻射的紅外線(xiàn)進(jìn)行客流計(jì)數(shù)以及乘客行為方 向的檢測(cè)。這種客流統(tǒng)計(jì)的方式存在一些弊端,如受氣候影響大,在人員擁擠、乘客遮擋嚴(yán) 重時(shí)統(tǒng)計(jì)誤差大等。
[0004] 基于視頻圖像處理的方法使用的是對(duì)公交車(chē)安裝在車(chē)頂垂直方向的攝像頭采集 到的視頻進(jìn)行處理,從而統(tǒng)計(jì)公交客流數(shù)量的方法。該方法有效地減小了乘客因擁擠造成 遮擋對(duì)于客流統(tǒng)計(jì)的影響,統(tǒng)計(jì)精度高,被認(rèn)為是最適合公交客流統(tǒng)計(jì)的方法之一。但是公 交車(chē)攝像頭采集到的視頻受光線(xiàn)影響較大,這會(huì)降低統(tǒng)計(jì)精度。如何減少光線(xiàn)變化引起的 統(tǒng)計(jì)精度變化得到了廣泛的關(guān)注。
【發(fā)明內(nèi)容】
[0005] 本發(fā)明的目的是克服現(xiàn)有技術(shù)的上述不足,提供一種保證在乘客相互遮擋及光線(xiàn) 變化明顯的情況下,仍有較高的檢測(cè)率和跟蹤率的公交客流統(tǒng)計(jì)方法。本發(fā)明提供的統(tǒng)計(jì) 方法,利用人體頭肩部的邊緣特征和局部不變特征,首先對(duì)待檢測(cè)圖像進(jìn)行乘客目標(biāo)分割, 然后將基于頭肩部H0G特征的人體檢測(cè)算法和基于SURF特征的跟蹤算法相結(jié)合,實(shí)現(xiàn)對(duì)上 下車(chē)乘客的檢測(cè)和跟蹤,并根據(jù)乘客的運(yùn)動(dòng)方向,實(shí)現(xiàn)公交車(chē)客流計(jì)數(shù),能夠進(jìn)一步提高公 交客流計(jì)數(shù)精度,降低計(jì)數(shù)成本。
[0006] 本發(fā)明的技術(shù)方案如下:
[0007] -種基于視頻圖像處理的公交客流統(tǒng)計(jì)方法,利用安裝在公交車(chē)車(chē)頂垂直方向的 攝像頭采集到的視頻進(jìn)行處理,步驟如下:
[0008] 1)對(duì)所選取的各幀視頻圖像進(jìn)行預(yù)處理,獲取各幀視頻圖像中每一個(gè)前景的輪 廓;
[0009] 2)利用一些視頻圖像,進(jìn)行基于頭肩部H0G特征的乘客檢測(cè),訓(xùn)練乘客目標(biāo)檢測(cè) 分類(lèi)器,得到強(qiáng)分類(lèi)器;
[0010] 3)在進(jìn)行客流統(tǒng)計(jì)時(shí),設(shè)當(dāng)前幀為第N幀,利用訓(xùn)練后得到的強(qiáng)分類(lèi)器在不同的 尺寸位置空間上,對(duì)前景提取后的當(dāng)前幀視頻圖像窗口遍歷,如果該窗口被判別為乘客目 標(biāo),則記錄位置和當(dāng)前尺度,否則丟棄;建立一個(gè)乘客目標(biāo)鏈,用于存儲(chǔ)所有的乘客目標(biāo);
[0011] 4)采SURF算法對(duì)每相鄰兩幀視頻圖像進(jìn)行SURF特征提取和特征點(diǎn)匹配;
[0012] 5)相鄰幀的SURF特征匹配結(jié)果,會(huì)產(chǎn)生四種情況:乘客未發(fā)生變化、圖像中無(wú)乘 客、出現(xiàn)新的乘客目標(biāo)和乘客目標(biāo)暫時(shí)失蹤,采用如下的具體評(píng)判標(biāo)準(zhǔn)進(jìn)行判定,并進(jìn)行乘 客目標(biāo)鏈更新,從而實(shí)現(xiàn)乘客目標(biāo)的跟蹤:
[0013] A.乘客未發(fā)生變化:第N幀與第N+1幀SURF特征匹配,且第N幀有乘客檢測(cè)結(jié)果, 用第N+1幀的跟蹤結(jié)果更新乘客目標(biāo)鏈;
[0014] B.圖像中無(wú)乘客:第N幀與第N+1幀SURF特征匹配,且第N幀無(wú)乘客檢測(cè)結(jié)果。 不更新乘客目標(biāo)鏈;
[0015] C.出現(xiàn)新的乘客目標(biāo):第N幀與第N+1幀SURF特征不匹配,第N幀無(wú)乘客檢測(cè)結(jié) 果;第N+1幀與第N+2幀SURF特征匹配,第N+1幀有乘客檢測(cè)結(jié)果;用第N+2幀的跟蹤結(jié)果 更新乘客目標(biāo)鏈。
[0016] D.乘客目標(biāo)暫時(shí)失蹤:第N幀與第N+1幀SURF特征不匹配,第N幀有乘客檢測(cè)結(jié) 果;第N+1幀與第N+2幀SURF特征匹配,第N+1幀無(wú)乘客檢測(cè)結(jié)果。如果超出定時(shí)范圍,則 認(rèn)為目標(biāo)已經(jīng)離開(kāi),將其從目標(biāo)鏈中剔除。
[0017] 其中,步驟1)中,對(duì)所選取的各幀視頻圖像進(jìn)行預(yù)處理的方法可以如下:采用 otsu法自適應(yīng)選取背景差分閾值,對(duì)并進(jìn)行自適應(yīng)閾值背景差分處理;用中值濾波法對(duì)差 分后的視頻圖像進(jìn)行去噪,然后對(duì)圖像進(jìn)行腐蝕操作,接著對(duì)圖像進(jìn)行膨脹操作,完成差分 后的視頻圖像的形態(tài)學(xué)處理;采用多邊形逼近輪廓的方法找出差分圖像中每一個(gè)前景的輪 廓。
[0018] 步驟2)中,進(jìn)行基于頭肩部H0G特征的乘客檢測(cè),訓(xùn)練乘客目標(biāo)檢測(cè)分類(lèi)器,得 到強(qiáng)分類(lèi)器的方法可以如下:手動(dòng)裁剪包含乘客頭肩部的正樣本和不包含乘客頭肩部的負(fù) 樣本,并將所有樣本縮放到同一尺寸;提取所有正負(fù)樣本的H0G特征,并對(duì)正負(fù)樣本賦予標(biāo) 簽,所有正樣本標(biāo)記為1,所有負(fù)樣本標(biāo)記為〇 ;采用Adaboost算法,針對(duì)不同的樣本集訓(xùn)練 若干SVM弱分類(lèi)器,并將這些弱分類(lèi)器聯(lián)合起來(lái),構(gòu)成一個(gè)最終的強(qiáng)分類(lèi)器。
[0019] 本發(fā)明可以在人體衣服顏色與背景顏色相似、背景中有類(lèi)似人體輪廓的物體、天 氣或光照變化等情況下,仍能準(zhǔn)確進(jìn)行公交客流統(tǒng)計(jì),在減小乘客目標(biāo)誤檢概率的同時(shí),還 降低了公交客流統(tǒng)計(jì)的成本。
【專(zhuān)利附圖】
【附圖說(shuō)明】
[0020] 圖1是本發(fā)明的基本流程圖。
[0021] 圖2是本發(fā)明的乘客目標(biāo)檢測(cè)原理示意圖。
[0022] 圖3是本發(fā)明的乘客目標(biāo)跟蹤原理示意圖。
[0023] 實(shí)施方式
[0024] 下面結(jié)合圖1至3及實(shí)施例對(duì)本發(fā)明進(jìn)行說(shuō)明,本發(fā)明的公交客流統(tǒng)計(jì)方法如 下:
[0025] 1)載入安裝于公交車(chē)車(chē)頂垂直方向的攝像頭采集到的視頻圖像,每隔5幀抽取1 幀,作為客流計(jì)數(shù)的待檢測(cè)圖像。
[0026] 2)對(duì)待檢測(cè)圖像進(jìn)行乘客目標(biāo)分割,包含以下步驟。
[0027] A.采用背景差分法處理待檢測(cè)圖像,即每1幀圖像與背景圖像進(jìn)行差分,并根據(jù) 閾值對(duì)得到的差分圖像進(jìn)行二值化,進(jìn)而判斷某一像素點(diǎn)是屬于前景還是背景。二值化閾 值是由Otsu法自適應(yīng)選取的。
[0028] B.對(duì)差分圖像進(jìn)行形態(tài)學(xué)處理,運(yùn)用中值濾波算法對(duì)差分圖像去噪。對(duì)圖像進(jìn)行 腐蝕操作,緊縮圖像區(qū)域,把小于結(jié)構(gòu)元素的部分去除,緊接著做膨脹操作,擴(kuò)張緊縮后的 區(qū)域,填補(bǔ)圖象分割后物體中的空洞。
[0029] C.對(duì)差分圖像進(jìn)行前景提取,得到乘客目標(biāo)區(qū)域。采用多邊形逼近輪廓的方法找 出差分圖像中每一個(gè)前景輪廓,然后設(shè)定面積閾值,如果輪廓面積大于該閾值,則畫(huà)出包含 這個(gè)輪廓的最小矩形框,否則丟棄。得到的最小矩形框即為乘客目標(biāo)區(qū)域。
[0030] 3)在乘客目標(biāo)區(qū)域中進(jìn)行基于頭肩部H0G特征的乘客檢測(cè),具體步驟如下。
[0031] A.訓(xùn)練乘客目標(biāo)檢測(cè)分類(lèi)器。手動(dòng)裁剪包含乘客頭肩部的正樣本和不包含乘客頭 肩部的負(fù)樣本,并將所有樣本縮放到同一尺寸;提取所有正負(fù)樣本的H0G特征,并對(duì)正負(fù)樣 本賦予標(biāo)簽,所有正樣本標(biāo)記為1,所有負(fù)樣本標(biāo)記為0 ;采用Adaboost算法,針對(duì)不同的樣 本集訓(xùn)練若干SVM弱分類(lèi)器,并將這些弱分類(lèi)器聯(lián)合起來(lái),構(gòu)成一個(gè)最終的強(qiáng)分類(lèi)器
[0032] B.利用強(qiáng)分類(lèi)器進(jìn)行乘客目標(biāo)檢測(cè)。在不同的尺度與位置空間上對(duì)待檢測(cè)圖像的 前景區(qū)域進(jìn)行窗口遍歷,如果該窗口被判別為乘客目標(biāo),則記錄其位置和當(dāng)前的尺度,否則 丟棄。
[0033] 4)提取相鄰幀的SURF特征,并進(jìn)行特征點(diǎn)匹配。根據(jù)特征點(diǎn)匹配情況來(lái)判斷是 否有新乘客目標(biāo)出現(xiàn)、是否有乘客下車(chē),從而更新乘客目標(biāo)鏈,實(shí)現(xiàn)客流計(jì)數(shù)。以第N幀、第 N+1幀和第N+2幀為例,進(jìn)行詳細(xì)說(shuō)明如何進(jìn)行乘客目標(biāo)鏈更新。先將第N幀作為目標(biāo)區(qū) 域,第N+1幀作為搜索區(qū)域,分別提取兩者的SURF特征點(diǎn),完成特征點(diǎn)匹配后,將第N+1幀 作為目標(biāo)區(qū)域,第N+2幀作為搜索區(qū)域,再重復(fù)上述步驟。會(huì)出現(xiàn)以下4中情況。
[0034] A.第N幀與第N+1幀SURF特征匹配,且第N幀有乘客檢測(cè)結(jié)果,表明圖像中乘客 未發(fā)生變化,則用第N+1幀的跟蹤結(jié)果更新乘客目標(biāo)鏈。
[0035] B.第N幀與第N+1幀SURF特征匹配,且第N幀無(wú)乘客檢測(cè)結(jié)果,表明圖像中無(wú)乘 客,不更新乘客目標(biāo)鏈。
[0036] C.第N幀與第N+1幀SURF特征不匹配,第N幀無(wú)乘客檢測(cè)結(jié)果;第N+1幀與第N+2 幀SURF特征匹配,第N+1幀有乘客檢測(cè)結(jié)果,表明有新的乘客目標(biāo)出現(xiàn),用第N+2幀的跟蹤 結(jié)果更新乘客目標(biāo)鏈。
[0037] D.第N幀與第N+1幀SURF特征不匹配,第N幀有乘客檢測(cè)結(jié)果;第N+1幀與第 N+2幀SURF特征匹配,第N+1幀無(wú)乘客檢測(cè)結(jié)果,表明有乘客目標(biāo)暫時(shí)消失,如果超出定時(shí) 范圍,則認(rèn)為目標(biāo)已經(jīng)離開(kāi),將其從目標(biāo)鏈中剔除。
【權(quán)利要求】
1. 一種基于視頻圖像處理的公交客流統(tǒng)計(jì)方法,利用安裝在公交車(chē)車(chē)頂垂直方向的攝 像頭采集到的視頻進(jìn)行處理,步驟如下: 1) 對(duì)所選取的各幀視頻圖像進(jìn)行預(yù)處理,獲取各幀視頻圖像中每一個(gè)前景的輪廓; 2) 利用一些視頻圖像,進(jìn)行基于頭肩部HOG特征的乘客檢測(cè),訓(xùn)練乘客目標(biāo)檢測(cè)分類(lèi) 器,得到強(qiáng)分類(lèi)器; 3) 在進(jìn)行客流統(tǒng)計(jì)時(shí),設(shè)當(dāng)前幀為第N幀,利用訓(xùn)練后得到的強(qiáng)分類(lèi)器在不同的尺寸 位置空間上,對(duì)前景提取后的當(dāng)前幀視頻圖像窗口遍歷,如果該窗口被判別為乘客目標(biāo),則 記錄位置和當(dāng)前尺度,否則丟棄;建立一個(gè)乘客目標(biāo)鏈,用于存儲(chǔ)所有的乘客目標(biāo); 4) 采SURF算法對(duì)每相鄰兩幀視頻圖像進(jìn)行SURF特征提取和特征點(diǎn)匹配; 5) 相鄰幀的SURF特征匹配結(jié)果,會(huì)產(chǎn)生四種情況:乘客未發(fā)生變化、圖像中無(wú)乘客、出 現(xiàn)新的乘客目標(biāo)和乘客目標(biāo)暫時(shí)失蹤,采用如下的具體評(píng)判標(biāo)準(zhǔn)進(jìn)行判定,并進(jìn)行乘客目 標(biāo)鏈更新,從而實(shí)現(xiàn)乘客目標(biāo)的跟蹤: A. 乘客未發(fā)生變化:第N幀與第N+1幀SURF特征匹配,且第N幀有乘客檢測(cè)結(jié)果,用 第N+1幀的跟蹤結(jié)果更新乘客目標(biāo)鏈; B. 圖像中無(wú)乘客:第N幀與第N+1幀SURF特征匹配,且第N幀無(wú)乘客檢測(cè)結(jié)果。不更 新乘客目標(biāo)鏈; C. 出現(xiàn)新的乘客目標(biāo):第N幀與第N+1幀SURF特征不匹配,第N幀無(wú)乘客檢測(cè)結(jié)果; 第N+1幀與第N+2幀SURF特征匹配,第N+1幀有乘客檢測(cè)結(jié)果;用第N+2幀的跟蹤結(jié)果更 新乘客目標(biāo)鏈。 D. 乘客目標(biāo)暫時(shí)失蹤:第N幀與第N+1幀SURF特征不匹配,第N幀有乘客檢測(cè)結(jié)果; 第N+1幀與第N+2幀SURF特征匹配,第N+1幀無(wú)乘客檢測(cè)結(jié)果。如果超出定時(shí)范圍,則認(rèn) 為目標(biāo)已經(jīng)離開(kāi),將其從目標(biāo)鏈中剔除。
2. 根據(jù)權(quán)利要求1所述的客流統(tǒng)計(jì)方法,其特征在于,步驟1中,對(duì)所選取的各幀視頻 圖像進(jìn)行預(yù)處理的方法如下:采用Otsu法自適應(yīng)選取背景差分閾值,對(duì)并進(jìn)行自適應(yīng)閾值 背景差分處理;用中值濾波法對(duì)差分后的視頻圖像進(jìn)行去噪,然后對(duì)圖像進(jìn)行腐蝕操作,接 著對(duì)圖像進(jìn)行膨脹操作,完成差分后的視頻圖像的形態(tài)學(xué)處理;采用多邊形逼近輪廓的方 法找出差分圖像中每一個(gè)前景的輪廓。
3. 根據(jù)權(quán)利要求1所述的客流統(tǒng)計(jì)方法,其特征在于,步驟2中,進(jìn)行基于頭肩部HOG 特征的乘客檢測(cè),訓(xùn)練乘客目標(biāo)檢測(cè)分類(lèi)器,得到強(qiáng)分類(lèi)器的方法如下:手動(dòng)裁剪包含乘客 頭肩部的正樣本和不包含乘客頭肩部的負(fù)樣本,并將所有樣本縮放到同一尺寸;提取所有 正負(fù)樣本的HOG特征,并對(duì)正負(fù)樣本賦予標(biāo)簽,所有正樣本標(biāo)記為1,所有負(fù)樣本標(biāo)記為0 ; 采用Adaboost算法,針對(duì)不同的樣本集訓(xùn)練若干SVM弱分類(lèi)器,并將這些弱分類(lèi)器聯(lián)合起 來(lái),構(gòu)成一個(gè)最終的強(qiáng)分類(lèi)器。
【文檔編號(hào)】G06T7/20GK104156983SQ201410380811
【公開(kāi)日】2014年11月19日 申請(qǐng)日期:2014年8月5日 優(yōu)先權(quán)日:2014年8月5日
【發(fā)明者】金志剛, 蘇菲 申請(qǐng)人:天津大學(xué)