本發(fā)明屬視覺(jué)導(dǎo)航技術(shù)領(lǐng)域,具體涉及一種基于機(jī)器視覺(jué)的城市環(huán)境行駛車(chē)輛行為識(shí)別方法。
背景技術(shù):
當(dāng)前,機(jī)器視覺(jué)在人工智能領(lǐng)域中發(fā)展速度很快,且在理論科學(xué)與工程應(yīng)用方面有著廣泛應(yīng)用前景,機(jī)器視覺(jué)系統(tǒng)的研究包括目標(biāo)檢測(cè)、圖像特征提取和行為識(shí)別等幾個(gè)關(guān)鍵問(wèn)題,并在醫(yī)學(xué)動(dòng)態(tài)影像、圖像檢索、多媒體信息處理與通信、指紋和人臉識(shí)別、圖像處理與預(yù)處理、自然界生物種類(lèi)識(shí)別、交通安全等各個(gè)研究領(lǐng)域都得到廣泛應(yīng)用。
運(yùn)動(dòng)目標(biāo)檢測(cè)既是機(jī)器視覺(jué)系統(tǒng)中的一個(gè)核心技術(shù),又是圖像處理、多媒體信息處理、智能視頻監(jiān)控等各個(gè)領(lǐng)域中不可或缺的部分。在各種繁瑣復(fù)雜的場(chǎng)景中存在著各種不同的信息,但是只有部分信息是人們感興趣的即是有效的,把有效信息與復(fù)雜背景成功地分割開(kāi)也就是從背景中只提取人們感興趣的目標(biāo),這就是運(yùn)動(dòng)目標(biāo)檢測(cè)的基本任務(wù)。從檢測(cè)結(jié)果中可以一目了然地觀察到運(yùn)動(dòng)目標(biāo)的輪廓邊緣、內(nèi)部信息等基本特征,有利于特征提取、行為識(shí)別工作的進(jìn)行,研究意義重大。
運(yùn)動(dòng)目標(biāo)的行為識(shí)別則包含了目標(biāo)的及時(shí)檢測(cè)與特征提取、行為描述、分析與識(shí)別等。在工廠、企業(yè)、商場(chǎng)、車(chē)站、機(jī)場(chǎng)、小區(qū)等公共場(chǎng)地安裝監(jiān)控設(shè)備,大都是以運(yùn)動(dòng)人體為研究對(duì)象,要實(shí)現(xiàn)對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行監(jiān)控和行為分析,先檢測(cè)出目標(biāo)并根據(jù)提取出的行為動(dòng)作特征來(lái)分析目標(biāo)的走、跑、打架斗毆、集會(huì)、偷盜等行為。
目前,智能監(jiān)控技術(shù)在目標(biāo)檢測(cè)、特征提取以及行為識(shí)別方法的魯棒性方面存在不足,適用范圍受到限制,沒(méi)有達(dá)到較高的行為識(shí)別率,所以,對(duì)于運(yùn)動(dòng)目標(biāo)的特征提取與行為識(shí)別研究一直是智能安全系統(tǒng)中的熱點(diǎn)問(wèn)題。道路交通的環(huán)境,尤其是交叉路口的交通環(huán)境非常復(fù)雜,然而大部分機(jī)動(dòng)車(chē)交通事故都發(fā)生在這,若能夠有效的監(jiān)控交叉路口等道路,如果車(chē)輛的違章行為可以被自動(dòng)檢測(cè),這樣就可以降低交通道路中事故的發(fā)生。
技術(shù)實(shí)現(xiàn)要素:
本發(fā)明提供一種基于機(jī)器視覺(jué)的城市環(huán)境行駛車(chē)輛行為識(shí)別方法,通過(guò)對(duì)運(yùn)動(dòng)車(chē)輛進(jìn)行目標(biāo)檢測(cè)、目標(biāo)跟蹤、特征提取、行為識(shí)別,得出車(chē)輛行為分析的結(jié)果。首先使用背景差分法的車(chē)輛目標(biāo)檢測(cè)方法完成車(chē)輛目標(biāo)檢測(cè);然后使用光流法對(duì)檢測(cè)到的車(chē)輛目標(biāo)進(jìn)行跟蹤;跟蹤完成后,根據(jù)車(chē)輛運(yùn)動(dòng)軌跡的基本行為特征得出車(chē)輛的軌跡;最后采用訓(xùn)練好的SVM分類(lèi)器對(duì)行使軌跡進(jìn)行識(shí)別,從而判斷該行為是左轉(zhuǎn)彎、右轉(zhuǎn)彎或者直行。
一種基于機(jī)器視覺(jué)的城市環(huán)境行駛車(chē)輛行為識(shí)別方法,其特征在于步驟如下:
步驟1:車(chē)輛目標(biāo)檢測(cè)與跟蹤:利用背景差分法與混合高斯模型建模的方法進(jìn)行運(yùn)動(dòng)車(chē)輛目標(biāo)檢測(cè),然后利用光流的跟蹤算法對(duì)檢測(cè)出的運(yùn)動(dòng)車(chē)輛目標(biāo)進(jìn)行跟蹤,具體為:
步驟a:分別按照和計(jì)算一段時(shí)間內(nèi)視頻序列圖像的像素亮度的均值μ0(x,y)及方差以μ0(x,y)和分別為像素均值和方差組成具有高斯分布的圖像B0,B0即為初始的背景估計(jì)圖像;
其中,N為初始化背景圖像選取時(shí)間段內(nèi)序列圖像的總幀數(shù),150≤N≤200;fi(x,y)為第i幀圖像在第x行、y列的像素亮度值,(x,y)表示圖像中的像素位置為x行、y列;
步驟b:分別按照μj(x,y)=(1-α)·μj-1(x,y)+α·fj(x,y)和更新背景估計(jì)圖像的均值μj(x,y)和方差得到更新后的第j幀圖像的背景估計(jì)圖像Bj;
其中,δ是[0,1]之間的常數(shù),K是混合高斯模型的個(gè)數(shù),3≤K≤5;j≥1,fj(x,y)表示第j幀圖像在第x行、y列的像素亮度值;
步驟c:按照dj(x,y)=|fj(x,y)-Bj(x,y)|計(jì)算得到當(dāng)前幀圖像和當(dāng)前幀背景估計(jì)圖像的差分圖像,并按照對(duì)差分圖像進(jìn)行二值化處理,得到檢測(cè)出的運(yùn)動(dòng)車(chē)輛區(qū)域,即二值化處理后圖像M中像素值為1的區(qū)域,圖像M中像素值為0的區(qū)域?yàn)楸尘皡^(qū)域;第j幀圖像中Mj(x,y)=1表示的運(yùn)動(dòng)區(qū)域;
其中,r為灰度閾值,50≤r≤60;
步驟d:對(duì)每一幀圖像檢測(cè)出的運(yùn)動(dòng)車(chē)輛區(qū)域進(jìn)行角點(diǎn)特征提取,再應(yīng)用金字塔Lucas-Kanade稀疏光流算法對(duì)所有幀視頻圖像中的角點(diǎn)進(jìn)行跟蹤,得到運(yùn)動(dòng)車(chē)輛運(yùn)動(dòng)軌跡;
步驟2:車(chē)輛軌跡特征提?。菏褂镁仃嚲W(wǎng)格和雙向直方圖相結(jié)合的軌跡特征提取方法,構(gòu)造車(chē)輛軌跡特征向量,為車(chē)輛行為分類(lèi)提供特征依據(jù),具體為:
步驟a:以步驟1得到的運(yùn)動(dòng)車(chē)輛軌跡坐標(biāo)為基準(zhǔn),以軌跡橫坐標(biāo)為x軸、軌跡縱坐標(biāo)為y軸構(gòu)造車(chē)輛軌跡坐標(biāo)系Oxy,分別求出所有點(diǎn)的x軸方向最大值xmax和最小值xmin、y軸方向最大值ymax和最小值ymin,在坐標(biāo)系Oxy創(chuàng)建寬為高為的矩陣網(wǎng)格,對(duì)網(wǎng)格中每一個(gè)子網(wǎng)格賦予初始值0;
步驟b:對(duì)軌跡坐標(biāo)所在的子網(wǎng)格進(jìn)行賦值,先沿x軸正方向,再沿y軸正方向,按順序賦予遞增的權(quán)重值1、2、3、……,得到軌跡坐標(biāo)矩陣;
步驟c:對(duì)軌跡坐標(biāo)矩陣的行和列分別構(gòu)造直方圖,使用雙向直方圖估算車(chē)輛目標(biāo)的基本行為趨勢(shì),即依據(jù)軌跡坐標(biāo)矩陣行和列的直方圖整體趨勢(shì)走向,如果自左至右遞減,則趨向于右轉(zhuǎn)彎;如果自左至右遞增,則趨向于左轉(zhuǎn)彎;如果中間向兩邊遞減,則軌跡線呈直行趨勢(shì),得到運(yùn)動(dòng)車(chē)輛行為趨勢(shì)為左轉(zhuǎn)彎、右轉(zhuǎn)彎或直行;
其中,直方圖橫坐標(biāo)表示軌跡坐標(biāo)矩陣的行數(shù)或列數(shù),直方圖的縱坐標(biāo)統(tǒng)計(jì)軌跡坐標(biāo)矩陣中某一行或列中矩陣元素值不為0的個(gè)數(shù);
步驟d:由步驟c得到的行為趨勢(shì)和步驟b得到的軌跡坐標(biāo)矩陣構(gòu)成運(yùn)動(dòng)車(chē)輛的軌跡特征向量;
步驟3:車(chē)輛行為訓(xùn)練:利用SVM兩層分類(lèi)器結(jié)構(gòu)對(duì)車(chē)輛軌跡樣本進(jìn)行行為訓(xùn)練,得到樣本數(shù)據(jù)的識(shí)別結(jié)果,具體為:
步驟a:創(chuàng)建軌跡樣本:用圖片生成工具導(dǎo)入預(yù)先采集的視頻的模擬背景,并創(chuàng)建包括直行、左轉(zhuǎn)彎、右轉(zhuǎn)彎三種類(lèi)型的軌跡樣本各100張;
步驟b:根據(jù)步驟2的軌跡特征提取方法對(duì)軌跡樣本進(jìn)行軌跡特征提取,得到各種類(lèi)型軌跡樣本的軌跡特征向量;
步驟c:利用SVM兩層分類(lèi)器對(duì)步驟b得到的樣本的軌跡特征向量進(jìn)行訓(xùn)練,得到樣本數(shù)據(jù)的識(shí)別結(jié)果;
步驟4:車(chē)輛行為識(shí)別:根據(jù)步驟3訓(xùn)練得到的SVM分類(lèi)器,對(duì)步驟2得到的運(yùn)動(dòng)車(chē)輛軌跡特征向量進(jìn)行車(chē)輛行為識(shí)別,最終得到車(chē)輛行為為左轉(zhuǎn)彎、右轉(zhuǎn)彎或直行。
本發(fā)明的有益效果是:由于采用背景差分法進(jìn)行車(chē)輛目標(biāo)檢測(cè)和光流法進(jìn)行車(chē)輛跟蹤,方法執(zhí)行速度快,準(zhǔn)確率高;由于采用矩陣網(wǎng)格和雙向直方圖相結(jié)合的軌跡特征提取方法,在一定程度上避免了冗余情況,有效的提取并擴(kuò)充了車(chē)輛運(yùn)動(dòng)軌跡特征向量,還可以避免產(chǎn)生不可分區(qū)域問(wèn)題。
附圖說(shuō)明
圖1是本發(fā)明的基于機(jī)器視覺(jué)的城市環(huán)境行駛車(chē)輛行為識(shí)別方法的基本流程圖
圖2是本發(fā)明方法用背景差分法進(jìn)行車(chē)輛目標(biāo)檢測(cè)的結(jié)果圖
圖3是本發(fā)明方法提取的車(chē)輛運(yùn)動(dòng)軌跡示意圖
具體實(shí)施方式
下面結(jié)合附圖和實(shí)施例對(duì)本發(fā)明進(jìn)一步說(shuō)明,本發(fā)明包括但不僅限于下述實(shí)施例。
本發(fā)明提供了一種基于機(jī)器視覺(jué)的城市環(huán)境行駛車(chē)輛行為識(shí)別方法,其基本流程圖如圖1所示,具體包括以下步驟:
步驟1:車(chē)輛目標(biāo)檢測(cè)與跟蹤
車(chē)輛目標(biāo)檢測(cè)是指從視頻序列圖像中分離出車(chē)輛目標(biāo),車(chē)輛目標(biāo)的檢測(cè)結(jié)果直接影響后期車(chē)輛目標(biāo)跟蹤、行為特征提取以及行為分類(lèi)等環(huán)節(jié)。車(chē)輛目標(biāo)跟蹤是為了獲取車(chē)輛目標(biāo)的運(yùn)動(dòng)參數(shù)(例如位置、速度等)以及運(yùn)動(dòng)軌跡,實(shí)現(xiàn)對(duì)車(chē)輛目標(biāo)的行為理解。在交通監(jiān)控視頻中,天氣、車(chē)輛目標(biāo)相互干擾等因素,是影響車(chē)輛目標(biāo)檢測(cè)和跟蹤精度的主要原因。
針對(duì)上述問(wèn)題,首先,利用背景差分法與混合高斯模型建模的方法進(jìn)行目標(biāo)檢測(cè)與提取,準(zhǔn)確的從視頻圖像中區(qū)分出前景圖像和背景模型,提取前景圖像并檢測(cè)出車(chē)輛目標(biāo)。然后,利用光流的跟蹤算法對(duì)運(yùn)動(dòng)車(chē)輛進(jìn)行跟蹤。
1、利用背景差分法與混合高斯模型建模的方法進(jìn)行目標(biāo)檢測(cè)與提?。?/p>
背景差分法是一種最基本的目標(biāo)識(shí)別方法,它采用根據(jù)某種背景模型更新參考圖像,計(jì)算當(dāng)前圖像與參考圖像的差分圖像,然后閥值化分割出運(yùn)動(dòng)物體,這種方法計(jì)算簡(jiǎn)單,如果參考圖像選取得當(dāng),這種方法的優(yōu)點(diǎn)是可以準(zhǔn)確地分割出運(yùn)動(dòng)物體。其實(shí)現(xiàn)步驟如下:
(1)確定背景模型,并建立背景圖像。最簡(jiǎn)單的背景模型是時(shí)間平均圖像,但隨著時(shí)間的推移,外界的光線會(huì)變化,這會(huì)引起背景圖像的變化,因而采用一幅固定背景圖像的方法,只適合應(yīng)用于外界條件較好的場(chǎng)合。為了實(shí)現(xiàn)長(zhǎng)時(shí)間的視頻監(jiān)視,本發(fā)明采用基于高斯統(tǒng)計(jì)模型的背景圖像估計(jì)算法,用高斯分布來(lái)描述每個(gè)像素顏色的概率密度分布。該算法由背景圖像的估計(jì)和更新兩部分組成。在背景圖像的估計(jì)算法中,首先,計(jì)算一段時(shí)間內(nèi)視頻序列圖像的像素亮度的均值μ0(x,y)及方差以μ0(x,y)和組成具有高斯分布的圖像B0,B0即為初始的背景估計(jì)圖像;
其中,N為初始化背景圖像選取時(shí)間段內(nèi)序列圖像的總幀數(shù),150≤N≤200;fi(x,y)為第i幀圖像在第x行、y列的像素亮度值,(x,y)表示圖像中的像素位置為x行、y列。
當(dāng)背景估計(jì)圖像的初始化完成后,隨著每一幀新圖像的到來(lái),分別按照μj(x,y)=(1-α)·μj-1(x,y)+α·fj(x,y)和更新背景估計(jì)圖像的均值μj(x,y)和方差得到更新后的第j幀圖像的背景估計(jì)圖像Bj;
其中,δ是一給定的[0,1]之間的常數(shù),K是混合高斯模型的個(gè)數(shù),3≤K≤5;j≥1,fj(x,y)表示第j幀圖像在第x行、y列的像素亮度值。
(2)在像素模式下,用當(dāng)前圖像減去己知背景圖像來(lái)得到差分圖像,即按照dj(x,y)=|fj(x,y)-Bj(x,y)|計(jì)算得到當(dāng)前幀圖像和當(dāng)前幀背景估計(jì)圖像的差分圖像;然后,對(duì)差分圖像里做二值化處理,得到檢測(cè)出的運(yùn)動(dòng)車(chē)輛區(qū)域,即:
其中,Mj(x,y)為差分圖像中任何一點(diǎn),r為灰度閥值,50≤r≤60。
如果,Mj(x,y)=1,則表示像素點(diǎn)(x,y)在第j幀屬于運(yùn)動(dòng)區(qū)域,否則,像素點(diǎn)(x,y)在第j幀屬于背景區(qū)域。
2、利用光流的跟蹤算法對(duì)運(yùn)動(dòng)車(chē)輛進(jìn)行跟蹤:
光流場(chǎng)的方法是從實(shí)時(shí)采集的圖像序列中抽取光流場(chǎng),蹄選出光流較大的運(yùn)動(dòng)目標(biāo)區(qū)域并計(jì)算出運(yùn)動(dòng)目標(biāo)的速度矢量,從而實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)的檢測(cè)和跟蹤。光流場(chǎng)是一個(gè)二維矢量場(chǎng),它包含的信息即是各像素點(diǎn)的瞬時(shí)運(yùn)動(dòng)速度矢量信息。研究光流場(chǎng)的目的就是為了從圖像序列中近似計(jì)算不能直接得到的運(yùn)動(dòng)場(chǎng)。任何估計(jì)算法都可以獲得光流,如局部松她算法、多分辨率估計(jì)算法以及分層塊匹配算法等。
經(jīng)典的Horn-Schunck光流計(jì)算方法主要是基于空間平滑性假設(shè)和亮度恒常性假設(shè)。假設(shè)I(x,y,t)為圖像坐標(biāo)為(x,y)點(diǎn)在t時(shí)刻的灰度(亮度)值。當(dāng)t+dt時(shí)刻該點(diǎn)運(yùn)動(dòng)到(x+dx,y+dy)點(diǎn),根據(jù)亮度恒常性假設(shè),可以認(rèn)為在t+dt時(shí)刻在圖像點(diǎn)(x+dx,y+dy)處的亮度與時(shí)刻t的(x,y)點(diǎn)的亮度是相同的,即光流約束方程為:
I(x,y,t)=I(x+dx,y+dy,t+dt)(2)
如果認(rèn)為圖像灰度是位置和時(shí)間的連續(xù)變化函數(shù),則將上式右邊用泰勒級(jí)數(shù)展開(kāi)并略去二次項(xiàng)和高階項(xiàng),得到光流場(chǎng)的基本方程:
Horn和Schunck根據(jù)同一運(yùn)動(dòng)物體引起的光流場(chǎng)應(yīng)該是連續(xù)平滑的,提出了空間平滑性約束假設(shè)。該假設(shè)認(rèn)為,在許多情況下物體的運(yùn)動(dòng)速度是局部光滑的,或隨著點(diǎn)的改變而緩慢變化的,但在局部區(qū)域的變化非常小。特別是目標(biāo)在作無(wú)形變剛體運(yùn)動(dòng)時(shí),各相鄰像素點(diǎn)應(yīng)具有相同的運(yùn)動(dòng)速度,即相鄰點(diǎn)速度的空間變化率為零,可以表示為:
其中u和v為時(shí)刻圖像平面上坐標(biāo)為(x,y)的像素點(diǎn)在方向以及在方向的瞬時(shí)速度分量,也就是光流。將式(3)和(4)結(jié)合起來(lái)求解,就形成了對(duì)兩個(gè)約束條件進(jìn)行加權(quán)求極值的問(wèn)題。
光流攜帶了有關(guān)物體運(yùn)動(dòng)和景物三維結(jié)構(gòu)的豐富信息,所以該方法不僅可以用于運(yùn)動(dòng)目標(biāo)檢測(cè),甚至可以直接用于運(yùn)動(dòng)目標(biāo)跟蹤,而且在攝像頭存在運(yùn)動(dòng)的前提下也能正確地檢測(cè)出運(yùn)動(dòng)目標(biāo)。但在實(shí)際應(yīng)用中,由于多光源、遮擋性、噪聲等原因,使得光流場(chǎng)基本方程的灰度守恒假設(shè)條件往往不能滿(mǎn)足,不能求解出正確的光流場(chǎng),同時(shí)大多數(shù)光流計(jì)算方法也相當(dāng)復(fù)雜,計(jì)算量巨大,不能滿(mǎn)足實(shí)時(shí)要求。
本發(fā)明首先對(duì)每一幀圖像檢測(cè)出的運(yùn)動(dòng)車(chē)輛區(qū)域進(jìn)行角點(diǎn)特征提取,再應(yīng)用金字塔Lucas-Kanade稀疏光流算法對(duì)所有幀視頻圖像中的角點(diǎn)進(jìn)行跟蹤,得到運(yùn)動(dòng)車(chē)輛運(yùn)動(dòng)軌跡。
步驟2:車(chē)輛軌跡特征提取
車(chē)輛軌跡的最基本的數(shù)據(jù)形式,即為位置坐標(biāo)。根據(jù)位置坐標(biāo),通過(guò)計(jì)算可得到諸如目標(biāo)車(chē)輛運(yùn)動(dòng)速度、方向等信息。以步驟1目標(biāo)檢測(cè)跟蹤得到的運(yùn)動(dòng)車(chē)輛的運(yùn)動(dòng)軌跡為基礎(chǔ),使用矩陣網(wǎng)格和雙向直方圖相結(jié)合的軌跡特征提取方法,構(gòu)造車(chē)輛軌跡特征向量,可以為車(chē)輛行為分類(lèi)提供特征依據(jù)。具體為:
(1)以運(yùn)動(dòng)車(chē)輛軌跡坐標(biāo)為基準(zhǔn),以軌跡橫坐標(biāo)為x軸、軌跡縱坐標(biāo)為y軸構(gòu)造車(chē)輛軌跡坐標(biāo)系Oxy,分別求出所有點(diǎn)的x軸方向最大值xmax和最小值xmin、y軸方向最大值ymax和最小值ymin,在坐標(biāo)系Oxy創(chuàng)建寬為高為的矩陣網(wǎng)格,對(duì)網(wǎng)格中每一個(gè)子網(wǎng)格賦予初始值0;
(2)對(duì)軌跡坐標(biāo)所在的子網(wǎng)格進(jìn)行賦值,先沿x軸正方向,再沿y軸正方向,按順序賦予遞增的權(quán)重值1、2、3、……,得到軌跡坐標(biāo)矩陣;
(3)對(duì)軌跡坐標(biāo)矩陣的行和列分別構(gòu)造直方圖,使用雙向直方圖估算車(chē)輛目標(biāo)的基本行為趨勢(shì),即依據(jù)軌跡坐標(biāo)矩陣行和列的直方圖整體趨勢(shì)走向,如果自左至右遞減,則趨向于右轉(zhuǎn)彎;如果自左至右遞增,則趨向于左轉(zhuǎn)彎;如果中間向兩邊遞減,則軌跡線呈直行趨勢(shì),得到運(yùn)動(dòng)車(chē)輛行為趨勢(shì)為左轉(zhuǎn)彎、右轉(zhuǎn)彎或直行;
其中,直方圖橫坐標(biāo)表示軌跡坐標(biāo)矩陣的行數(shù)或列數(shù),直方圖的縱坐標(biāo)統(tǒng)計(jì)軌跡坐標(biāo)矩陣中某一行或列中矩陣元素值不為0的個(gè)數(shù);
(4)由運(yùn)動(dòng)車(chē)輛行為趨勢(shì)和軌跡坐標(biāo)矩陣則構(gòu)成運(yùn)動(dòng)車(chē)輛的軌跡特征向量。
步驟3:車(chē)輛行為訓(xùn)練
支撐矢量機(jī)(support vector machines,SVM)是一種基于類(lèi)類(lèi)間隔最大的分類(lèi)模型。SVM因其對(duì)小樣本,高維的分類(lèi)問(wèn)題有較好的效果,且訓(xùn)練和測(cè)試階段相對(duì)簡(jiǎn)單,因此在模式識(shí)別和機(jī)器學(xué)習(xí)的問(wèn)題中得到了大量的應(yīng)用。由于支持向量機(jī)分類(lèi)器僅能將輸入識(shí)別成兩類(lèi),而需要區(qū)分的特征往往是兩類(lèi)以上的,本發(fā)明采用可以識(shí)別三類(lèi)的兩層分類(lèi)器結(jié)構(gòu)。
在利用SVM進(jìn)行車(chē)輛行為識(shí)別之前,先利用SVM兩層分類(lèi)器結(jié)構(gòu)對(duì)車(chē)輛軌跡樣本進(jìn)行行為訓(xùn)練,得到樣本數(shù)據(jù)的識(shí)別結(jié)果,具體為:
(1)創(chuàng)建軌跡樣本:用圖片生成工具導(dǎo)入預(yù)先采集的視頻的模擬背景,并創(chuàng)建包括直行、左轉(zhuǎn)彎、右轉(zhuǎn)彎三種類(lèi)型的軌跡樣本各100張;
(2)根據(jù)步驟2的軌跡特征提取方法對(duì)軌跡樣本進(jìn)行軌跡特征提取,得到各種類(lèi)型軌跡樣本的軌跡特征向量;
(3)利用SVM兩層分類(lèi)器對(duì)樣本的軌跡特征向量進(jìn)行訓(xùn)練,得到樣本數(shù)據(jù)的識(shí)別結(jié)果和訓(xùn)練好的SVM分類(lèi)器;
步驟4:車(chē)輛行為識(shí)別
根據(jù)步驟3訓(xùn)練得到的SVM分類(lèi)器,對(duì)步驟2得到的運(yùn)動(dòng)車(chē)輛軌跡特征向量進(jìn)行車(chē)輛行為識(shí)別,最終得到車(chē)輛行為為左轉(zhuǎn)彎、右轉(zhuǎn)彎或直行。
本實(shí)施例采用VS2010平臺(tái)和OpenCV技術(shù)進(jìn)行方法仿真,實(shí)現(xiàn)了對(duì)車(chē)輛檢測(cè)、跟蹤以及行為識(shí)別。測(cè)試結(jié)果表明,使用背景差分法的車(chē)輛目標(biāo)檢測(cè)方法和光流法算法可以完成對(duì)車(chē)輛目標(biāo)的檢測(cè)、跟蹤(如圖2所示),使用矩陣網(wǎng)格和雙向直方圖相結(jié)合可以提取車(chē)輛軌跡特征(如圖3所示),使用基于SVM的分類(lèi)算法可以完成對(duì)車(chē)輛行為的分類(lèi)識(shí)別,且實(shí)驗(yàn)結(jié)果準(zhǔn)確。