本發(fā)明涉及計算機視覺領域,特指一種基于積分特征通道和SVM訓練器的車型識別算法。
背景技術:
隨著現(xiàn)代化交通、安防等行業(yè)的迅速發(fā)展,車型自動識別技術越來越受到人們的重視,是近年來計算機視覺與模式識別技術在智能交通領域的重要研究課題之一。車型的自動識別系統(tǒng)可用于公路收費站、停車場、十字路口等場所的車輛管理,也可用于現(xiàn)代化小區(qū)或者工業(yè)園區(qū)的車輛進出管理,對于公共安全,社區(qū)安防,道路交通和停車場車輛管理都具有重要的促進作用。
車型識別一般包括三個方面的研究,國內(nèi)外專家學者也開展了大量的工作,主要包括:車牌的定位與識別,車標的檢測月識別,以及車型大小的分類。其中,根據(jù)車前臉圖像來識別具體車型的研究方法是最近幾年的熱點研究方向。
現(xiàn)實中,在實際停車場和小區(qū)中采集的圖片通常背景復雜、光照不均、分辨率低、車輛舊、車輛臟等,且進出的角度通常來說都不一致,這些都給車型識別帶來了很大的困難,針對這些實際的特定問題,本發(fā)明提出了一種車型自動識別算法。
本算法可靠性高,辯識別度好,魯棒性好,同時步驟計算簡單,能保持高效率,實時性也能滿足需求。
技術實現(xiàn)要素:
本發(fā)明要解決的技術問題在于:針對現(xiàn)行車型識別系統(tǒng)存在的這些特定難點問題,為了提高監(jiān)控系統(tǒng)的車型識別的準確程度,并使其滿足實時性需求,提出一種基于積分特征通道和SVM訓練器的車型識別算法,其包括如下步驟:
步驟S1:車牌定位,其包括:
步驟S1.1:訓練車牌樣本特征提取及特征組織,包括手動摳取出任意正常國標車牌、對摳取出的車牌圖像進行積分通道特征提取、以及基于Adaboost算法訓練檢測器;
步驟S1.2:車牌的檢測定位,包括對目標圖像進行掃描以獲取初定位車牌圖像,并對所述初定位車牌圖像進行非極大值抑制算法處理后,再將處理結果進行基于霍夫變換的傾斜校正得到二次定位后的車牌圖像;
步驟S2:車臉區(qū)域截取,其包括在定位出準確的車牌位置后,根據(jù)車牌的長寬,選取一定的比例進行車臉區(qū)域圖像的截?。?/p>
步驟S3:車臉區(qū)域圖像識別,其包括首先確定各種車型車臉區(qū)域的分類器,然后分別提取實時車型車臉區(qū)域的灰度方向梯度直方圖(HOG)特征、二值HOG特征、16值HOG特征,將它們組合成聯(lián)合HOG特征,將得到的聯(lián)合HOG特征用核主成分分析法進行降維,最后將車臉區(qū)域的聯(lián)合HOG特征送入支持向量機進行訓練和預測,得到最終的車型識別結果。
作為本發(fā)明技術方案的進一步改進,所述對摳取出的車牌圖像進行積分通道特征提取中選取3種不同的通道作為積分通道特征,包括LUV通道、梯度幅值通道、以及梯度直方圖通道;
所述基于Adaboost算法訓練檢測器包括:
訓練階段,利用Adaboost對提取的積分通道特征訓練出強分類器作為檢測器;
判別階段,計算檢測出定位車牌窗口的積分通道特征,運用強分類器進行打分,所述打分為判別車牌位置的自信度,最后存儲一段視頻中分數(shù)最高的那一幀或者幾幀圖像。
作為本發(fā)明技術方案的進一步改進,所述對目標圖像進行掃描為:根據(jù)國內(nèi)車牌的固定比例,設定一個固定大小的滑窗,從獲取視頻圖像頂端開始進行逐一掃描,設置滑窗步長為4個像素,將每次掃描截取的圖像進行積分通道特征計算,與AdaBoost算法訓練出的強檢測器進行積分通道特征比對,得到相似度最高的圖像區(qū)域,即初步判定為車牌位置,截取該相似度最高的區(qū)域初定位圖像并輸出檢測器。
作為本發(fā)明技術方案的進一步改進,所述非極大值抑制算法步驟如下:
(1)將初始檢測窗口按照檢測得分從高到低排序;
(2)將第1個初始檢測窗口作為當前的抑制窗口;
(3)非極大值抑制:將所有檢測分數(shù)比當前抑制窗口低的初始窗口作為被抑制窗口,計算當前抑制窗口與被抑制窗口的重合面積比率:面積的交集/面積的并集,并剔除重合面積比率高于設定閾值的窗口;
(4)如果只剩最后一個初始檢測窗口則結束,否則按照排好的順序,取下一個未被抑制的窗口作為抑制窗口,轉(zhuǎn)到步驟(3)。
作為本發(fā)明技術方案的進一步改進,所述聯(lián)合HOG特征方法為將灰度圖和二值圖分別計算HOG并組合成聯(lián)合特征,如下所示:H代表是得到的聯(lián)合特征,hi表示灰度圖和二值圖的HOG特征,ωi代表的是灰度圖和二值圖HOG的權重值,權重之和為1;
其中∑ωi=1
同時將16值圖的HOG特征加入聯(lián)合HOG特征,即分別進行車臉區(qū)域圖像的灰度圖、二值圖和16值圖的HOG計算,將計算結果以某種關系線性組合起來得到的聯(lián)合HOG特征,組合如下式所示:
H=ωgray hgray+ω2h2+ω16h16
H代表最終的聯(lián)合HOG特征,hgray、h2、h16分別代表車臉區(qū)域圖像灰度圖、二值圖和16值圖的HOG特征,ωi代表權重,i表示特征類型。
作為本發(fā)明技術方案的進一步改進,所述步驟S3還包括車臉區(qū)域圖像車型特征分類,將待識別的包括車型信息的車臉區(qū)域圖像與經(jīng)過學習的訓練車型特征進行對比來進行識別;在提取特征以后,利用支持向量機進行訓練分類;
所述支持向量機在處理樣本并進行訓練預測識別的過程包括:在車型特征圖像樣本中選擇訓練樣本集和測試樣本集,分別對訓練集和測試集進行預處理,并提取HOG等特征,然后利用交叉驗證法選擇最優(yōu)參數(shù)c和g,最后利用最佳參數(shù)訓練支持向量機,獲得訓練模型,利用訓練模型對測試集進行預測,得到預測分類準確率;
訓練分類后,將截取的包含車型特征信息的車臉區(qū)域圖像輸入訓練器中,輸出識別的車型信息。
附圖說明
圖1是本實施例所述整體算法流程圖;
圖2是本實施例所述車牌圖像三種積分特征通道圖像;
圖3是本實施例所述四個方向梯度算子示意圖;
圖4是本實施例所述像素點方向示意圖;
圖5是本實施例所述霍夫變換傾斜校正的車牌圖像;
圖6是本實施例所述截取的車臉圖像范圍各參數(shù)實例;
圖7是本實施例所述基于聯(lián)合HOG的車型識別流程圖。
具體實施方式
以基于積分特征通道和SVM訓練器的車型識別算法為例,結合附圖對本發(fā)明做進一步詳細說明。
該基于積分特征通道和SVM訓練器的車型識別算法具體包括以下步驟:
S1.車牌定位;
S1.1訓練車牌樣本特征提取及特征組織;
S1.1.1手動摳取出任意正常國標車牌;
S1.1.2對摳取出的車牌圖像進行積分通道特征提取;
積分通道特征由Dollár P等人在2009年提出,最早通常用于行人檢測,是目前評估效果較好的檢測算子。其基本思想是通過對輸入圖形進行各種線性和非線性的變換,圖像的很多常用特征,例如局部求和、直方圖、Haar以及它們的變種,可以借助積分圖來快速、高效地計算。給定一個輸入圖像矩陣I,其對應的通道指的是原始輸入圖像的某種輸出響應。對于灰度圖,其對應的通道矩陣C=I,即原圖本身;
對于彩圖,其每個顏色通道都對應一個通道。其他類似的通道可以通過各種線性和非線性的方法計算得到。令Ω代表圖像的某種通道計算函數(shù),則對應的通道C=Ω(I)。
在計算中,不同的變換可以形成不同的通道類型,本發(fā)明中選取3種不同的通道作為積分通道特征,以保證其準確性。其中LUV顏色通道能夠很好地描述車牌亮度及色度變化,梯度幅值通道很好地反映了車牌的輪廓,梯度直方圖通道則從不同梯度方向上綜合對車牌位置姿態(tài)變化進行描述。3種通道變換如圖2所示。
S1.1.2.1建立LUV通道:
在圖像處理中,LUV色彩空間(全稱CIE1976(L*,U*,V*))優(yōu)于RGB色彩空間。LUV色彩空間的目的是建立與人的視覺統(tǒng)一的色彩空間,具備一致性和均勻性且各色彩分量之間不相關。在LUV色彩空間中,L表示亮度,U、V表示色度。一般圖像顏色都是RGB顏色空間的,通過下面的公式可以轉(zhuǎn)換到LUV顏色空間中。
最后計算得到LUV色彩空間中的L、U、V通道。
S1.1.2.2梯度幅值通道:
梯度幅值是一種用于圖像邊緣檢測的描述方法。一幅圖像中每個像素點具有八鄰域以及四個邊緣檢測方向。為了能夠在像素點X方向、Y方向、Z方向上檢測邊緣,本文使用在窗口中分別計算X方向Y方向、Z方向的一階偏導數(shù)有限差分均值來確定像素點的梯度幅值的方法。四個方向的梯度算子分別為圖3所示。其中I[i,j]是坐標為3×3窗口中心像素點的灰度值,M[i,j]為中心像素點的梯度幅值,其計算公式如下所示,對應四個方向上的計算公式為:
M[i,j]=(|Px[i,j]|+|P45°[i,j]|+|Py[i,j]|+|P135°[i,j]|)
由上述公式最后得到整幅圖像的梯度幅值圖。
S1.1.2.3梯度直方圖通道:
梯度直方圖思想來源于梯度方向直方圖(Histograms of Oriented Gradients,HOG)是2005年Dalal等人將它用于行人識別而得名。HOG作為一種局部特征描述子,對方向、尺度、光照不敏感,后來Deniz等人將HOG成功應用于人臉識別,得到了比較好的效果。
梯度直方圖特征提取過程如下:
步驟1以圖像I[i,j]為中心取3×3的像素鄰域作為采樣窗口。
步驟2計算該像素點的梯度方向θ[i,j]和梯度幅值M[i,j]。
θ[i,j]=arctan(I[i,j+1]-I[i,j-1])/I[i+1,j]-I[i-1,j]
如圖4所示,箭頭代表該像素點的方向。
步驟3將梯度方向分為6個方向,即將180°平均分成6份,平均間隔30°。按照橢圓圈的高斯加權范圍將該像素鄰域上所有點梯度方向角度相同像素點梯度幅值相加。
步驟4最后統(tǒng)計6個方向上的梯度幅值累加和,得到整幅圖像6個方向上的梯度幅值圖。
通過步驟S1.1.2.2和S1.1.2.3得到的10個通道的圖像如圖2所示。
S1.1.3基于Adaboost算法訓練檢測器
訓練階段,利用Adaboost對提取的積分通道特征訓練出強分類器,在判別階段,計算檢測出定位車牌窗口的積分通道特征,運用強分類器進行“打分”,即是判別車牌位置的自信度,最后存儲一段視頻中分數(shù)最高的那一幀或者幾幀圖像。
AdaBoost算法由Schapire、Freund等人于1996年提出,其實質(zhì)是弱分類器的分類學習過程,是集成機器學習方法的一種,具有計算效率高、調(diào)節(jié)參數(shù)少、針對弱分類器的構造兼容性強,且對樣本先驗知識和數(shù)據(jù)格式要求低等優(yōu)點,因此,得到廣泛推廣。AdaBoost中每個特征都對應一個弱分類器,但并不是每一個特征都能很好地描述前景目標的特點。如何從大量特征中挑選出最優(yōu)特征并制作成弱分類器,再通過弱分類器集成,最終獲得高精度的強分類器,是AdaBoost算法訓練過程所要解決的關鍵問題。
弱分類器的定義為:
其中,fj表示一個特征,pj表示不等式方向,θj表示閾值。
S1.1.3.1具體訓練算法
(1)給定n個樣本圖像,xi是輸入樣本圖像,yi是類別標志,其中yi=0表示為負樣本,yi=1表示為正樣本。
(2)初始化權重:
其中m和l分別為非正確車牌樣本和正確車牌樣本的數(shù)量,n=m+l。
(3)For t=1,2,3,…,T
1.歸一化權重:其中ωt為統(tǒng)計分布。
2.隨機選擇積分通道特征j:隨機選擇通道索引bink(k=1,2,…,10),隨機選擇矩形區(qū)域Rectj并計算像素值之和。
3.對每個特征j,訓練一個弱分類器hj,計算相應的ωt的錯誤率:εj=∑iωi|hj(xi)-yi|。
4.選擇最小錯誤率εt的弱分類器ht。
5.更新權重:其中,當xi被正確分類時,ei=0,反之,ei=1;
(4)最終強分類器為h(x):
其中,
S1.2.車牌的檢測定位;
S1.2.1用滑窗法對目標圖像進行掃描,獲取初定位車牌圖像;
本發(fā)明方法根據(jù)國內(nèi)車牌的固定比例,設定一個固定大小的滑窗,從獲取視頻圖像頂端開始進行逐一掃描,為了提高掃描準確度,通常設置滑窗步長為4個像素,將每次掃描截取的圖像進行積分通道特征計算,與AdaBoost算法訓練出的強檢測器進行積分通道特征比對,得到得分最高的(即相似度最高的)圖像區(qū)域,即初步判定為車牌位置,截取該得分最高的區(qū)域初定位圖像并輸出檢測器。
S1.2.2將檢測器輸出的圖像進行非極大值抑制處理,并將該非極大值抑制處理后的初定位結果進行基于霍夫變換的傾斜校正得到二次定位后的車牌圖像;
非極大值抑制在物體檢測中應用十分廣泛,主要目的是為了消除多余干擾因素,找到最佳的物體檢測的位置。非極大值抑制是檢測的后處理過程,是關鍵環(huán)節(jié)之一。
啟發(fā)式窗口融合算法對非重合目標檢測效果很好,但對于車輛車牌檢測并不適合。啟發(fā)式窗口融合算法,將初始檢測窗口劃分為若干個不重合的子集,然后計算每個子集的中心,最后每個子集只保留一個檢測窗口,顯然該算法容易造成大量漏檢。
Dalal等提出了均值漂移非極大值抑制,這種方法不僅計算復雜,需要將檢測窗口在3維空間(橫坐標,縱坐標,尺度)表示,檢測分數(shù)轉(zhuǎn)換,計算不確定性矩陣,迭代優(yōu)化,而且還需要調(diào)整很多與檢測器的步長等相關聯(lián)的參數(shù),因此,目前較少使用。
當前,大多數(shù)的目標檢測普遍使用基于貪心策略的非極大值抑制算法,因為它簡單高效,主要步驟如下:
(1)將初始檢測窗口按照檢測得分從高到低排序;
(2)將第1個初始檢測窗口作為當前的抑制窗口;
(3)非極大值抑制:將所有檢測分數(shù)比當前抑制窗口低的初始窗口作為被抑制窗口,計算當前抑制窗口與被抑制窗口的重合面積比率:面積的交集/面積的并集,并剔除重合面積比率高于設定閾值的窗口;
(4)如果只剩最后一個初始檢測窗口則結束,否則按照排好的順序,取下一個未被抑制的窗口作為抑制窗口,轉(zhuǎn)到步驟(3)。
本發(fā)明同樣使用的是簡單高效的基于貪心策略的非極大值抑制算法。經(jīng)過非極大值抑制處理后的車牌圖像再進行基于霍夫變換的傾斜校正。
霍夫變換是一種強有力的特征提取方法,它利用局部圖像信息有效的積累所有可能的模型實例的依據(jù),這使得它既能方便地從外部數(shù)據(jù)中獲得額外的信息,又能敏銳地從只有一部分的實例中呈現(xiàn)出有效信息?;舴蜃儞Q普遍應用在計算機視覺中形狀,位置,幾何變換參數(shù)的判斷中。自霍夫變換提出以來,其得到了廣泛的應用。近些年,專家學者們對霍夫變換的理論性質(zhì)與應用方法又進行了進一步的探討?;舴蜃儞Q作為一種有效的識別直線的算法,具有良好的抗干擾性及魯棒性。
霍夫變換方法包含一個從圖像空間中的特征到參數(shù)空間中點的集合的映射,每一個參數(shù)空間中的點表征著圖像空間中模型的一個實例,圖像特征利用一個函數(shù)被映射到參數(shù)空間當中去,這個函數(shù)產(chǎn)生能夠兼容觀察到的圖像特征與假設的模型的所有的參數(shù)組合,每一個圖像特征將在多維的參數(shù)空間中產(chǎn)生一個不同的平面,但是由所有圖像特征產(chǎn)生的屬于同一個模型的實例的一切平面都會相交在描繪共同的實例的點,霍夫變換的根本是產(chǎn)生這些平面并且識別與之相交的參數(shù)點。
經(jīng)過基于霍夫變換的傾斜校正后的車牌圖像為系統(tǒng)二次定位后的圖像,霍夫變換傾斜校正的車牌圖像示例如圖5所示。
S1.2.3將輸出的二次定位后的車牌輸入強檢測器,得出最終定位車牌結果。
將經(jīng)過非極大值抑制處理和基于霍夫變換的傾斜校正處理后的圖像輸出后,再次進行積分通道特征提取后輸入強檢測器進行二次定位。定位后輸出最終的定位結果。
S2車臉區(qū)域截??;
在定位出準確的車牌位置后,通常根據(jù)車牌的長寬,選取一定的比例進行車臉圖像的截取,以卡口相機的正臉拍攝車型區(qū)域為例,通常,以車牌的左右兩邊各截取1.3倍車牌長度為車臉區(qū)域的長,而車型圖片高度為車牌之上0.8倍車牌長度與車牌之下為0.3倍車牌長度之和,參數(shù)根據(jù)需要實時調(diào)整。截取的車臉圖像范圍各參數(shù)實例如圖6所示。
S3車型區(qū)域圖像識別;
對于已經(jīng)截取好的車型車臉區(qū)域,需要進行識別才能輸出最終車型結果,本發(fā)明提出了聯(lián)合方向梯度直方圖和核主成分分析法特征,它綜合了二值圖、灰度圖、16值圖的方向梯度直方圖特征的優(yōu)點,能夠較好提取帶車型特征的車臉區(qū)域。方向梯度直方圖特征進行聯(lián)合后,HOG特征維數(shù)增加,此時為了縮短特征提取時間,本系統(tǒng)用核主成分分析法方法進行降維。字符識別方法采用的是對小樣本問題有較好分類效果的支持向量機。
基于聯(lián)合HOG特征的車型識別算法:
本發(fā)明車型特征區(qū)域識別過程是:首先確定各種車型車臉區(qū)域的分類器。然后分別提取實時車型車臉區(qū)域的灰度方向梯度直方圖(HOG)特征、二值HOG特征、16值HOG特征,將它們組合成聯(lián)合HOG特征,將得到的聯(lián)合HOG特征用核主成分分析法進行降維。最后將車臉區(qū)域的聯(lián)合HOG特征送入支持向量機進行訓練和預測,得到最終的車型識別結果。基于聯(lián)合HOG的車型識別流程如圖7所示。
S3.1灰度方向梯度直方圖特征
灰度方向梯度直方圖的核心思想是計算圖像中被檢測目標的局部梯度的統(tǒng)計信息。由于梯度是針對邊緣輪廓,因此目標的外形輪廓可以由梯度分布所描述。因此,HOG特征就是通過將截取下來的車臉區(qū)域圖像分割成小的連通區(qū)域,成為細胞單元,每個細胞單元中的每個像素生成一個梯度直方圖,這些直方圖的串聯(lián)就可表示出所檢測目標的特征。為了提高光照變化的適應性,將這些直方圖在分割下來的單個字符中的一個較大區(qū)域內(nèi)進行對比度歸一化,具體來說就是計算每個局部直方圖在圖像塊中的密度,根據(jù)密度來對這個圖像塊中的每個細胞單元進行歸一化。經(jīng)過歸一化后,HOG特征對光照變化和陰影可以獲得更好的適應能力。
HOG具體實現(xiàn)過程如下:
(1)計算圖像梯度:先用模板[-1,0,1]對截取下來的車臉區(qū)域圖像做卷積運算,得到水平方向梯度分量Gh(x,y),如式(1)所示;再用模板[-1,0,1]對截取下來的車臉區(qū)域圖像做卷積運算,得到豎直方向梯度分量Gv(x,y),如式(2)所示;最后,計算該像素點的梯度幅值M(x,y)和θ(x,y)梯度方向,如式(3)、式(4)所示,f(x,y)表示該點的像素值,計算公式為:
Gh(x,y)=f(x+1,y)-f(x-1,y) (1)
Gv(x,y)=f(x,y+1)-f(x,y-1) (2)
M(x,y)≈|Gh(x,y)|+|Gv(x,y)| (3)
(2)構建梯度方向直方圖:在細胞單元中的每個像素點都要為基于某個梯度方向的直方圖投票,梯度方向可取0~180°或者0~360°,在以往的實驗證明0~180°效果較好。單個字符圖像被分為若干個細胞單元,每個細胞單元包括8*8個像素,將梯度范圍分為9個方向角度,因此利用9個方向角度對8*8個像素的梯度信息進行投票。特別指出,直方圖投票采取加權投票,即每個像素的梯度幅值作為投票權重。
(3)將細胞單元組合成塊:塊的結構有兩種:矩形塊(R-HOG)和環(huán)形塊(C-HOG)。本發(fā)明采用矩形塊來進行目標檢測,矩形塊一般包含3個參數(shù):每個塊中細胞單元的數(shù)目,每個細胞單元中像素點的數(shù)目以及每個細胞單元的方向角數(shù)目。
(4)塊內(nèi)歸一化計算公式如下所示:
L2_hys:先計算L2_norm,然后將v的最大值限定為0.2,再進行歸一化。
其中,v表示包含給定塊統(tǒng)計直方圖信息的未歸一化向量,δ是一個很小的常數(shù),作用是為了避免分母為0,||v||k是v的k階范數(shù)。
在Dalal的實驗中發(fā)現(xiàn)L2_hys,L2_norm,L1_sqrt效果差不多,L1_norm字符識別效果要差一些,但這4個歸一化方法在識別性能上對比未歸一化都有明顯提高。本發(fā)明中采用的是L2_norm進行歸一化。
假設將車臉區(qū)域圖像歸一化到64*128,每8*8個像素組成一個細胞單元,每2*2個細胞單元組成一個塊,當塊的滑動步長為8時,掃描垂直方向可以滑動15次,水平方向可以滑動7次,因此可以得到36*7*15=3780位的特征算子。但是車臉區(qū)域圖像缺點在于圖中車型標志的某些特征不明顯,且受環(huán)境影響較大,影響了包含車型特征信息的車臉區(qū)域圖像的識別率。為了克服上述缺點,提出了聯(lián)合HOG特征,將灰度圖的HOG特征、二值圖的HOG特征和16值圖的HOG特征聯(lián)合起來。
S3.2聯(lián)合方向梯度直方圖
聯(lián)合HOG方法,即將灰度圖和二值圖分別計算HOG并組合成聯(lián)合特征,如下所示:H代表是得到的聯(lián)合特征,h i表示灰度圖和二值圖的HOG特征,ωi代表的是灰度圖和二值圖HOG的權重值,權重之和為1。權重分布的不同對后來的識別結果有很大影響。經(jīng)實驗證明,權重值都為0.5時,識別效果是最好的,并且對比單獨的灰度圖或二值圖的識別效果好:
其中∑ωi=1
同時將16值圖的HOG特征加入聯(lián)合HOG特征,即分別進行車臉區(qū)域圖像的灰度圖、二值圖和16值圖的HOG計算,將結果以某種關系線性組合起來得到的聯(lián)合HOG特征,組合如下式所示:
H=ωgray hgray+ω2h2+ω16h16
H代表最終的聯(lián)合HOG特征,hgray、h2、h16分別代表車臉區(qū)域圖像灰度圖、二值圖和16值圖的HOG特征,ωi代表權重,i表示特征類型。
聯(lián)合HOG將灰度圖、二值圖和16值圖的特點結合起來,能夠一定程度的彌補單獨進行灰度圖或者二值圖的HOG運算造成的不足,對識別率有也有一定程度的提高。
S3.1.3車臉區(qū)域圖像車型特征分類
車型特征分類主要是指將待識別的包括車型信息的車臉區(qū)域圖像與經(jīng)過學習的訓練車型特征通過某一算法進行對比來進行識別。常用的分類器主要包括最小距離分類器、k-最近鄰分類器、貝葉斯分類器、決策樹、Adaboost級聯(lián)分類器、人工神經(jīng)網(wǎng)絡和支持向量機(SVM)。根據(jù)需要訓練分類的車型圖像特性及不同分類器的特點,本發(fā)明主要采用支持向量機進行分類。支持向量機的核心思想在于利用一個分類超平面當作決策的曲面,來最大化正類和負類兩者的邊緣距離??紤]到本發(fā)明車型識別中訓練樣本的數(shù)量有限,而且生成的HOG維數(shù)較多,因此本發(fā)明采用的對小樣本問題有較好分類效果的支持向量機。針對多分類的問題,本發(fā)明采用的“一對一”的方式進行劃分。SVM在處理樣本并進行訓練預測識別的過程大致為以下幾步:在車型特征圖像樣本中選擇訓練樣本集和測試樣本集,分別對訓練集和測試集進行預處理,并提取HOG等特征,然后利用交叉驗證法選擇最優(yōu)參數(shù)c和g,最后利用最佳參數(shù)訓練SVM,獲得訓練模型,利用訓練模型對測試集進行預測,得到預測分類準確率。SVM中常用的核函數(shù)包括線性核函數(shù),徑向基核函數(shù),多項式核函數(shù),sigmoid核函數(shù)。對于不同的核函數(shù)測試集的分類準確率也會不同,車型識別中采用徑向基核函數(shù)的分類準確率最高。因此,本發(fā)明SVM的核函數(shù)采用的是RBF核函數(shù)。
綜上所述,在提取特征以后,利用SVM進行訓練分類。訓練分類后,將截取的包含車型特征信息的車臉區(qū)域圖像輸入訓練器中,輸出識別的車型信息。
本發(fā)明中提出的方法實際上可嵌入FPGA實現(xiàn),運用于具有實時輸出圖像功能的車型識別功能的相機或攝像機監(jiān)控系統(tǒng)中。本領域技術人員將清楚本發(fā)明的范圍不限制于以上討論的示例,有可能對其進行若干改變和修改,而不脫離所附權利要求書限定的本發(fā)明的范圍。盡管己經(jīng)在附圖和說明書中詳細圖示和描述了本發(fā)明,但這樣的說明和描述僅是說明或示意性的,而非限制性的。本發(fā)明并不限于所公開的實施例。