本發(fā)明屬于智能交通技術(shù)領(lǐng)域,涉及一種基于卷積神經(jīng)網(wǎng)絡(luò)的以圖搜車方法。
背景技術(shù):
以圖搜車方法依賴車輛外觀特征對搜索集進(jìn)行相似度排序,能夠從視頻或圖像集中找到包含用戶查找的車輛的所有圖像,查找過程不依賴于車牌信息,對無牌、假牌和套牌同樣適用。
卷積神經(jīng)網(wǎng)絡(luò)是目前研究和工業(yè)應(yīng)用的熱點,與傳統(tǒng)的人工智能算法相比,如神經(jīng)網(wǎng)絡(luò)、支持向量機等,深度學(xué)習(xí)算法能大幅度提升圖像分類的精度,在人臉識別應(yīng)用領(lǐng)域已經(jīng)超越肉眼識別的準(zhǔn)確率。
以圖搜車方法中的車輛外觀特征表示有很多種方法:《基于sift特征的嫌疑車輛檢索方法》103678558A中,在車輛圖像的R、G、B三個顏色通道上分別提取SIFT特征,結(jié)合車輛顏色描述車輛的外觀特征;《一種基于相似度學(xué)習(xí)的車輛檢索方法》105488099A中先提取車輛圖像的SIFT特征,利用聚類算法離散該SIFT特征,轉(zhuǎn)換成鄰域特征作為基礎(chǔ)的車輛描述特征;《一種基于圖像的機動車輛檢索方法及裝置》104361087A根據(jù)車輛在圖像中的外觀輪廓將車輛圖像劃分為多個子窗口,在子窗口中提取SIFT或HoG特征,融合所有子窗口的紋理特征表達(dá)車輛的外觀特征。
在這些已有的車輛外觀表示方法中,普遍采用SIFT、HoG等手工方法計算紋理特征,這種傳統(tǒng)手工特征提取模式適用于大多數(shù)模式識別應(yīng)用,通用性好,但是由于計算方法固定,不能達(dá)到很高的精度,不利于車輛檢索的開展。
技術(shù)實現(xiàn)要素:
本發(fā)明針對現(xiàn)有技術(shù)的不足,提供了一種基于卷積神經(jīng)網(wǎng)絡(luò)的以圖搜車方法。
本發(fā)明的主要構(gòu)思:收集不同車輛的圖像集,相同的車輛作為正樣本對,不同的車輛作為負(fù)樣本對,在典型卷積神經(jīng)網(wǎng)絡(luò)模型,如TripletLoss、Inception、VGG等網(wǎng)絡(luò)模型上訓(xùn)練,最小化相似度差異或分類誤差,學(xué)習(xí)一組車輛特征表達(dá)方法,車輛圖像在該卷積神經(jīng)網(wǎng)絡(luò)模型前向傳播后,數(shù)據(jù)層的結(jié)果便可作為車輛的紋理特征,用該特征計算待檢索車輛特征與檢索集車輛的相似度,按相似度進(jìn)行排序得到以圖搜車的結(jié)果。
其中的特征表達(dá)學(xué)習(xí)方案:
1. 首先利用常規(guī)的目標(biāo)檢測方法定位車輛位置。
2. 將車輛區(qū)域圖像進(jìn)行合理的旋轉(zhuǎn)、縮放、色彩變換等操作,增加樣本的數(shù)量。
3. 規(guī)范車輛圖像樣本的尺寸。
4. 將車輛圖像打標(biāo)簽,相同的車輛打相同的標(biāo)簽,不同的車輛標(biāo)簽不同。
5. 根據(jù)使用的卷積神經(jīng)網(wǎng)絡(luò)框架和懲罰函數(shù)整合數(shù)據(jù),組成訓(xùn)練集。
6. 在訓(xùn)練集上學(xué)習(xí)網(wǎng)絡(luò)參數(shù),運用GPU加速卡提高學(xué)習(xí)速率。
7. 規(guī)范后的車輛圖像在學(xué)習(xí)到的網(wǎng)絡(luò)參數(shù)下按照卷積神經(jīng)網(wǎng)絡(luò)前向傳播,每一個數(shù)據(jù)層都可作為車輛的外觀表達(dá),可用GPU加速。
基于卷積神經(jīng)網(wǎng)絡(luò)以圖搜車方案:
1. 利用常規(guī)的目標(biāo)檢測方法定位待搜索車輛和搜索集中的車輛位置。
2. 規(guī)范車輛圖像樣本的尺寸。
3. 使用GPU加速,將規(guī)范后的車輛圖像在學(xué)習(xí)到的網(wǎng)絡(luò)參數(shù)下按照卷積神經(jīng)網(wǎng)絡(luò)前向傳播,選擇一個數(shù)據(jù)層的數(shù)據(jù)作為車輛的外觀特征向量。
4. 依據(jù)外觀特征向量計算待搜索車輛和搜索集車輛的相似度,按照相似度降序排列搜索集。
本發(fā)明的有益效果:
1、針對以圖搜車問題學(xué)習(xí)特征表達(dá)方法,學(xué)習(xí)到的特征提取方法與以圖搜車任務(wù)緊密相關(guān),最大限度提高特征在以圖搜車任務(wù)中的適用性。
2、可以將度量學(xué)習(xí)結(jié)合到卷積神經(jīng)網(wǎng)絡(luò)框架中,降低車輛檢索任務(wù)的復(fù)雜性,算法更穩(wěn)定可控。
3、使用GPU加速,大幅度提高特征提取的速度。
附圖說明
圖1為特征表達(dá)學(xué)習(xí)流程圖。
圖2為以圖搜圖流程圖。
具體實施方式
以下結(jié)合實施例和附圖對本發(fā)明作進(jìn)一步說明:
在視頻偵查項目中,本實施例采用了基于卷積神經(jīng)網(wǎng)絡(luò)以圖搜車方案。
如圖1所示,在特征表達(dá)學(xué)習(xí)過程中:(1)用常規(guī)的目標(biāo)檢測方法定位車輛位置,將車輛區(qū)域圖像進(jìn)行10°范圍內(nèi)的旋轉(zhuǎn)、0.2范圍內(nèi)的縮放、用PCA進(jìn)行色彩變換,每張車輛圖像擾動10次,數(shù)據(jù)集擴(kuò)展后共收集300萬張圖像進(jìn)行訓(xùn)練。(2)將所有訓(xùn)練集圖像規(guī)范至224x224。(3)將數(shù)據(jù)集中所有的圖像組成三元組(a,p,n),a代表任意一張車輛圖像,p與a是相同車輛的不同圖像,n與a是不同車輛,將所有三元組存入數(shù)據(jù)庫。(4)在VGG網(wǎng)絡(luò)上添加Tripletloss懲罰函數(shù)組成車輛特征表達(dá)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),在訓(xùn)練集上訓(xùn)練網(wǎng)絡(luò)參數(shù)。
如圖2所示,在基于卷積神經(jīng)網(wǎng)絡(luò)以圖搜車過程中:(1)用常規(guī)的目標(biāo)檢測方法定位待搜索車輛和搜索集中的車輛位置。(2)規(guī)范車輛圖像至224x224。(3)在GPU加速卡,將規(guī)范后的車輛圖像在學(xué)習(xí)到的網(wǎng)絡(luò)參數(shù)下按照卷積神經(jīng)網(wǎng)絡(luò)前向傳播,選擇Tripletloss層前面的數(shù)據(jù)層數(shù)據(jù)作為車輛的外觀特征向量。(4) 依據(jù)外觀特征向量計算待搜索車輛和搜索集車輛的內(nèi)積,排列搜索集。
綜上,本發(fā)明利用卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)車輛圖像的外觀表示方法,較SIFT、HoG特征等目的性更強,特征更直觀,不需要額外的度量學(xué)習(xí)過程,有利于大幅度提高搜索的準(zhǔn)確度和精度,且特征的維數(shù)可控制在較小的數(shù)量級,有利于在海量圖像庫中實現(xiàn)快速搜索。
以上所述,僅為本發(fā)明的較佳實施例而已,并非用于限定本發(fā)明的保護(hù)范圍,應(yīng)帶理解,本發(fā)明并不限于這里所描述的實現(xiàn)方案,這些實現(xiàn)方案描述的目的在于幫助本領(lǐng)域中的技術(shù)人員實踐本發(fā)明。