亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于深度網(wǎng)絡的車輛檢測方法與流程

文檔序號:12471115閱讀:495來源:國知局
一種基于深度網(wǎng)絡的車輛檢測方法與流程

本發(fā)明屬于圖像處理技術(shù)領域,涉及圖像信息感知,具體涉及一種基于深度學習的車輛檢測方法。



背景技術(shù):

交通安全問題已成為世界性的重大問題,而汽車的安全性對人類生命財產(chǎn)的影響更是不言而喻。隨著高速公路的發(fā)展和汽車性能的提高,汽車行駛速度也相應加快,加之汽車數(shù)量增加以及交通運輸日益繁忙,汽車事故增多所引起的人員傷亡和財產(chǎn)損失,已成為一個不容忽視的社會問題,汽車的行車安全更顯得非常重要。傳統(tǒng)的被動安全已經(jīng)遠遠不能避免交通的事故發(fā)生,而主動安全技術(shù)由于可以預防事故的發(fā)生而倍受關(guān)注。視覺傳感由于具有信息量大、成本低廉的特點,在汽車主動安全領域有著廣泛的應用。

車輛檢測技術(shù)是指利用圖像傳感手段對圖像中的車輛搜尋和判定,獲得圖像中車輛的多種屬性(如位置、速度、形狀、外觀)的過程。它是汽車主動安全領域,尤其是實現(xiàn)追尾預警(Forward Collision Warning,F(xiàn)CW)以及自動緊急剎車(Automatic Emergency Braking,AEB)功能的關(guān)鍵技術(shù)之一。但是,由于實際公路環(huán)境具有較大的復雜性和不確定性,會存在檢測目標被遮擋、背景環(huán)境復雜、存在與目標相似的物體(如非車輛道路物體)、光線強弱變化大和車輛運動速度快等問題。因此,如何提高車輛檢測的準確性、魯棒性和實時性,解決實際道路環(huán)境下的車輛檢測一直是人們研究的熱點。

目前常用以人工特征結(jié)合通用分類器的方法在車輛檢測中占主導地位,也取得了一定的效果。然而該方法的最大缺點是,各類人工特征都尤其局限性,不能滿足越來越復雜的道路環(huán)境下車輛檢測的需要。針對此,本發(fā)明采用一種能夠進行特征自生成的采用深度學習的車輛檢測方法。



技術(shù)實現(xiàn)要素:

一種基于深度網(wǎng)絡的車輛檢測方法,與基于人工特征和常規(guī)分類器的方法相比,具有檢測率高,適應性強的優(yōu)點。

本發(fā)明詳細技術(shù)方案如下:

一種基于深度網(wǎng)絡的車輛檢測方法,其特征在于:所述方法包括以下步驟:

1)選取圖像中可能是車輛的子圖片;

2)準備深度網(wǎng)絡訓練樣本的;

3)對為深度網(wǎng)絡分類器CDNN結(jié)構(gòu)進行確定;

4)對待分類樣本進行判斷,最后得到檢測結(jié)果。

優(yōu)選地,上述步驟1)中設任一待判斷子圖片為I(x),則該子圖片的對稱度用如下的公式進行計算:

<mrow> <mi>S</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msubsup> <mo>&Integral;</mo> <mrow> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> <mrow> <mo>+</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> </msubsup> <mi>E</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>u</mi> <mo>-</mo> <msubsup> <mo>&Integral;</mo> <mrow> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> <mrow> <mo>+</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> </msubsup> <mi>O</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>u</mi> </mrow> <mrow> <msubsup> <mo>&Integral;</mo> <mrow> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> <mrow> <mo>+</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> </msubsup> <mi>E</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>u</mi> <mo>+</mo> <msubsup> <mo>&Integral;</mo> <mrow> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> <mrow> <mo>+</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> </msubsup> <mi>O</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>u</mi> </mrow> </mfrac> <mo>,</mo> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> <mo>&le;</mo> <mi>u</mi> <mo>&le;</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>

公式中,設圖像中心對稱軸橫坐標為xs,u=x-xs;

此外:

公式(1)所計算的值S(xs)即為某圖像塊的對稱性度量。

優(yōu)選地,上述步驟2中深度網(wǎng)絡訓練樣本是通過人工選取大量車輛及非車輛的圖片,并分別標記為正負樣本,將所有正負樣本都歸一化到長寬均為32像素的尺寸,并設第i個樣本的灰度特征向量為Gi;并設正負樣本數(shù)共為n。

優(yōu)選地,上述步驟3中分類器結(jié)構(gòu)由訓練樣本個數(shù)及待分類類數(shù)確定;其中深度神經(jīng)網(wǎng)絡是一個前饋的神經(jīng)網(wǎng)絡結(jié)構(gòu),并由輸入層、模式層、求和層與輸出層構(gòu)成。

優(yōu)選地,上述步驟4中待判斷樣本先以灰度特征向量Gi表征;然后將該向量輸入到步驟2得到的CDNN中,待判斷樣本屬于輸出神經(jīng)元為1的類。

優(yōu)選地,上述步驟4還包括以下步驟:

4.1、通過CDNN輸入層接收來自待判斷樣本的灰度特征向量Gi

4.2、計算CDNN模式層計算輸入特征向量與訓練樣本集中各個模式的匹配關(guān)系,該層每個模式神經(jīng)元j的輸出為:

<mrow> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>G</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>W</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mi>exp</mi> <mo>&lsqb;</mo> <mo>-</mo> <mfrac> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>W</mi> <mi>j</mi> </msub> <mo>-</mo> <msub> <mi>G</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mi>T</mi> </msup> <mrow> <mo>(</mo> <msub> <mi>W</mi> <mi>j</mi> </msub> <mo>-</mo> <msub> <mi>G</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <msup> <mi>&sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> <mo>&rsqb;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>

其中:Wj為輸入層到模式層神經(jīng)元j連接的權(quán)值,其值為神經(jīng)元j對應訓練樣本的特征向量;σ為平滑參數(shù),σ取0.25;

4.3、求和層按式(3)計算,對步驟4.2中j個模式單元的輸出按照類別分別求和,求和層神經(jīng)元對應值即為樣本屬于該類的估計概率密度;

4.4、輸出層在各個分類模式求和層中選擇一個具有最大輸出的神經(jīng)元作為整個系統(tǒng)的輸出;具有最大輸出的求和層想對應的輸出層神經(jīng)元輸出為1,即所對應的那一類即為待判斷的樣本類別,輸出層其他神經(jīng)元的輸出全為0。

優(yōu)選地,上述步驟3中輸入層神經(jīng)元個數(shù)為樣本的維數(shù);模式層神經(jīng)元個數(shù)所有訓練樣本個數(shù)之和;求和層神經(jīng)元個數(shù)為待分類類數(shù);輸出層神經(jīng)元個數(shù)與模式層相同。

本發(fā)明具有以下優(yōu)點:

本發(fā)明通過分析目前計算機視覺領域比較典型的車輛檢測方法,并細致的分析了已有方法的不足。提出了一種基于深度網(wǎng)絡的車輛檢測方法。該方法以深度網(wǎng)絡(DNN)取代傳統(tǒng)的分類器,大大提高了車輛檢測的準確率。

附圖說明

圖1為本發(fā)明實施方案流程圖

圖2為本發(fā)明使用的深度網(wǎng)絡的結(jié)構(gòu)圖

具體實施方式

為了更清楚地說明本發(fā)明具體實施方式或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對具體實施方式或現(xiàn)有技術(shù)描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖是本發(fā)明的一些實施方式,對于本領域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這些附圖獲得其他的附圖。

步驟1:步驟1為圖像中可能是車輛的子圖片的選取。該步驟的目的是篩選出有一定可能屬于車輛的子圖片,拒絕絕大部分非車輛圖片,減少后續(xù)分類器需處理的子圖片數(shù)量,提升車輛檢測實時性。

設任一待判斷子圖片為I(x),則該子圖片的對稱度可以用如下的公式進行計算:

<mrow> <mi>S</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msubsup> <mo>&Integral;</mo> <mrow> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> <mrow> <mo>+</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> </msubsup> <mi>E</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>u</mi> <mo>-</mo> <msubsup> <mo>&Integral;</mo> <mrow> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> <mrow> <mo>+</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> </msubsup> <mi>O</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>u</mi> </mrow> <mrow> <msubsup> <mo>&Integral;</mo> <mrow> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> <mrow> <mo>+</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> </msubsup> <mi>E</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>u</mi> <mo>+</mo> <msubsup> <mo>&Integral;</mo> <mrow> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> <mrow> <mo>+</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> </msubsup> <mi>O</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>u</mi> </mrow> </mfrac> <mo>,</mo> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> <mo>&le;</mo> <mi>u</mi> <mo>&le;</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>

公式中,設圖像中心對稱軸橫坐標為xs,u=x-xs。

此外:

公式(1)所計算的值S(xs)即為某圖像塊的對稱性度量。本發(fā)明中,將對稱度小于0.2的子圖像塊均視為非車輛,予以舍棄。剩余子圖像塊會進一步輸入到深度網(wǎng)絡分類器中進行進一步判斷。

步驟2:該步驟為深度網(wǎng)絡訓練樣本的準備。通過人工選取大量車輛及非車輛的圖片,分別標記為正負樣本。將所有正負樣本都歸一化到長寬均為32像素的尺寸,并設第i個樣本的灰度特征向量為Gi。此外,不妨設正負樣本數(shù)共為n。

步驟3:該步驟為深度網(wǎng)絡分類器CDNN結(jié)構(gòu)確定。分類器結(jié)構(gòu)由訓練樣本個數(shù)及待分類類數(shù)確定。深度神經(jīng)網(wǎng)絡是一個前饋的神經(jīng)網(wǎng)絡結(jié)構(gòu),并由輸入層、模式層、求和層與輸出層構(gòu)成(如圖2)。輸入層神經(jīng)元個數(shù)為樣本的維數(shù)。模式層神經(jīng)元個數(shù)所有訓練樣本個數(shù)之和。求和層神經(jīng)元個數(shù)為待分類類數(shù)。輸出層神經(jīng)元個數(shù)與模式層相同。

步驟4:該步驟為待分類樣本判斷。將待判斷樣本先以灰度特征向量Gi表征。然后將該向量輸入到步驟2得到的CDNN中,待判斷樣本屬于輸出神經(jīng)元為1的類。

步驟4-1:CDNN輸入層接收來自待判斷樣本的灰度特征向量Gi。

步驟4-2:CDNN模式層計算輸入特征向量與訓練樣本集中各個模式的匹配關(guān)系,該層每個模式神經(jīng)元j的輸出為:

<mrow> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>G</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>W</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mi>exp</mi> <mo>&lsqb;</mo> <mo>-</mo> <mfrac> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>W</mi> <mi>j</mi> </msub> <mo>-</mo> <msub> <mi>G</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mi>T</mi> </msup> <mrow> <mo>(</mo> <msub> <mi>W</mi> <mi>j</mi> </msub> <mo>-</mo> <msub> <mi>G</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <msup> <mi>&sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> <mo>&rsqb;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>

其中:Wj為輸入層到模式層神經(jīng)元j連接的權(quán)值,其值為神經(jīng)元j對應訓練樣本的特征向量;σ為平滑參數(shù),σ取0.25。

步驟4-3:求和層按式(3)計算,對步驟4-2中j個模式單元的輸出按照類別分別求和。求和層神經(jīng)元對應值即為樣本屬于該類的估計概率密度。

步驟4-4:輸出層在各個分類模式求和層中選擇一個具有最大輸出的神經(jīng)元作為整個系統(tǒng)的輸出。具有最大輸出的求和層想對應的輸出層神經(jīng)元輸出為1,即所對應的那一類即為待判斷的樣本類別,輸出層其他神經(jīng)元的輸出全為0。

最后應說明的是:以上各實施例僅用以說明本發(fā)明的技術(shù)方案,而非對其限制;盡管參照前述各實施例對本發(fā)明進行了詳細的說明,本領域的普通技術(shù)人員應當理解:其依然可以對前述各實施例所記載的技術(shù)方案進行修改,或者對其中部分或者全部技術(shù)特征進行等同替換;而這些修改或者替換,并不使相應技術(shù)方案的本質(zhì)脫離本發(fā)明各實施例技術(shù)方案的范圍。

當前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1