亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于ELM與DSmT的飛機姿態(tài)識別方法與流程

文檔序號:11323659閱讀:537來源:國知局
一種基于ELM與DSmT的飛機姿態(tài)識別方法與流程

本發(fā)明屬于自動目標識別技術領域,特別涉及一種基于elm與dsmt的飛機姿態(tài)識別方法。



背景技術:

自動目標識別技術(automatictargetrecognition,atr)是取得戰(zhàn)場控制信息權的關鍵因素之一。從二十世紀八十年代開始,國內外很多的專家、學者積極參與了atr技術的研究,使得atr理論方面得到了完善,應用領域也得到很大的擴展。飛機目標識別作為atr的重要領域之一,在現(xiàn)代戰(zhàn)爭和未來戰(zhàn)爭中都將占有著極為重要的地位。現(xiàn)代軍事活動中,飛機的姿態(tài)識別越來越發(fā)揮著重要的作用,通過定位飛機的姿態(tài),能夠更方便準確的定位飛機的局部關鍵部位(如螺旋漿、機艙、油箱)。

早期的研究主要集中于利用單特征結合模式分類方法對飛機目標做分類和識別。劉剛等(劉剛,梁曉庚,張京國.基于紅外圖像的飛機目標關鍵攻擊部位識別[j].計算機工程與應用,2011,47(24):174-178)基于紅外圖像,將飛機圖像分割成背景、機身、尾焰三部分,通過計算一種組合矩,同時結合面積比特征來實現(xiàn)飛機識別。涂建平等(涂建平,彭應寧,莊志洪.彈道終端飛機目標紅外圖像瞄準點識別方法[j].光學技術,2003,29(3):261-265)通過對飛機目標進行骨架提取、霍夫變換等過程,檢測飛機機軸,識別飛機。

基于單一特征的飛機目標識別在面對飛機種類繁多時,其算法性能很差,同時基于單一特征的算法在面對圖像存在噪聲如遮擋、縮放等情況下,誤識別率很低。為了解決這個問題,一部分學者提出了基于多特征融合的方法來提高飛機目標識別算法的魯棒性。曾接賢等(曾接賢,季康.基于多特征融合的多視點飛機目標識別算法[j].南昌航空大學學報:自然科學版,2016,30(2):9-15)提出一種基于dsmt理論和svm分類器相結合的多特征融合額多視點飛機目標識別算法,該方法首先對處理后的圖像提取仿射不變矩與傅里葉描述子,利用svm分類器對這兩個證據源構建信度賦值,最后利用dsmt在決策級進行融合,從而完成對飛機目標的識別。

基于決策級的多特征融合的目標識別算法流程為:

(1)圖像特征提取與表示;

(2)分類器的構建與訓練;

(3)多特征融合;

多特征融合識別算法在特征方面彌補了單一特征在識別方面的不足,但是面對飛機在飛行過程中姿態(tài)多變、外界環(huán)境復雜等情況,會給識別結果帶來較大的影響,導致識別錯誤。同時在實際軍事應用中,算法的實時性是很關鍵的指標之一。綜上,如何選擇魯棒性好的多個特征,同時降低算法的時間復雜度是很有意義的工作。



技術實現(xiàn)要素:

發(fā)明目的:針對現(xiàn)有技術中存在的由于飛機種類繁多、姿態(tài)多變導致識別率較低,同時算法的實時性普遍很差等問題,本發(fā)明提供一種將sift算法引入飛機姿態(tài)識別方法中,提取飛機圖像的sift特征與輪廓局部奇異值特征;將elm算法訓練后的slfns作為分類器,可以有效的提高算法的實時性;最終在決策級,采用dsmt融合理論中的pcr5公式實現(xiàn)多特征融合,可以在有效的提高算法的魯棒性的基于elm與dsmt的飛機姿態(tài)識別方法。

技術方案:為解決上述技術問題,本發(fā)明提供一種基于elm與dsmt的飛機姿態(tài)識別方法,具體步驟如下:

第一步:對于飛機圖像進行去噪、灰度化和二值化預處理;

第二步:對經過預處理的飛機圖像提取二值化圖像的sift特征描述子和飛機輪廓特征;

第三步:對sift特征描述子采用經典的bow模型進行描述并最終得到bowsift向量;

第四步:對第二步中得出的飛機輪廓特征進行處理得到飛機目標輪廓局部奇異值向量;

第五步:根據bowsift向量,構建slfns網絡,采用實時性好的elm算法訓練slfns網絡,得到訓練好的slfns1;對于輪廓局部奇異值向量,構建slfns,然后采用實時性好的elm算法訓練slfns網絡,得到訓練好的slfns2;

第六步:將兩個訓練好的slfns1和slfns1作為算法的分類器,采用dsmt融合理論中的pcr5公式,實現(xiàn)多特征的決策級融合,得到最終的識別結果。

進一步的,所述第二步中對sift特征進行提取的具體步驟如下:

2.1:sift特征點檢測

i(x,y)表示一幅圖像,σ是尺度空間因子,則其尺度空間l(x,y,σ)定義為:

l(x,y,σ)=g(x,y,σ)*i(x,y)

其中g(x,y,σ)為高斯核函數,二維高斯核函數定義為:

lowe用計算簡單、運算速度快的dog算子替代log算子,dog算子計算公式為:

d(x,y,σ)=l(x,y,kσ)-l(x,y,σ)

其中,k為相鄰兩個高斯尺度空間的比例因子。

通過dog算子構建圖像差分金字塔后,對每個采樣點與同尺度的8個鄰點以及上下兩個尺度的9個鄰點共計26個點進行比較,如果該采樣點是最大值或者最小值,則認為其是圖像在該尺度下的一個特征點,然后對篩選出來的特征點中的不穩(wěn)定的邊界點進行剔除;

2.2:sift特征點描述:

關鍵點檢測完后,利用關鍵點鄰域像素的梯度方向分布特性為每個關鍵點確定主方向和輔助方向,關鍵點(x,y)處的梯度幅值m(x,y)和方向θ(x,y)計算公式為:

利用直方圖統(tǒng)計關鍵點鄰域內方向分布,將0~360度的角度范圍分為36個柱,每柱10度,直方圖的峰值方向為關鍵點的主方向,將大于主方向峰值80%的方向作為該關鍵點處的輔助方向;

將每個關鍵點的鄰域點分配到4×4的子區(qū)域中,計算影響子區(qū)域的采樣點的梯度方向和幅值,將每個子區(qū)域上計算得到的梯度分配到8個方向上,利用直方圖統(tǒng)計每個方向的鄰域點對關鍵點的貢獻;對于每個關鍵點,形成了一個4×4×8=128維的特征向量,該向量為每個特征點的特征描述子,最后對特征描述子進行歸一化處理。

進一步的,所述第二步中提取飛機輪廓特征的具體步驟如下:首先提取出飛機圖像的輪廓,同時計算圖像的質心,然后選定固定起始點,從起始點將整條輪廓進行n等分,采樣點記為[p1,p2,…,pn],計算每個采樣點到質心的距離,并進行歸一化,得到歸一化距離向量[d1,d2,…,dn]。

進一步的,所述第三步中對sift特征采用經典的bow模型進行描述并最終得到bowsift向量的具體步驟如下:

3.1:提取訓練樣本庫中所有圖像的sift特征描述子;

3.2:使用kmeans聚類算法,將所有sift特征描述子聚為k類,生成k個視覺單詞;

3.3:計算樣本中每個sift特征描述子與k個視覺單詞的歐氏距離,通過歐式距離最小的原則統(tǒng)計所有sift特征描述子,然后得到k維向量,即為樣本的bowsift向量。

進一步的,所述第四步中對輪廓特征進行處理得到輪廓局部奇異值的具體步驟如下:對于得到的歸一化距離向量[d1,d2,…,dn],借鑒數字信號處理中的采樣思想,利用一個長度為w的采樣窗口對歸一化距離向量進行采樣,兩個采樣窗口的重疊部分的長度為m,可以得l個采樣后維度為w的距離向量,將這l個w維的歸一化距離向量構造出l個w×w的循環(huán)矩陣,分別計算奇異值,最終按順序可以組合為一個l×w的輪廓局部奇異值向量,完成圖像輪廓局部奇異值的表示。

與現(xiàn)有技術相比,本發(fā)明的優(yōu)點在于:

本發(fā)明將對噪聲有不錯穩(wěn)定性的sift特征引入飛機姿態(tài)識別方法中,可以提高算法的識別準確率,同時在發(fā)生外界干擾如光照、遮擋等情況下,算法也具有一定的準確率;由于elm算法相比于基于梯度法的訓練算法有收斂速度快、不會陷入局部最優(yōu)解等優(yōu)點,將elm算法訓練的slfns作為算法的分類器,可以在提升算法識別率的同時,大大降低算法的訓練時間開銷。

附圖說明

圖1為本發(fā)明的總體流程圖;

圖2為具體實施例中飛機7個姿態(tài)說明圖;

圖3為具體實施例中sift特征128維向量生成過程圖;

圖4為具體實施例中飛機目標輪廓離散采樣圖;

圖5為具體實施例中物體的bow模型描述過程圖;

圖6為具體實施例中基于bow模型的物體識別過程圖;

圖7為具體實施例中slfns網絡結構圖;

圖8為具體實施例中經典dsmt組合規(guī)則在μf(θ)的描述圖。

具體實施方式

下面結合附圖和具體實施方式,進一步闡明本發(fā)明。

如圖1所示一種基于elm與dsmt的飛機姿態(tài)識別方法,首先,對于待識別的飛機姿態(tài)圖像,提取具備平移、旋轉、縮放不變性的sift特征與輪廓局部奇異值特征,可以有效解決單一特征提供的目標信息有限而造成算法魯棒性差這一問題;然后,采用學習速度很快的elm算法訓練泛化能力強的slfns,將訓練好的slfns作為算法的分類器;最終,采用dsmt融合理論中的pcr5公式,實現(xiàn)多特征的決策級融合。下面對本發(fā)明加以具體說明。

1、圖像特征提取

如圖2所示,將飛機飛行的360度姿態(tài)分為具有代表性的7類。飛機在飛行過程中姿態(tài)多變,同時由于外界環(huán)境的影響,容易造成遮擋、縮放的發(fā)生,這就要求提取的特征在飛機圖像發(fā)生平移、旋轉、縮放時,具備不變性。對于特定物體識別,局部特征相比于全局特征有更好的魯棒性,因為全局特征易受外界噪聲如光照、遮擋等因素的影響。本發(fā)明使用了在目標跟蹤與識別方法中應用廣泛的sift特征,同時提取了輪廓局部奇異值特征,以這兩種特征來描述飛機目標。

1.1sift特征提取

應用于飛機姿態(tài)識別方法中的sift特征提取可以分為兩個步驟

1.1.1sift特征點檢測

設i(x,y)表示一幅圖像,σ是尺度空間因子,則其尺度空間l(x,y,σ)定義為:

l(x,y,σ)=g(x,y,σ)*i(x,y)

其中g(x,y,σ)為高斯核函數,二維高斯核函數定義為:

lowe用計算簡單、運算速度快的dog算子替代log算子,dog算子計算公式為:

d(x,y,σ)=l(x,y,kσ)-l(x,y,σ)

其中,k為相鄰兩個高斯尺度空間的比例因子。

通過dog算子構建圖像差分金字塔后,通過比較每個采樣點與同尺度的8個鄰點以及上下兩個尺度的9個鄰點共計26個點進行比較,如果此采樣點是最大值或者最小值,則認為其是圖像在該尺度下的一個特征點,之后還需要對篩選出來的特征點進行剔除一些不穩(wěn)定的邊界點。

1.1.2sift特征點描述

關鍵點檢測完后,為了讓算子具備旋轉不變形,需要為每個特征點計算一個方向,然后利用關鍵點鄰域像素的梯度方向分布特性為每個關鍵點確定主方向和輔助方向。關鍵點(x,y)處的梯度幅值m(x,y)和方向θ(x,y)計算公式為:

利用直方圖統(tǒng)計關鍵點鄰域內方向分布,可以將0~360度的角度范圍分為36個柱,每柱10度,直方圖的峰值方向為關鍵點的主方向,為增加魯棒性,將大于主方向峰值80%的方向作為該關鍵點處的輔助方向。

接下來就是通過一組向量將每個關鍵點描述出來,將每個關鍵點的鄰域點分配到4×4的子區(qū)域中,計算影響子區(qū)域的采樣點的梯度方向和幅值,將每個子區(qū)域上計算得到的梯度分配到8個方向上,利用直方圖統(tǒng)計每個方向的鄰域點對關鍵點的貢獻。對于每個關鍵點,形成了一個4×4×8=128維的特征向量,如圖3所示。最后還需要對向量進行歸一化處理,以降低光照對特征描述子的影響。

1.2輪廓奇異值

對于飛機的二值化圖像,首先提取出輪廓,同時計算圖像的質心,選定固定起始點,從起始點將整條輪廓進行n等分,采樣點記為[p1,p2,…,pn],計算每個采樣點到質心的距離,并進行歸一化,得到歸一化距離向量[d1,d2,…,dn],飛機輪廓的離散采樣過程如圖4所示。

2圖像特征描述

2.1sift特征表示

每張圖像經過sift特征點提取與表示后,均由多個1×128的sift特征描述子表示,不同圖像的特征點個數可能不同,難以直接采用分類器進行分類??梢圆捎媒浀涞腷ow模型進行描述,可以有效的解決這個問題。基于bow模型的物體描述如圖5所示,具體步驟如下

2.1.1:首先提取訓練樣本庫中所有圖像的sift特征描述子;

2.1.2:接著使用kmeans聚類算法,將所有sift特征描述子聚為k類,生成k個視覺單詞;

2.1.3:最后計算樣本中每個sift特征描述子與k個視覺單詞的歐氏距離,通過歐式距離最小的原則統(tǒng)計所有sift特征描述子,如此可以得到k維向量,即為樣本的bowsift向量。

基于bow的物體識別過程如圖6所示。

2.2輪廓局部奇異值

對于得到的歸一化距離向量[d1,d2,…,dn],借鑒數字信號處理中的采樣思想,利用一個長度為w的采樣窗口對歸一化距離向量進行采樣,兩個采樣窗口的重疊部分的長度為m,可以得l個采樣后維度為w的距離向量,將這l個w維的歸一化距離向量構造出l個w×w的循環(huán)矩陣,分別計算奇異值,最終按順序可以組合為一個l×w的輪廓局部奇異值向量,完成圖像輪廓局部奇異值的表示。

3分類器訓練環(huán)節(jié)

單隱層前饋神經網絡(singlehidden-layerfeedforwardneuralnetworks)具有較強的學習能力,能夠逼近復雜非線性函數,能夠解決傳統(tǒng)方法無法解決的問題等優(yōu)點,其網絡結構如圖7所示。訓練slfns通常采用的算法是基于梯度下降法,這類學習算法普遍具有收斂速度慢、易陷入局部最優(yōu)點等缺點,黃廣斌等(huanggb,zhuqy,siewck.extremelearningmachine:anewlearningschemeoffeedforwardneuralnetworks[c].in:proccedingsoftheijcnn.2004,2:985-990)提出極限學習機算法,可以改善單隱層神經網絡的學習算法以及泛化過程存在的問題。

設h(x)為隱層輸出矩陣,β為輸出權重,t為給定的監(jiān)督矩陣,slfns一般模型可以表示為:

hβ=t

其中

極限學習機算法可以總結為如下流程:

給定訓練集xi∈rn,tj∈rm,激活函數g(),隱層節(jié)點個數為

(1)隨機生成輸入權重wi和隱層偏置

(2)計算隱層輸出矩陣h;

(3)計算輸出權重β:

β=h+t

h+是隱藏層輸出矩陣h的moore-penrose增廣逆,簡稱為偽逆。

當β計算完成后,一個單隱層反饋神經網絡的訓練環(huán)節(jié)就結束了。對于一個測試樣本x,它的標簽可以通過訓練好的單隱層反饋神經網絡推測:

fl(x)=h(x)β

其中h(x)是神經網絡隱層關于此樣本的響應,初始化參數后,h(x)即保持不變。

4多特征融合識別環(huán)節(jié)

實際中進行飛機目標識別時,由于飛機種類繁多,可能會出現(xiàn)同類飛機差距很大,不同類飛機在某個姿態(tài)下很相似等情況,飛機目標識別在本質上具有高沖突和模糊性的特點,dsmt證據融合理論針對這一特性,為基于決策級融合的飛機目標識別提供了一個非常好的思路。經典dsmt組合規(guī)則在μf(θ)的描述如圖8所示。本文針對基于決策級融合的飛機目標識別,在實驗過程中做了一定的簡化,在超冪集dθ的基礎上,采用完全排他性的約束條件下的dsmt模型,即僅θ1,θ2,…θn具有信度賦值。本文中只有輪廓局部奇異值和sift兩種特征,采用pcr5組合規(guī)實現(xiàn)兩特征對應的決策級融合。

以上所述僅為本發(fā)明的實施例子而已,并不用于限制本發(fā)明。凡在本發(fā)明的原則之內,所作的等同替換,均應包含在本發(fā)明的保護范圍之內。本發(fā)明未作詳細闡述的內容屬于本專業(yè)領域技術人員公知的已有技術。

當前第1頁1 2 
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1