2. 1)下采樣生成的I。,Ip12和I3圖像層尺寸不一,將周邊層S# {1,2, 3}插值 后放大到和中央層Qe{〇,1,2}相同尺度,即SJ和Q0尺寸相同,SJ和尺寸相同,SJ 和Q2尺寸相同;
[0034] 2. 2)按公式⑵分別對SJ和Q0,SJ和C山SJ和Q2進行逐像素的特征差運 算:Dn=I(CuSj= |I(CJ?I(SJ|,ne{〇, 1,2} (2),其中,Θ表示跨尺度的減操作,中央 尺度C# {〇,1,2},周邊尺度S# {1,2,3},SL=CJS,δ=1;
[0035] 步驟3):通過將簡單單元S整合成復雜單元C,生成全局顯著圖。
[0036] 簡單細胞的感受野只包括視野中的一小部分,只有當這些局部的單元信息被匯集 成具有全局意義的特征后,視覺系統(tǒng)才能感知其中的目標。研究表明,復雜細胞是簡單細胞 集群的一種非線性時空整合,C單元由S單元匯集而成,而計算池模型是溝通靈長類視覺皮 層中簡單細胞和復雜細胞的橋梁,參見王哲.基于初級視覺機制的圖像編碼模型研究[D]. 北京:北京交通大學,2011:1-124.
[0037] 本步驟的目的是通過模擬簡單細胞集群的非線性時空整合,將局部反差信息整合 成復雜細胞感受到的全局信息,從而生成與原圖像大小相等的全局顯著圖。其具體實現(xiàn)過 程如下:
[0038] 3. 1)將D。,Dd02三幅差值圖分別插值到原始圖像大小,得S。,SdS2。
[0039] 3· 2)根據(jù)公式(3)分別對S。,Si,&進行計算,得單元C:
[0040] C=Max(S),Se{S〇,S2} (3) 〇
[0041] 3.3)選取高斯濾波算子hg,對最終差值圖像進行濾波處理,以達到突出顯著目 標,增強視覺效果的結果,生成全局顯示圖G。
[0042] 步驟4):利用信息熵對進行閾值分割處理
[0043] 摒棄傳統(tǒng)基于經(jīng)驗給定閾值的方式,引入最佳熵值法對全局顯著圖進行閾值分 害J,得到二值圖像B。
[0044] 首先根據(jù)公式(4)計算全局顯著圖直方圖的熵值Η:
[0046] 其中,i是灰度范圍,Pi為第i個灰度出現(xiàn)的頻率??紤]到熵值最大表示該處的信 息量最大,因此,以熵值最大的灰度值為分割點進行圖像的閾值分割。
[0047] 步驟5):對顯著圖進行形態(tài)學處理。
[0048] 為了減少噪聲目標對人造目標的干擾,引入了形態(tài)學知識實現(xiàn)對二值圖像的處 理。本發(fā)明中,利用線性結構元素和圓盤型結構元素分別進行二值圖像的腐蝕與膨脹處理, 消除了干擾物的影響,并提高像素集合的連通性。
[0049] 步驟六:獲取目標的位置圖。
[0050] 根據(jù)最終的二值顯著圖像,提取目標的邊緣信息,并疊加到原始SAR影像上,從而 檢測出所有目標,得到最終結果圖。
[0051] 本發(fā)明的效果可通過以下仿真進一步說明:
[0052] 仿真內容:應用本發(fā)明方法和Itti模型方法、SR模型方法分別對六幅SAR圖像進 行目標檢測實驗,并結合人造目標的真實位置圖來評價這些方法的各自性能。
[0053] 仿真實驗結果:本方法以及Itti經(jīng)典模型方法、頻域譜殘差方法對如圖2所示6 幅簡單地物復雜背景SAR圖像進行目標檢測,并以圖3作為檢測目標點準確性的參照。
[0054] 圖3為6幅實驗圖像中人造目標的真實位置圖。其中圖3(a)中目標個數(shù)為9個, 圖3(b)目標個數(shù)為7個,圖3(c)目標個數(shù)為6個,圖3(d)目標個數(shù)為6個,圖3(e)目標 個數(shù)為8個,圖3 (f)目標個數(shù)為5個。
[0055] 圖4為Itti模型方法對實驗圖像進行目標檢測得到的結果。
[0056] 圖5為SR模型方法對實驗圖像進行目標檢測得到的結果。
[0057] 圖6為本發(fā)明方法對實驗圖像進行目標檢測得到的結果。
[0058] 由圖4可見,Itti模型方法的結果圖中存在較多的誤檢區(qū)域,特別是在圖4(d)、圖 4(e)和圖4(f)中。真實目標的輪廓沒有檢測出,非目標物,如樹木,碎石卻被作為目標點, 定位也不準確。由圖5可見,SR模型方法能檢測出目標區(qū)域的模糊形狀,但不足以判斷目 標的形狀和輪廓。同時,該方法也存在誤檢和漏檢情況。如圖5(d)誤檢情況嚴重,許多非 人造目標被檢測出來。而在圖5(f)中,僅檢測出確2個目標,存在漏檢現(xiàn)象。由圖6可見, 本發(fā)明的檢測結果較好,檢測目標個數(shù)與真實目標點個數(shù)近似,目標漏檢和誤檢的情況少, 對目標的定位較準確,輪廓形狀較完整。本發(fā)明在主觀判斷的基礎上也引入了誤檢率,漏檢 率和品質因子三個定量指標來各方法的性能。其中,誤檢率為誤檢目標數(shù)與真實目標數(shù)的 比值;漏檢率為漏檢目標數(shù)與真實目標數(shù)的比值;品質因子是真實目標個數(shù)與檢測總目標 個數(shù)和誤檢目標個數(shù)之和的比值。誤檢率和漏檢率越低,則表明該方法的檢測性能越好;而 品質因子越高,則表明該方法的檢測性能越好。經(jīng)計算得Itti模型方法的漏檢率為0. 463, 誤檢率為0. 951,品質因子為0. 288 ;SR模型方法的漏檢率為0. 195,誤檢率為0. 317,品質 因子為0.5。本發(fā)明漏檢率為0.073,誤檢率為0.146,品質因子為0.808。除此之外,本發(fā) 明計算了各種方法的耗時率,結果表明本方法較SR模型計算效率提升3%,較Itti模型提 升64%,運算時間短。綜合主觀判斷和定量評價,本發(fā)明方法較Itti模型和SR模型的檢測 結果更有效,且運算量小、處理效率更高,便于工程實現(xiàn)。
[0059] 以上所述僅是本發(fā)明的優(yōu)選實施方式,應當指出,對于本技術領域的普通技術人 員來說,在不脫離本發(fā)明技術原理的前提下,還可以做出若干改進和變形,這些改進和變形 也應視為本發(fā)明的保護范圍。
【主權項】
1. 基于視覺反差和信息熵的SAR圖像人造目標檢測方法,其特征是,包括如下步驟: 1) 對待檢測的SAR圖像進行高斯金字塔分解,通過下采樣處理建立4層影像金字塔,處 理后圖像分別記為Ic,Ii,12和I3,其中Ic為原圖像尺寸,Ii,12和I3圖像依次分別是原圖 像尺寸的1/2,1/4,1/8 ; 2) 根據(jù)生物視覺特性,通過模擬初級視覺皮層中的簡單細胞來提取圖像的局部反差信 息,對輸出的四幅不同尺寸圖像Ic,Ii,12和13分別進行中央周邊差處理,提取簡單單元S; 3) 學習計算池模型,利用Maximum模型將S單元整合為復雜單元C,并進行高斯濾波處 理,生成全局顯著圖G; 4) 根據(jù)信息熵最大原則對步驟3)生成的全局顯著圖G進行閾值分割處理,處理后的二 值圖像記為B; 5) 對處理后的二值圖像B進行形態(tài)學濾波處理:進行連通、填充和清除運算,消除孤立 的像素集合,提高像素集合的連通性; 6) 從步驟5)處理后的二值圖像中提取目標的輪廓線,將其顯示在原始SAR影像上,得 到目標檢測結果。2. 根據(jù)權利要求1所述的基于視覺反差和信息熵的SAR圖像人造目標檢測方法, 其特征是,所述步驟1)中金字塔下采樣操作按如下公式進行:I5(x,y) =XmXnW(m,n)Iδ! (2i+m, 2j+n) (1),其中,δ為圖像層數(shù),w (m,n)為降采樣核函數(shù),m,n為核函數(shù)窗口 大小。3. 根據(jù)權利要求1所述的基于視覺反差和信息熵的SAR圖像人造目標檢測方法,其特 征是,所述步驟2)中進行中央周邊差操作前,將周邊層{1,2,3}插值后放大到和中央 層Qe{〇, 1,2}相同尺度,即SJ和Q0尺寸相同,SJ和尺寸相同,SJ和Q2尺寸相 同; 按公式⑵分別對SJ和QO,SJ和C山SJ和Q2進行逐像素的特征差運算:Dn = I(CL,SL) = 11 (CL)ΘI(SL)I,ne{〇, 1, 2} (2),其中,Θ表示跨尺度的減操作,中央尺度 CLe{〇, 1,2},周邊尺度SLe{l,2,3},SL=C^+δ,δ= 1。4. 根據(jù)權利要求3所述的基于視覺反差和信息熵的SAR圖像人造目標檢測方法,其 特征是,所述步驟3)中將S單元整合成C單元前,要將D。,DpD2三幅差值圖分別插值到原 始圖像大小,得s。,Si,S2;根據(jù)公式(3)分別對S。,Si, 52進行計算,得單元C:C=Max(S), S e{S〇,Si,S2} (3)。
【專利摘要】本發(fā)明公開了一種基于視覺反差和信息熵的SAR圖像人造目標檢測方法,根據(jù)生物視覺特性,通過模擬初級視覺皮層中的簡單細胞來提取圖像的局部反差信息;學習計算池模型將S單元整合為復雜單元C,并進行高斯濾波處理,生成全局顯著圖;根據(jù)信息熵最大原則對顯著圖進行閾值分割;通過形態(tài)學濾波處理消除孤立的像素集合,并提高像素集合的連通性;提取目標的邊緣信息,將其顯示在原始SAR影像上,得到目標檢測結果。本發(fā)明所達到的有益效果:實現(xiàn)了SAR圖像中人造目標的有效檢測,且運算量小、處理效率高,便于工程實現(xiàn),可用于小型人造目標的快速檢測。
【IPC分類】G06T7/00, G01S13/90, G06K9/46, G06K9/00, G06T7/60
【公開號】CN105405132
【申請?zhí)枴緾N201510741986
【發(fā)明人】徐佳, 胡翀, 袁春琦, 李勇, 陳媛媛
【申請人】河海大學
【公開日】2016年3月16日
【申請日】2015年11月4日