本發(fā)明涉及高光譜遙感圖像分類領(lǐng)域,具體涉及一種基于改進(jìn)深度森林的高光譜遙感圖像分類方法。
背景技術(shù):
1、高光譜遙感圖像分類是遙感領(lǐng)域的一個(gè)關(guān)鍵研究方向,其在環(huán)境監(jiān)測(cè)、精準(zhǔn)農(nóng)業(yè)、資源勘探等眾多領(lǐng)域中也同樣具有重要的應(yīng)用價(jià)值。在復(fù)雜的地表?xiàng)l件和氣象環(huán)境下,傳統(tǒng)地面觀測(cè)方法常常難以獲取全面和準(zhǔn)確的信息,因此利用遙感技術(shù)進(jìn)行高光譜遙感圖像的有效分類顯得尤為關(guān)鍵。
2、目前,基于遙感技術(shù)的高光譜遙感圖像分類已經(jīng)取得了顯著的進(jìn)展。主流的分類方法傾向于綜合利用多源遙感數(shù)據(jù),這些數(shù)據(jù)可以包括不同波段的光譜信息,從可見光到近紅外再到熱紅外等。這種數(shù)據(jù)的融合有助于揭示地物的細(xì)微差異,增強(qiáng)分類的準(zhǔn)確性。
3、盡管傳統(tǒng)的機(jī)器學(xué)習(xí)方法在一些情況下取得了成功,但在處理高維度和非線性的高光譜遙感數(shù)據(jù)時(shí),這些方法仍然面臨挑戰(zhàn)。例如,高光譜數(shù)據(jù)的高維特性要求算法能有效地進(jìn)行特征選擇和降維,以避免“維數(shù)災(zāi)難”。此外,這些數(shù)據(jù)往往要求大量的標(biāo)注樣本進(jìn)行監(jiān)督學(xué)習(xí),而這些標(biāo)注樣本在現(xiàn)實(shí)應(yīng)用中往往難以獲得。
4、近年來(lái),隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,它在高光譜遙感圖像分類方面開始展現(xiàn)出巨大的潛力。深度學(xué)習(xí)模型,能夠從原始的高光譜數(shù)據(jù)中自動(dòng)學(xué)習(xí)到更抽象和更有區(qū)分性的特征表示,從而在無(wú)需手動(dòng)特征工程的情況下,實(shí)現(xiàn)更精準(zhǔn)的分類。更好地挖掘數(shù)據(jù)中的特征信息,因此在提高分類準(zhǔn)確性和穩(wěn)定性方面具有顯著優(yōu)勢(shì),為高光譜遙感圖像分類任務(wù)帶來(lái)了新的機(jī)遇和挑戰(zhàn)。
技術(shù)實(shí)現(xiàn)思路
1、本發(fā)明旨在提供一種提高高光譜遙感圖像分類準(zhǔn)確性和效率的方法。方法涉及收集和預(yù)處理遙感數(shù)據(jù),并將其分為訓(xùn)練和測(cè)試數(shù)據(jù)集。接著,使用基于旋轉(zhuǎn)森林的技術(shù)構(gòu)建一個(gè)加權(quán)的高光譜遙感圖像分類模型。該模型由多粒度掃描和級(jí)聯(lián)森林模塊組成,其中每個(gè)級(jí)聯(lián)層都包括旋轉(zhuǎn)和完全隨機(jī)森林。通過(guò)對(duì)訓(xùn)練集進(jìn)行掃描并加權(quán)子樣本,子樣本再通過(guò)各個(gè)級(jí)聯(lián)層進(jìn)行處理,每層輸出的結(jié)果都用于優(yōu)化最終的分類模型。本方法的特點(diǎn)是在多粒度掃描階段引入加權(quán)模塊,并在級(jí)聯(lián)森林中加入旋轉(zhuǎn)森林,從而提升分類的精度和魯棒性,同時(shí)減少了計(jì)算復(fù)雜度。
2、本發(fā)明采用如下技術(shù)方案:一種基于加權(quán)旋轉(zhuǎn)深度森林的高光譜遙感圖像分類方法,包括:
3、獲取衛(wèi)星遙感數(shù)據(jù)進(jìn)行預(yù)處理,并將預(yù)處理后的遙感數(shù)據(jù)劃分為訓(xùn)練集和測(cè)試集;
4、基于改進(jìn)的深度森林構(gòu)建高光譜遙感圖像分類模型;所述高光譜遙感圖像分類模型包括加權(quán)多粒度掃描模塊和旋轉(zhuǎn)級(jí)聯(lián)森林模塊;所述級(jí)聯(lián)森林模塊的每一級(jí)聯(lián)層包括兩個(gè)旋轉(zhuǎn)森林和兩個(gè)完全隨機(jī)森林;
5、將訓(xùn)練集輸入高光譜遙感圖像分類模型進(jìn)行訓(xùn)練,所述高光譜遙感圖像分類模型通過(guò)加權(quán)多粒度掃描模塊對(duì)訓(xùn)練集進(jìn)行滑動(dòng)窗口掃描生成子樣本,并對(duì)樣本進(jìn)行加權(quán)處理;
6、得到加權(quán)的樣本后,將其輸入到池化層,對(duì)加權(quán)特征進(jìn)行池化操作,將得到的加權(quán)池化特征輸入旋轉(zhuǎn)級(jí)聯(lián)森林中。
7、所述子樣本經(jīng)過(guò)級(jí)聯(lián)森林模塊的每一級(jí)聯(lián)層,并根據(jù)每一級(jí)聯(lián)層的輸出分類結(jié)果,得到訓(xùn)練好的高光譜遙感圖像分類模型。
8、進(jìn)一步的,將訓(xùn)練集輸入高光譜遙感圖像分類模型進(jìn)行訓(xùn)練之前,還包括:
9、通過(guò)對(duì)訓(xùn)練集中的遙感數(shù)據(jù)進(jìn)行下采樣處理,平衡訓(xùn)練集中的正負(fù)樣本比例。
10、進(jìn)一步的,原始樣本輸入到深度森林的多粒度掃描模塊后,對(duì)輸入特征進(jìn)行處理,經(jīng)過(guò)不同大小的滑動(dòng)窗口對(duì)其進(jìn)行滑動(dòng),獲取得到不同大小的特征向量,并對(duì)其滑動(dòng)窗口特征向量進(jìn)行加權(quán):
11、在給森林動(dòng)態(tài)分配權(quán)重的基礎(chǔ)上,進(jìn)一步對(duì)不同大小的滑動(dòng)窗口生成的類向量分配不同的權(quán)重。
12、隨機(jī)森林權(quán)重計(jì)算公式:
13、
14、其中s表示隨機(jī)森林準(zhǔn)確率,多粒度掃描通過(guò)一個(gè)滑動(dòng)窗口得到的數(shù)據(jù),輸入到一個(gè)隨機(jī)森林和一個(gè)完全隨機(jī)森林中,通過(guò)計(jì)算隨機(jī)森林權(quán)重,計(jì)算每個(gè)滑動(dòng)窗口的權(quán)重,最終構(gòu)建加權(quán)特征向量。
15、將得到的加權(quán)特征向量輸入到池化層。
16、作為一種有效的下采樣方法,池化策略可以細(xì)化結(jié)果,模仿人類視覺系統(tǒng)來(lái)降低視覺輸入對(duì)象的維度。一般來(lái)說(shuō),有3個(gè)主要優(yōu)點(diǎn),分別是特征不變性、特征減少和防過(guò)擬合。因此,引入平均池化策略來(lái)提高計(jì)算效率。
17、在每個(gè)類矩陣上實(shí)現(xiàn)平均池化層,假設(shè)其加權(quán)特征向量維度為m×c,通過(guò)池化層將特征維度降低到m/2×c。通過(guò)串聯(lián),數(shù)據(jù)樣本最終產(chǎn)生三個(gè)l維度的變換特征向量
18、l=2[m/2]×c,(i=1,2,3)
19、由于將相同的數(shù)據(jù)樣本輸入到隨機(jī)森林和完全隨機(jī)森林這兩個(gè)森林中,因此輸出結(jié)果是同一類型的特征矩陣。池化策略用于對(duì)兩個(gè)特征矩陣進(jìn)行平均并將其維度減半。因此,它可以實(shí)現(xiàn)初始特征提取,同時(shí)不改變特征分布。這樣就減少了冗余信息,提高了計(jì)算效率。
20、將加權(quán)特征向量經(jīng)過(guò)旋轉(zhuǎn)級(jí)聯(lián)森林模塊
21、旋轉(zhuǎn)森林(rotation?forests)也是一種基于決策樹的多分類器集成模型,在中小型數(shù)據(jù)集上有著很好的分類表現(xiàn)。旋轉(zhuǎn)森林與隨機(jī)森林都使用了決策樹作為基分類器,旋轉(zhuǎn)森林在每個(gè)分類器訓(xùn)練數(shù)據(jù)集的選取上與隨機(jī)森林有所不同。旋轉(zhuǎn)森林在選取每個(gè)基分類器訓(xùn)練樣本時(shí),會(huì)對(duì)特征集進(jìn)行隨機(jī)分割,然后在各特征子集中利用pca進(jìn)行特征變換(變換中使用了全部主成分,并沒有利用pca的數(shù)據(jù)降維作用,在旋轉(zhuǎn)森林中的pca并不是目的而是一種手段)。這樣得到的分類器不僅分類精度高并且基分類器間的差異性大。特征變換還在一定程度上對(duì)數(shù)據(jù)進(jìn)行了預(yù)處理,提高了整體分類器的準(zhǔn)確性,同時(shí)還改善了bagging算法的波動(dòng)性,使預(yù)測(cè)性能更加穩(wěn)定。
22、(1)將特征集f隨機(jī)地分為k個(gè)子集(k可做為此算法的參數(shù))。子集間可以有交集也可以不相交。為了分類器間的差異性最大化,一般選擇不相交的子集。為了簡(jiǎn)單起見,假設(shè)k是n的因數(shù),這樣每個(gè)子特征集包含m=n/k個(gè)特征。若不能整除則最后一個(gè)子特征集中元素較少即可。
23、(2)用fij表示基分類器di所用訓(xùn)練集的第j個(gè)子特征集。對(duì)于每個(gè)子特征集fij,隨機(jī)地對(duì)原樣本集進(jìn)行75%重采樣,在得到的新采樣集中只對(duì)fij中的m個(gè)特征使用pca進(jìn)行主成分分析。將得到的主成分系數(shù)保存為長(zhǎng)度為m。注意一些特征值有可能為0,所以我們可能不需要全部的特征向量,mj有可能小于m。在每個(gè)子特征集上而不是在整體數(shù)據(jù)集中進(jìn)行pca處理,是為了使每個(gè)基分類器使用的訓(xùn)練數(shù)據(jù)系數(shù)都不相同,這樣就增加了分類器間的差異性。
24、(3)將得到的所有主成分系數(shù)向量放入一個(gè)稀疏的旋轉(zhuǎn)矩陣中ri中:
25、
26、按照原始屬性集的排列順序重新旋轉(zhuǎn)矩陣ri得ri′,接著通過(guò)xri′操作獲得分類器ci的訓(xùn)練集。在這個(gè)訓(xùn)練集上,基分類器di被訓(xùn)練出來(lái),然后重復(fù)這個(gè)步驟l次,最終得到l個(gè)基分類器。在這里,基分類器使用了決策樹類型算法,因?yàn)樗鼘?duì)特征的旋轉(zhuǎn)非常敏感,所以得到的各個(gè)分類器具有更大的差異性。
27、(4)最終分類結(jié)果以最大置信度來(lái)決定,對(duì)于一個(gè)樣本x,用di,j(xr′c)表示用分類器di預(yù)測(cè)x屬于c類可能性,label表示所有可能的類別,則x屬于c類的置信度為
28、
29、由此可以通過(guò)公式判定x的最終類別:
30、x=argmax(uc(x))c∈label
31、進(jìn)一步的,級(jí)聯(lián)森林模塊增長(zhǎng)級(jí)聯(lián)層,并將子樣本傳輸至下一級(jí)聯(lián)層時(shí),還包括:
32、依次獲取每一級(jí)聯(lián)層的準(zhǔn)確率,當(dāng)下一級(jí)聯(lián)層的準(zhǔn)確率沒有發(fā)生變化時(shí),級(jí)聯(lián)森林模塊停止增長(zhǎng)級(jí)聯(lián)層,當(dāng)前準(zhǔn)確率未發(fā)生變化對(duì)應(yīng)級(jí)聯(lián)層輸出子樣本的分類結(jié)果。
33、進(jìn)一步的,所述準(zhǔn)確率的計(jì)算方法為:
34、準(zhǔn)確率是分類正確的樣本占總樣本個(gè)數(shù)的比例,即
35、
36、其中,ncorrect為被正確分類的樣本個(gè)數(shù),ntotal為總樣本個(gè)數(shù)。
37、結(jié)合上面的混淆矩陣,公式還可以這樣寫:
38、
39、準(zhǔn)確率是分類問題中最簡(jiǎn)單直觀的評(píng)價(jià)指標(biāo)。
40、其所述f1?score的計(jì)算方法為:
41、
42、precision體現(xiàn)了模型對(duì)負(fù)樣本的區(qū)分能力,precision越高,模型對(duì)負(fù)樣本的區(qū)分能力越強(qiáng);recall體現(xiàn)了模型對(duì)正樣本的識(shí)別能力,recall越高,模型對(duì)正樣本的識(shí)別能力越強(qiáng)。f1?score是兩者的綜合,f1?score越高,說(shuō)明模型越穩(wěn)健。
43、本發(fā)明的有益效果是:本發(fā)明在深度森林模型的多粒度掃描模塊中,將特征進(jìn)行加權(quán),引入了滑動(dòng)窗口加權(quán)模塊,旨在更精準(zhǔn)地捕獲數(shù)據(jù)中的特征,本研究進(jìn)一步優(yōu)化了gcfo?rest模型。該模塊通過(guò)在不同粒度上的滑動(dòng)窗口進(jìn)行加權(quán),并根據(jù)窗口內(nèi)的特征動(dòng)態(tài)調(diào)整權(quán)重,有效地提高了模型對(duì)關(guān)鍵特征的感知能力。為模型的性能提升和改進(jìn)提供了創(chuàng)新性的思路,增強(qiáng)模型的分類性能,降低訓(xùn)練時(shí)間。在深度森林模型的級(jí)聯(lián)森林階段,加入旋轉(zhuǎn)森林,當(dāng)比較估計(jì)的總體精度時(shí),旋轉(zhuǎn)森林算法的分類性能優(yōu)于傳統(tǒng)的隨機(jī)森林算法。雖然旋轉(zhuǎn)森林是隨機(jī)森林方法的一種變體,但它產(chǎn)生了更準(zhǔn)確的分類結(jié)果。這是由于旋轉(zhuǎn)森林的訓(xùn)練策略導(dǎo)致的,因?yàn)榧现械拿恳豢脹Q策樹(基分類器)都是用pca變換得到的旋轉(zhuǎn)特征空間中的數(shù)據(jù)集來(lái)進(jìn)行訓(xùn)練的。旋轉(zhuǎn)級(jí)聯(lián)森林提高了深度森林模型的魯棒性和分類準(zhǔn)確率。