本發(fā)明涉及遙感影像處理,尤其涉及一種用于衛(wèi)星影像船舶檢測的改進yolov8模型。
背景技術:
1、近年來,隨著遙感技術的飛速發(fā)展,衛(wèi)星影像已成為獲取地表信息的強有力工具。這些影像廣泛應用于農(nóng)業(yè)監(jiān)測、災害評估、城市規(guī)劃、海洋環(huán)境研究等多個領域。在海洋監(jiān)控中,衛(wèi)星影像提供了全天候、大范圍的觀測能力,對于監(jiān)控海上交通流量等方面具有不可替代的作用。在眾多海洋目標的檢測中,船舶檢測因其復雜性和重要性而備受關注。傳統(tǒng)的船舶檢測方法,如人工目視分析,不僅耗時耗力,而且效率低下,易受主觀因素影響。因此,基于深度學習的目標檢測模型,如yolo系列,因其自動化程度高、檢測速度快、精度較佳等優(yōu)勢,在船舶檢測領域得到了廣泛應用。
2、yolov8作為yolo系列的新版本,以其卓越的實時性能和檢測精度,成為當前目標檢測領域的熱門算法之一。然而,在進行衛(wèi)星影像船舶的檢測任務時,該模型面臨兩大挑戰(zhàn):一是在衛(wèi)星影像中,由于拍攝距離遠、視角廣闊,船舶通常表現(xiàn)為像素級的小目標,與復雜的海面紋理、波浪、陰影等混雜在一起,導致傳統(tǒng)目標檢測模型在識別這些小目標時面臨巨大挑戰(zhàn)。小目標的低信噪比、邊界模糊等問題,使得模型難以準確提取其特征,進而影響檢測精度。二是衛(wèi)星影像常受到多種因素的影響,包括大氣散射、云層遮擋、海面反光、運動模糊等,這些因素不僅降低了圖像的清晰度,也增加了檢測算法的復雜性。例如,云層遮擋可能會完全遮蓋目標,而運動模糊則會使得目標輪廓模糊不清,這些都對檢測算法提出了更高的要求。
3、現(xiàn)有基于yolo系列的船舶檢測模型,盡管在一定程度上提升了檢測性能,但在面對上述挑戰(zhàn)時仍有局限性,尤其是在小目標的檢測能力上。小目標由于其像素信息有限,容易在特征提取過程中被忽略,導致檢測率低。此外,標準的損失函數(shù)設計往往側重于平衡各類別和大小目標的檢測,未能充分優(yōu)化對小目標的識別,使得在實際應用中對小目標的捕捉能力不足。因此,目前迫切需要優(yōu)化現(xiàn)有yolo模型在衛(wèi)星影像船舶檢測中的性能,特別是提升對小目標的識別精度,同時有效應對衛(wèi)星影像特有的圖像質量問題,以滿足日益增長的海洋監(jiān)測和管理需求。
技術實現(xiàn)思路
1、鑒于此,本發(fā)明提出一種用于衛(wèi)星影像船舶檢測的改進yolov8模型,該模型可有效檢測小目標船舶,且檢測精度高;同時,能夠有效應對衛(wèi)星影像特有的圖像質量問題,適應不同的應用場景。
2、一種用于衛(wèi)星影像船舶檢測的改進yolov8模型,包括以下步驟:
3、(1)數(shù)據(jù)準備:輸入遙感衛(wèi)星影像,對影像進行截斷拉伸數(shù)據(jù)預處理;而后在影像中標注船舶目標,滑動窗口裁剪得到切片數(shù)據(jù),將所得切片數(shù)據(jù)劃分為訓練集、驗證集;
4、(2)模型改進:改進yolov8模型由特征提取模塊、特征融合模塊和檢測輸出模塊組成;所述特征提取模塊會輸出4個不同尺度的圖像特征,較原始yolov8模型增加輸出一個尺度更小的圖像特征;所述特征融合模塊會將不同尺度的圖像特征進行融合,期間使用了尺度更小的圖像特征;所述檢測輸出模塊由4個目標檢測分支網(wǎng)絡構成,較原始yolov8模型增加一個檢測分支網(wǎng)絡,可以提取尺度更小的目標;
5、(3)模型訓練:在對改進yolov8模型進行訓練時,對輸入的切片數(shù)據(jù)采取運動模糊及云霧遮掩的增強手段,以提高模型的魯棒性;在損失函數(shù)方面,改進邊界框損失函數(shù)含有4個部分,較原始邊界框損失函數(shù)增加了一個部分,增加部分對應小目標檢測分支的輸出;
6、(4)模型推理:對經(jīng)過數(shù)據(jù)預處理的衛(wèi)星影像進行滑動裁剪得到待測切片,待測切片依次經(jīng)過改進yolov8模型的特征提取模塊、特征融合模塊和檢測輸出模塊,會得到4個目標檢測分支輸出,通過拼接和非極大值抑制操作,獲得目標檢測結果。
7、優(yōu)選的,所述步驟(2)的特征提取模塊具體如下:
8、以衛(wèi)星影像切片數(shù)據(jù)作為輸入單元,特征提取模塊由多個卷積網(wǎng)絡串聯(lián)組成,對切片數(shù)據(jù)進行特征提取,通過設置不同的卷積核步長,可以獲得從淺至深的圖像特征;特征提取模塊由5個卷積層、4個c2f卷積結構和1個空間金字塔池化層組成;5個卷積層的核大小均為3×3,步長為2,均會進行2倍下采樣操作;每個c2f卷積結構均包括2個核大小為1×1的卷積層和1個帶殘差的bottleneck結構;輸入單元經(jīng)過特征提取模塊,會得到下采樣4倍、8倍、16倍和32倍的特征圖輸出。
9、優(yōu)選的,所述步驟(2)的特征融合模塊具體如下:
10、以特征提取模塊輸出的特征圖作為輸入單元,特征融合模塊使用通道聚合網(wǎng)絡將不同尺度的圖像特征進行融合;特征融合模塊由3個卷積層、6個c2f卷積結構、6個拼接層和3個2倍上采樣層組成;3個卷積層的核大小均為3×3、步長為2;每個c2f卷積結構均包括2個核大小為1×1的卷積層和1個不帶殘差的bottleneck結構;輸入單元經(jīng)過特征融合模塊,同樣會得到下采樣4倍、8倍、16倍和32倍的特征圖輸出;區(qū)別于特征提取模塊的輸出,特征融合模塊的輸出融合了低層特征圖的空間信息和高層特征圖的語義信息。
11、優(yōu)選的,所述步驟(2)的檢測輸出模塊具體如下:
12、以特征融合模塊輸出的特征圖作為輸入單元,檢測輸出模塊由4個目標檢測分支網(wǎng)絡構成,每個目標檢測分支網(wǎng)絡均含有3個卷積塊,每個卷積塊均含有3個卷積層,前兩個卷積層的核大小為3×3、步長為1,最后一個卷積層的核大小為1×1、步長為1;輸入單元經(jīng)過檢測輸出模塊,得到帶有目標類別、位置及角度信息的多維矩陣輸出。
13、優(yōu)選的,所述步驟(3)的改進邊界框損失函數(shù)具體如下:
14、原始的損失函數(shù)定義為:
15、loss=lossiou+losscls+lossdfl
16、式中,lossiou表示邊界框損失,losscls表示類別損失,lossdfl表示分布焦點損失;
17、lossiou又可以表示為:
18、lossiou=lossp5_iou+lossp4_iou+lossp3_iou
19、其中,lossp5_iou、lossp4_iou、lossp3_iou分別對應原始的3個目標檢測分支的邊界框損失;
20、記lossp2_iou為增加的小目標檢測分支的邊界框損失,則改進邊界框損失函數(shù)表示為:
21、lossiou=lossp5_iou+lossp4_iou+lossp3_iou+lossp2_iou
22、lossp2_iou=1.0-sigmoid((ioup2-0.5)×4)
23、式中,ioup2表示小目標檢測分支的面積交并比,sigmoid函數(shù)定義如下:
24、
25、與現(xiàn)有技術相比,本發(fā)明的有益效果是:
26、本發(fā)明通過在原始yolov8模型中增加小目標檢測分支,提高模型對于小目標的檢測能力。同時,為了防止小目標檢測分支在改進yolov8模型訓練時出現(xiàn)梯度消失,導致模型性能下降,本發(fā)明對損失函數(shù)進行了改進,增強了模型對小目標檢測分支的梯度優(yōu)化能力,有利于獲得最優(yōu)模型參數(shù)。另外,針對衛(wèi)星影像的數(shù)據(jù)特點,本發(fā)明在改進yolov8模型訓練時對輸入數(shù)據(jù)采取運動模糊及云霧遮掩等增強手段,以適應不同的應用場景。得益于上述改進措施,本發(fā)明可以有效提高衛(wèi)星影像船舶的檢測精度,進一步推進基于深度學習方法的船舶檢測的廣泛應用。