亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于壓縮感知的目標識別方法與流程

文檔序號:11775314閱讀:519來源:國知局
一種基于壓縮感知的目標識別方法與流程

本發(fā)明涉及圖像識別技術(shù)領(lǐng)域,尤其涉及一種基于壓縮感知的目標識別方法。



背景技術(shù):

在圖像中進行目標識別是采用各種程序算法將圖像中特定的目標區(qū)分出來的過程,并且將區(qū)分出的目標作為進行下一步處理提供基礎(chǔ),在信息化網(wǎng)絡(luò)化的今天,可以廣泛應(yīng)用到許多領(lǐng)域。人眼在進行識別某個特定目標時速度往往較慢,并且對于同類目標進行長時間識別劃分,也會造成審美疲勞逐漸產(chǎn)生大量錯誤識別,而采用機器識別代替人眼識別,利用計算機計算量代替人眼的用腦量可以提高速度與降低能耗,對于圖像識別領(lǐng)域而言是非常有利的,例如:對一千幅十字路口的視頻幀圖片進行識別,要求找出通過的車流量,明顯采用機器識別遠遠有利于人眼識別;同樣的,若給機器人加上圖像目標識別系統(tǒng),則相當于給機器人添加了“眼睛”,對于發(fā)展人工智能技術(shù)也是非常有利的。目前本領(lǐng)域技術(shù)人員在目標識別方面做出了很多貢獻,人們不僅將圖像識別技術(shù)應(yīng)用于人臉識別,物品識別等方面,還將其應(yīng)用在了手寫識別等方面,極大地方便了人們的生活。

而目前常用的圖像目標識別技術(shù)一般缺點是耗時較長、速度較慢,原因是傳統(tǒng)圖像目標識別技術(shù)需要以下流程:圖像預(yù)處理、圖像分割、特征提取和特征識別或匹配;即需要對采樣得到的圖像信息量進行多次處理才能將所需的目標識別出來,并且現(xiàn)有的圖像識別將圖像采集過程與目標識別過程分開,不利于速度的提高。

以上背景技術(shù)內(nèi)容的公開僅用于輔助理解本發(fā)明的構(gòu)思及技術(shù)方案,其并不必然屬于本專利申請的現(xiàn)有技術(shù),在沒有明確的證據(jù)表明上述內(nèi)容在本專利申請的申請日已經(jīng)公開的情況下,上述背景技術(shù)不應(yīng)當用于評價本申請的新穎性和創(chuàng)造性。



技術(shù)實現(xiàn)要素:

為解決上述技術(shù)問題,本發(fā)明提出一種基于壓縮感知的目標識別方法,能夠提高在圖像中目標識別的速度,并可以實現(xiàn)多目標識別。

為了達到上述目的,本發(fā)明采用以下技術(shù)方案:

本發(fā)明公開了一種基于壓縮感知的目標識別方法,包括以下步驟:

s1:獲取至少兩類目標的標準樣本圖;

s2:根據(jù)各類所述目標的標準樣本圖,采用特征原子提取方法得到各類所述目標的特征原子;

s3:將每類所述目標的各個所述特征原子分別對角排列組成每類所述目標的字典ψp,并將各類所述目標的字典并列排列組成綜合的字典ψ;

s4:采用測量矩陣φ對待識別的原始圖像x進行壓縮采樣,得到壓縮的采樣信號y;

s5:結(jié)合綜合的字典ψ、測量矩陣φ和采樣信號y,通過重構(gòu)計算得到待識別的所述原始圖像的稀疏系數(shù)θ;

s6:將稀疏系數(shù)θ進行處理得到系數(shù)圖,根據(jù)所述系數(shù)圖中連通域所處的行數(shù)以及大小進行分類識別和計數(shù),以實現(xiàn)對所述原始圖像中的各類所述目標的識別。

優(yōu)選地,步驟s1具體包括:根據(jù)圖像或視頻流中已知存在的至少兩類所述目標,提取出各類所述目標的目標圖像,將每類所述目標的多個所述目標圖像分別進行加權(quán)計算得到每類所述目標的標準樣本圖。

優(yōu)選地,其中提取出各類所述目標的目標圖像具體為:采用圖像形態(tài)學(xué)方法或人工識別分割方法來提取出各類所述目標的目標圖像。

優(yōu)選地,步驟s4還包括將采樣信號y作為數(shù)據(jù)存儲在存儲器中。

優(yōu)選地,步驟s5具體包括:根據(jù)綜合的字典ψ和測量矩陣φ的乘積得到感知矩陣a=φ*ψ,結(jié)合采樣信號y,通過omp算法的重構(gòu)計算公式y(tǒng)=a*θ計算得到所述原始圖像的稀疏系數(shù)θ。

優(yōu)選地,所述目標識別方法還包括步驟s7:將稀疏系數(shù)θ與綜合的字典ψ相乘,得到采集的重構(gòu)圖像x1=ψ*θ。

優(yōu)選地,步驟s2中的特征原子提取方法具體采用mod算法或k-svd算法來提取所述目標的特征原子。

優(yōu)選地,步驟s2中的特征原子提取方法具體包括:

s21:輸入各類所述目標的標準樣本圖的目標矩陣m,并進行初始化:將矩陣n初始化為n=m,循環(huán)標識i=0,初始的所述目標的字典ψp為空集;

s22:賦值循環(huán)標識i=i+1;

s23:尋找矩陣n的所有列中二范數(shù)最大的第k列,作為提取的列元素λi,其中s為矩陣n的列數(shù);

s24:計算矩陣n中所有列與第k列的列元素λi的最優(yōu)比率t,其中j是指矩陣n中的第j列;

s25:更新矩陣n的殘差r,殘差r中各列的殘差rj的計算公式為rj=nj-λi*tj;

s26:將矩陣n中所有列的殘差rj與第一閾值ξ1進行比較,若存在rj<ξ1,執(zhí)行步驟s27,否則返回步驟s23;

s27:矩陣n更新為n=r,并刪除nj,字典ψp更新為ψp=[ψp,λi];

s28:將更新后的矩陣n的二范數(shù)與第二閾值ξ2進行比較,若||n||<ξ2,執(zhí)行步驟s29,否則返回步驟s22;

s29:將字典ψp進行正交化處理,輸出特征原子。

優(yōu)選地,步驟s2中還包括s210:將輸出的特征原子結(jié)合目標矩陣m進行omp重構(gòu)計算得到相應(yīng)的系數(shù),將相應(yīng)的系數(shù)每行計算二范數(shù)按照大小排列,按照系數(shù)大小以及誤差設(shè)定要求判斷前n行有效,則相應(yīng)判斷提取的特征原子對應(yīng)的前n列作為最終的特征原子輸出。

優(yōu)選地,步驟s29中正交化處理具體采用史密斯正交化處理;優(yōu)選地,ξ1≤ξ2。

與現(xiàn)有技術(shù)相比,本發(fā)明的有益效果在于:本發(fā)明的目標識別方法中,首先通過特征原子提取方法得到各類目標的特征原子,將每類目標的各個特征原子分別對角排列組成每類目標的字典,再將各類目標的字典并列排列組成綜合的字典,通過將特征原子進行這樣的特定排列,結(jié)合稀疏系數(shù)得到系數(shù)圖,直接在系數(shù)數(shù)據(jù)中識別計數(shù),即可分門歸類地區(qū)分出每類目標各有多少個目標,從而可以同時進行多個目標的識別處理;另外相比傳統(tǒng)的目標識別方法,無需提取感興趣區(qū)域進行匹配計算來進行分類識別,直接通過設(shè)定特定的字典便可獲得不同類目標分別處于不同系數(shù)區(qū)域,即在系數(shù)數(shù)據(jù)中進行識別計數(shù),處理過程簡單,計算量小,提高了在圖像中目標識別的速度。

在進一步的方案中,在進行目標識別的同時還可并行獲得重構(gòu)圖像,并行計算互不影響,將圖像采集與目標識別過程合二為一,在圖像采集信號中進行目標識別,更進一步提高了在圖像中目標識別的速度,并且提高了數(shù)據(jù)的存儲效率與降低硬件的消耗。在更進一步的方案中,結(jié)合了壓縮感知理論中的有限等距性等原則,針對所需識別目標與背景環(huán)境可區(qū)分性的特點設(shè)計了特定的特征原子提取方法,并通過將特征原子經(jīng)過合理的組合形成字典,用這個字典與測量矩陣結(jié)合計算得到的系數(shù)矩陣,可以獲得更好的目標識別效果。

附圖說明

圖1是本發(fā)明優(yōu)選實施例的基于壓縮感知的目標識別方法的流程示意圖;

圖2是本發(fā)明優(yōu)選實施例的特征原子提取方法的流程示意圖。

具體實施方式

下面對照附圖并結(jié)合優(yōu)選的實施方式對本發(fā)明作進一步說明。

如圖1所示,本發(fā)明的優(yōu)選實施例公開了一種基于壓縮感知的目標識別方法,包括以下步驟:

s1:獲取至少兩類目標的標準樣本圖;

根據(jù)一些圖像或視頻流中已知存在的至少兩類目標,通過圖像心態(tài)學(xué)方法提取出目標圖像,或者人工識別分割出圖像中的目標圖像;然后將每類目標的多個目標圖像分別進行加權(quán)計算得到每類目標的標準樣本圖。

s2:根據(jù)各類目標的標準樣本圖,采用特征原子提取方法得到各類目標的特征原子;

其中特征原子提取方法可以采用mod算法或k-svd算法來提取各類目標的特征原子,更進一步地,特征原子提取方法也可采用后文講述的方法。

s3:將每類目標的各個特征原子分別對角排列組成每類目標的字典ψp,并將各類目標的字典并列排列組成綜合的字典ψ;

s4:采用測量矩陣φ對待識別的原始圖像x進行壓縮采樣,得到壓縮的采樣信號y,并將采樣信號y作為數(shù)據(jù)存儲在存儲器中;

s5:結(jié)合綜合的字典ψ、測量矩陣φ和采樣信號y,通過重構(gòu)計算得到待識別的原始圖像的稀疏系數(shù)θ;

具體地,根據(jù)綜合的字典ψ和測量矩陣φ的乘積得到感知矩陣a=φ*ψ,結(jié)合采樣信號y,通過omp算法的重構(gòu)計算公式y(tǒng)=a*θ計算得到原始圖像的稀疏系數(shù)θ。

s6:將稀疏系數(shù)θ處理得到系數(shù)圖,根據(jù)系數(shù)圖中連通域所處的行數(shù)以及大小進行分類識別和計數(shù),以實現(xiàn)對原始圖像中的各類目標的識別;

具體地,將稀疏系數(shù)θ進行濾波二值化等處理得到系數(shù)圖。

在進一步的實施例中,步驟s5中還包括將原始圖像的稀疏系數(shù)θ復(fù)制一份;步驟s6中為將其中一份的稀疏系數(shù)θ進行處理得到系數(shù)圖;該目標識別方法還包括步驟s7:將另外一份稀疏系數(shù)θ與綜合的字典ψ相乘,得到采集的重構(gòu)圖像x1=ψ*θ,其中步驟s7與步驟s6可以同時進行。通過步驟s7得到的重構(gòu)圖像與傳統(tǒng)nyquist方法采集得到的圖像相比不失真,可以替代原始圖像進行相關(guān)處理。

為了提高目標識別速度與降低圖像采集的數(shù)據(jù)量,本發(fā)明采用隨機高斯或伯努利測量矩陣進行數(shù)據(jù)壓縮采集,則可收集到相比原始圖像較少的數(shù)據(jù)存儲到存儲器中,這樣在同樣的存儲量下可以采集多幾倍的圖像信息;然后,將采集到的信號在需要時從存儲器中用omp算法重構(gòu)出來,由于所選擇的字典是自行設(shè)計的算法所生成的原子經(jīng)過特定排列組成的(每類目標的字典中各個特征原子呈對角線排列方式,然后每類目標的字典并列排列組成綜合的字典),因此計算得到的稀疏系數(shù)稍經(jīng)處理便分門歸類地區(qū)分出每類目標各有多少個目標,同時計算得到的稀疏系數(shù)直接與所選擇的字典相乘便可得到與原始圖像質(zhì)量接近的重構(gòu)圖像,并且獲得重構(gòu)圖與歸類識別可以進行并行處理互不影響。

在更進一步的實施例中,步驟s2中的的特征原子提取方法具體包括:

s21:輸入各類目標的標準樣本圖的目標矩陣m,并進行初始化:將矩陣n初始化為n=m,循環(huán)標識i=0,初始的目標的字典ψp為空集;

s22:賦值循環(huán)標識i=i+1,該步驟是記載目標的字典ψp已經(jīng)包含了多少列;

s23:尋找矩陣n的所有列中二范數(shù)最大的第k列,作為提取的列元素λi,其中s為矩陣n的列數(shù),該步驟是獲取矩陣n中影響因素最大的列;

s24:計算矩陣n中所有列與第k列的列元素λi的最優(yōu)比率tj,其中j是指矩陣n中的第j列,該步驟是計算影響最大的列與矩陣n中每列的相關(guān)系數(shù);

s25:更新矩陣n的殘差r,其中殘差r中各列的殘差rj的計算公式為rj=nj-λi*tj,該步驟是將矩陣n中所有列刪去影響最大的列,使得每列得到的結(jié)果最小(二范數(shù));

s26:將矩陣n中所有列的殘差rj與第一閾值ξ1進行比較,若存在rj<ξ1,執(zhí)行步驟s27,否則返回步驟s23;

s27:矩陣n更新為n=r,并刪除nj,字典ψp更新為ψp=[ψp,λi];

步驟s26和步驟s27中是通過計算每列刪去后的殘差與第一閾值作比較,判斷是否是影響較大的列,如果是則可作為一個特征原子存在字典ψp中,否則重新挑選。

s28:將更新后的矩陣n的二范數(shù)與第二閾值ξ2進行比較,若||n||<ξ2,執(zhí)行步驟s29,否則返回步驟s22,其中ξ1≤ξ2;

s29:將字典ψp進行正交化處理(可以采用史密斯正交化處理),輸出特征原子;

步驟s28和步驟s29是判斷是否挑選完所有特征原子,若已經(jīng)挑選完,則將得到的字典ψp正交作為特征原子輸出,否則繼續(xù)挑選。

s210:將輸出的特征原子結(jié)合目標矩陣m進行omp重構(gòu)計算得到相應(yīng)的系數(shù),將相應(yīng)的系數(shù)每行計算二范數(shù)按照大小排列,按照系數(shù)大小以及誤差設(shè)定要求判斷前n行有效,則相應(yīng)判斷提取的特征原子對應(yīng)的前n列作為最終的特征原子輸出。

本發(fā)明的目標識別方法中,首先通過特征原子提取方法得到各類目標的特征原子,將每類目標的各個特征原子分別對角排列組成每類目標的字典,再將各類目標的字典并列排列組成綜合的字典,通過將特征原子進行這樣的特定排列,結(jié)合稀疏系數(shù)得到系數(shù)圖,直接在系數(shù)數(shù)據(jù)中識別計數(shù),即可分門歸類地區(qū)分出每類目標各有多少個目標,從而可以同時進行多個目標的識別處理;另外相比傳統(tǒng)的目標識別方法,無需提取感興趣區(qū)域進行匹配計算來進行分類識別,直接通過設(shè)定特定的字典便可獲得不同類目標分別處于不同系數(shù)區(qū)域,處理過程簡單,計算量小,提高了在圖像中目標識別的速度。其中本發(fā)明還結(jié)合了壓縮感知理論中的有限等距性等原則,針對所需識別目標與背景環(huán)境可區(qū)分性的特點設(shè)計了特定的特征原子提取方法,并通過將特征原子經(jīng)過合理的組合形成字典,用這個字典與測量矩陣結(jié)合計算得到的系數(shù)矩陣,可以獲得更好的目標識別效果,并可以同時獲得重構(gòu)質(zhì)量較好的重構(gòu)圖,識別計數(shù)與獲得重構(gòu)圖像可以并行計算且互不影響,節(jié)約時間。

以上內(nèi)容是結(jié)合具體的優(yōu)選實施方式對本發(fā)明所作的進一步詳細說明,不能認定本發(fā)明的具體實施只局限于這些說明。對于本發(fā)明所屬技術(shù)領(lǐng)域的技術(shù)人員來說,在不脫離本發(fā)明構(gòu)思的前提下,還可以做出若干等同替代或明顯變型,而且性能或用途相同,都應(yīng)當視為屬于本發(fā)明的保護范圍。

當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1