專利名稱:基于視覺注意的壓縮感知圖像目標(biāo)重構(gòu)方法
技術(shù)領(lǐng)域:
本發(fā)明屬于圖像處理技術(shù)領(lǐng)域,涉及自然圖像的目標(biāo)重構(gòu),具體地說是一種基于視覺注意的壓縮感知圖像目標(biāo)重構(gòu)方法,該方法可用于自然圖像的目標(biāo)檢測。
背景技術(shù):
過去的幾十年間,傳感系統(tǒng)獲取數(shù)據(jù)的能力不斷地得到增強(qiáng)。需要處理的數(shù)據(jù)量也不斷增多,而傳統(tǒng)的奈奎斯特采樣定理要求信號的采樣率不得低于信號帶寬的2倍,這無疑給信號處理的能力提出了更高的要求,也給相應(yīng)的硬件設(shè)備帶來了極大的挑戰(zhàn)。近年來,由Candes等人和Donoho提出的壓縮感知理論CS為該問題的解決提供了契機(jī)。壓縮感知理論與傳統(tǒng)奈奎斯特采樣定理不同,它指出,只要信號是可壓縮的或在某個變換域是稀疏的,那么就可以用一個與變換基不相關(guān)的觀測矩陣將變換所得高維信號投影到一個低維空間上,然后通過求解一個優(yōu)化問題就可以從這些少量的投影中以高概率重構(gòu)出原信號, 可以證明這樣的投影包含了重構(gòu)信號的足夠信息。當(dāng)獲取一幅圖像時,往往不是對圖像中所有的內(nèi)容都感興趣,對圖像所做的處理也是針對圖像中的某一個特定的目標(biāo)。因此,如果能夠在獲取圖像時用壓縮感知的知識把圖像中的背景部分去掉,只保留感興趣的目標(biāo)部分,就可以減少很多工作量。視覺注意是人類信息加工中一項重要的心理調(diào)節(jié)機(jī)制,是人類從外界輸入的大量信息中選擇和保持有用信息,拒絕無用信息的意識活動,是人類視感知過程中高效性和可靠性的保障°Hsuan_Ying Chen等在文章"A new visual attention model using texture and object features”中提出了一種采用圖像的紋理特征和目標(biāo)特征的新的視覺注意模型,該模型能夠簡單有效地描繪出圖像中的感興趣目標(biāo)區(qū)域。目前用壓縮感知來做目標(biāo)重構(gòu)的方法主要有Abhijit Mahanobis 等在文章“Object specific image reconstruction using a compressive sensing architecture for application in Surveillance Systems,,中提出了一種加權(quán)L-2范數(shù)的方法。作者認(rèn)為把信號投影到稀疏域中得到的稀疏系數(shù),其承載的信息量是不同的,因此,可以通過給稀疏系數(shù)加權(quán),使包含較多信息的系數(shù)所占的比重更大。文章中用特定目標(biāo)的離散余弦變換DCT系數(shù)對整幅圖像的稀疏系數(shù)進(jìn)行加權(quán),然后得到加權(quán)的L-2范數(shù)解,作為最終結(jié)果。實驗結(jié)果表明,該方法只是對L-2范數(shù)進(jìn)行改進(jìn), 得到整幅圖像的重構(gòu),沒有達(dá)到特定目標(biāo)的重構(gòu),從而不能夠檢測出場景中所包含的目標(biāo)。 另外文中所用的DCT系數(shù)是用多幅目標(biāo)圖像訓(xùn)練出來的,訓(xùn)練過程需要占用很多的資源和時間,在實際應(yīng)用中很難實現(xiàn)。Ying Yu 等人在文章 “Saliency-based compressive sampling for image signals”中提出了一種把視覺注意模型與壓縮感知理論相結(jié)合的方法來重構(gòu)圖像。該方法實現(xiàn)了壓縮感知理論與視覺注意模型的結(jié)合。由于該方法實現(xiàn)的是對整幅圖像進(jìn)行重構(gòu), 它需要對整幅圖像進(jìn)行采樣和壓縮,因此既不能檢測出圖像中的目標(biāo),也造成了資源的浪費(fèi)。
綜上所述,現(xiàn)有技術(shù)存在以下不足一是均不能有效地應(yīng)用壓縮感知理論檢測出圖像中所包含的目標(biāo),不能實現(xiàn)圖像中的目標(biāo)與背景的有效分離,不能夠得到只包含有目標(biāo)的重構(gòu)圖像。二是在應(yīng)用過程中對內(nèi)存的需求量比較大,時間復(fù)雜度較高,不易實現(xiàn)。
發(fā)明內(nèi)容
本發(fā)明的目的在于克服上述已有技術(shù)的缺點,提出了一種基于視覺注意的壓縮感知圖像目標(biāo)重構(gòu)方法,以實現(xiàn)圖像中的目標(biāo)與背景的有效分離,得到只包含有目標(biāo)的重構(gòu)圖像。本發(fā)明的技術(shù)方案是首先得到圖像的顯著圖,用顯著圖對觀測矩陣加權(quán),使得到的觀測向量中只有包含目標(biāo)的信息,然后對觀測向量進(jìn)行重構(gòu)。其具體步驟包括如下(1)輸入大小為256X256的包含有目標(biāo)的彩色圖像,用視覺注意模型得到大小為 32X32的紋理顯著圖S ;(2)選擇經(jīng)驗閾值s為50 100,將紋理顯著圖S中大于經(jīng)驗閾值s的像素設(shè)為1,其余像素設(shè)為0,得到一個新的顯著圖,大小也為32X32,將新的顯著圖均勻插值為 256X256的最終顯著圖,并將其分為32X32的顯著塊;(3)將輸入的原彩色圖像灰度化,并分成大小為32X32的小塊,得到待觀測圖像塊,每個待觀測圖像塊與同位置的顯著塊相對應(yīng);(4)由計算機(jī)程序生成一個大小為512X10M的隨機(jī)觀測矩陣,將各顯著塊拉成一個列向量,生成一個以該向量為對角線的對角矩陣,用對角矩陣對觀測矩陣進(jìn)行加權(quán),由此得到與顯著塊相同數(shù)量的加權(quán)觀測矩陣,而且每一個加權(quán)觀測矩陣對應(yīng)一個待觀測圖像塊;(5)用每一個加權(quán)觀測矩陣觀測與其對應(yīng)的待觀測圖像塊,得到各個待觀測圖像塊的觀測向量;(6)對各個待觀測圖像塊的觀測向量進(jìn)行重構(gòu),得到待觀測圖像塊的重構(gòu)圖像塊, 將這些圖像塊再拼接成一幅完整的重構(gòu)圖像。本發(fā)明由于結(jié)合了壓縮感知和視覺注意模型,所以能夠很好地提取出圖像的顯著圖,并且得到的顯著圖中檢測出了圖像中目標(biāo)區(qū)域的位置,得到的重構(gòu)圖像中只包含目標(biāo), 實現(xiàn)了目標(biāo)和背景的分離,對圖像進(jìn)行后續(xù)處理的時候有更強(qiáng)的針對性;同時由于用觀測矩陣加權(quán)的方法,將背景區(qū)域的像素設(shè)為零,減少計算量,對內(nèi)存需求量較少,容易實現(xiàn)。實驗證明,本發(fā)明能精確表示出圖像中目標(biāo)的位置,并且重構(gòu)出只包含有目標(biāo)的圖像。
圖1是本發(fā)明的整體實現(xiàn)流程圖;圖2是本發(fā)明中獲取顯著圖的子流程圖;圖3是本發(fā)明仿真使用的原始彩色圖像;圖4是本發(fā)明仿真實驗得到的原始彩色圖像的顯著圖;圖5是本發(fā)明將原始彩色圖像灰度化后的灰度圖6是本發(fā)明仿真實驗得到的重構(gòu)圖像。
具體實施例方式參照圖1,本發(fā)明的具體實現(xiàn)步驟如下步驟1,輸入原始彩色圖像,用視覺注意模型得到該彩色圖像的顯著圖T。本步驟中所使用的視覺注意模型由H. Y. Chen,和J. J. Leou在文章《A new attention model using texture and object features)) IEEE 8th International Conference on Computer and Information Technology Workshops,2008 中提出。參照圖2,本步驟的具體實現(xiàn)如下(Ia)由輸入彩色圖像的紅色r、綠色g、藍(lán)色b這三個分量得到四個寬協(xié)調(diào)的顏色通道R = r- (g+b) /2 G = g- (r+b) /21)B = b- (r+g) /2 Y= (r+g) /2-1 r-g | /2_b其中R是紅色通道,G是綠色通道,B是藍(lán)色通道,Y是黃色通道;(Ib)計算紅色通道與綠色通道的差值圖=Iffi = |R-G|,并將該插值圖分成8X8的紅綠通道小塊,計算每個紅綠通道小塊的標(biāo)準(zhǔn)差
權(quán)利要求
1.一種基于視覺注意的壓縮感知圖像目標(biāo)重構(gòu)方法,包括如下步驟(1)輸入大小為256X256的包含有目標(biāo)的彩色圖像,用視覺注意模型得到大小為 32X32的紋理顯著圖S ;(2)選擇經(jīng)驗閾值s為50 100,將紋理顯著圖S中大于經(jīng)驗閾值s的像素設(shè)為1,其余像素設(shè)為0,得到一個新的顯著圖,大小也為32X32,將新的顯著圖均勻插值為256X256 的最終顯著圖,并將其分為32X32的顯著塊;(3)將輸入的原彩色圖像灰度化,并分成大小為32X32的小塊,得到待觀測圖像塊,每個待觀測圖像塊與同位置的顯著塊相對應(yīng);(4)由計算機(jī)程序生成一個大小為512X10M的隨機(jī)觀測矩陣,將各顯著塊拉成一個列向量,生成一個以該向量為對角線的對角矩陣,用對角矩陣對觀測矩陣進(jìn)行加權(quán),由此得到與顯著塊相同數(shù)量的加權(quán)觀測矩陣,而且每一個加權(quán)觀測矩陣對應(yīng)一個待觀測圖像塊;(5)用每一個加權(quán)觀測矩陣觀測與其對應(yīng)的待觀測圖像塊,得到各個待觀測圖像塊的觀測向量;(6)對各個待觀測圖像塊的觀測向量進(jìn)行重構(gòu),得到待觀測圖像塊的重構(gòu)圖像塊,將這些圖像塊再拼接成一幅完整的重構(gòu)圖像。
2.根據(jù)權(quán)利要求1所述的基于視覺注意的壓縮感知圖像目標(biāo)重構(gòu)方法,其中步驟(1) 所述的用視覺注意模型得到大小為32X32的顯著圖,按如下步驟進(jìn)行(Ia)由輸入彩色圖像的紅色r、綠色g、藍(lán)色b這三個分量得到四個寬協(xié)調(diào)的顏色通道
3.根據(jù)權(quán)利要求ι所述的基于視覺注意的壓縮感知圖像目標(biāo)重構(gòu)方法,其中步驟O) 所述的均勻插值是指把圖像中的每一個像素點擴(kuò)充為4X4的小塊,每個小塊中的每個像素與原來的像素相等。
4.根據(jù)權(quán)利求要1所述的基于視覺注意的壓縮感知圖像目標(biāo)重構(gòu)方法,其中步驟所述的用對角矩陣對觀測矩陣進(jìn)行加權(quán),是指用隨機(jī)觀測矩陣乘以對角矩陣。
5.根據(jù)權(quán)利求要1所述的基于視覺注意的壓縮感知圖像目標(biāo)重構(gòu)方法,其中步驟(5) 所述的用每一個加權(quán)觀測矩陣觀測與其對應(yīng)的待觀測圖像塊,是用加權(quán)的觀測矩陣乘以用待觀測圖像塊拉成的列向量。
全文摘要
本發(fā)明公開了一種基于視覺注意的壓縮感知圖像目標(biāo)重構(gòu)方法,它涉及自然圖像處理技術(shù)領(lǐng)域,主要解決現(xiàn)有方法不能有效結(jié)合壓縮感知的理論來提取圖像中的感興趣目標(biāo)并對目標(biāo)進(jìn)行重構(gòu)的問題。其實現(xiàn)步驟為首先用視覺注意的方法提取出圖像中可能存在目標(biāo)的區(qū)域,得到目標(biāo)顯著圖;再根據(jù)得到的目標(biāo)顯著圖對觀測矩陣進(jìn)行加權(quán),得到針對目標(biāo)的加權(quán)觀測矩陣;最后用加權(quán)觀測矩陣對待觀測圖像進(jìn)行觀測得到觀測向量,對觀測向量進(jìn)行重構(gòu)得到重構(gòu)圖像。該發(fā)明能夠準(zhǔn)確得到圖像中目標(biāo)的位置,并且重構(gòu)圖像中只含有目標(biāo),可用于一個大場景的目標(biāo)檢測。
文檔編號G06T11/00GK102568016SQ20121000046
公開日2012年7月11日 申請日期2012年1月3日 優(yōu)先權(quán)日2012年1月3日
發(fā)明者侯彪, 張向榮, 江瓊花, 焦李成, 王爽, 馬文萍 申請人:西安電子科技大學(xué)