專利名稱:一種基于特征的實(shí)時(shí)的視頻和圖像抽象化方法
技術(shù)領(lǐng)域:
本發(fā)明涉及計(jì)算機(jī)圖像及視頻處理技術(shù)領(lǐng)域,特別是涉及一種基于特 征的實(shí)時(shí)的視頻和圖像抽象化方法。
背景技術(shù):
實(shí)時(shí)的視頻和圖像抽象化通過(guò)簡(jiǎn)化低對(duì)比度區(qū)域及增強(qiáng)高對(duì)比度區(qū) 域,提供了一種簡(jiǎn)潔、快速、美觀的可視信息交流工具。當(dāng)藝術(shù)家想要描繪一 幅景色時(shí),他們并不是直接畫(huà)出場(chǎng)景里的所有可 視信息。相反,他們只選擇其中重要的信息,并用自己的想像力把這些信 息展現(xiàn)出來(lái)。線條能夠很有效和自然地描述信息,并且已經(jīng)被人類使用了 上萬(wàn)年了。近年來(lái),由于能使圖像及視頻更易于理解,抽象化技術(shù)已經(jīng)變4尋越來(lái)越^^亍,參見(jiàn)D. Decarlo and A. Santella. Stylization and Abstraction of Photographs. In Proceedings of the ACM SIGGRAPH, 2002, pp 769-776。最近, 一些研究人員提出了一個(gè)自動(dòng)、實(shí)時(shí)的圖像及視頻抽象化框架。 該系統(tǒng)使用可分離的雙邊濾波器來(lái)進(jìn)一步減少低對(duì)比度區(qū)域的對(duì)比度,同 時(shí)使用各向同性的高斯差分算法來(lái)人為地提高高對(duì)比度區(qū)域的對(duì)比度,參 見(jiàn)H. Winnem611er, S. C. Olsen, and B. Gooch. Real-Time Video Abstraction. In Proceedings of the ACM SIGGRAPH, 2006, pp 1221-1226。還有一些研究 人員使用雙邊網(wǎng)格來(lái)進(jìn)一步加速雙邊濾波器算法,能夠?qū)^高分辨率的視 頻進(jìn)行實(shí)時(shí)處理,參見(jiàn)J. Chen, S. Paris, and F. Dumnd. Real-Time Edge-Aware Image Processing with the Bilateral Grid. In Proceedings of the ACM SIGGRAPH, 2007, pp. 171-182。但所有這些自動(dòng)抽象化方法都使用 各向同性的高斯差分算法來(lái)抽取線條信息。該線條抽取算法確實(shí)能夠在圖 形卡上快速運(yùn)行,然而由于該算法是基于各向同性的,所抽取出的線條看 起來(lái)很生硬,不連貫。發(fā)明內(nèi)容本發(fā)明提供一種基于特征的實(shí)時(shí)的視頻和圖像抽象化方法。該方法采用了一種基于特征流的各向異性的高斯差分線條抽取的技術(shù),有效地解決 了現(xiàn)有多實(shí)時(shí)的視頻和圖像抽象化方法存在的抽取線條生硬,不連貫的問(wèn) 題。為了達(dá)到上述目的,本發(fā)明釆用以下技術(shù)方案如下 包括以下五個(gè)步驟1 )原紅綠藍(lán)顏色空間轉(zhuǎn)換到CIE-Lab顏色空間算法將待處理的實(shí) 時(shí)視頻和圖像序列中的每一幀圖像的每個(gè)象素原紅綠藍(lán)顏色空間轉(zhuǎn)換到 CIE-Lab顏色空間,使實(shí)時(shí)的視頻和圖像的亮度通道和彩色通道相分離;2) 采用雙邊網(wǎng)格對(duì)亮度通道進(jìn)行快速雙邊濾波,得到實(shí)時(shí)的視頻和 圖像的近似亮度值對(duì)所要處理圖像的低對(duì)比度區(qū)域進(jìn)行降低對(duì)比度,而 對(duì)線條區(qū)域進(jìn)行提高對(duì)比度;3) 偽量子化實(shí)時(shí)的視頻和圖像的近似亮度值將連續(xù)的實(shí)時(shí)的視頻 和圖像的近似亮度值進(jìn)行偽量子化,用以產(chǎn)生類似于卡通的層次感效果;4) 采用基于特征流的各向異性的高斯差分線條抽取算法抽取線條區(qū) 域并對(duì)抽取的線條區(qū)域和偽量子化的近似亮度值進(jìn)行組合操作使線條區(qū) 域的線條增強(qiáng);5) 將最終的處理完畢的CIE-Lab顏色空間的實(shí)時(shí)的^f見(jiàn)頻和圖像重新 轉(zhuǎn)換回紅綠藍(lán)顏色空間的實(shí)時(shí)的視頻和圖像。本發(fā)明所述的顏色空間轉(zhuǎn)換方法如下1) 紅綠藍(lán)顏色空間轉(zhuǎn)換到CIE-Lab顏色空間按照下面的公式進(jìn)行轉(zhuǎn)換<formula>formula see original document page 5</formula>2) CIE-Lab顏色空間轉(zhuǎn)換到紅綠藍(lán)顏色空間按照下面的公式進(jìn)行轉(zhuǎn)換<formula>formula see original document page 5</formula>式中/ , G, B分別表示紅綠藍(lán)顏色值。丄是亮度通道值,"和6是兩個(gè)彩 色通道值。在CIE-Lab顏色空間對(duì)圖像進(jìn)行處理的特點(diǎn)就是對(duì)丄的處理只會(huì)改變象素的明暗,不會(huì)影響到象素的彩色效果。而且,兩種顏色空間的 相互轉(zhuǎn)換是可逆的。本發(fā)明所述的采用雙邊網(wǎng)格對(duì)亮度通道進(jìn)行快速雙邊濾波方法如下首先,創(chuàng)建雙邊網(wǎng)格,用三維坐標(biāo)來(lái)定義一個(gè)雙邊網(wǎng)格的數(shù)據(jù)結(jié)構(gòu)r,其中前兩維為圖像上的二維坐標(biāo)(x,力,第三維是圖像的亮度。對(duì)于每個(gè)雙邊網(wǎng)格(/j,A:)先初始化為r(/,_/," = (o,0),將圖^f象的所有象素置入對(duì)應(yīng)的網(wǎng)格中,對(duì)r進(jìn)行累力口 r([x"、.],b/^],[/(;c,>0"r])+ = (/(;c,>0,l),式中^和^分 別表示空間域和亮度域的采樣率,[']為最接近的整數(shù)值操作符,(/(;c,力,l)是 齊次值的表示方法,第二項(xiàng)是齊次項(xiàng)。其次,雙邊網(wǎng)格創(chuàng)建完成后,對(duì)雙 邊網(wǎng)格的齊次值相對(duì)于三維方向分別進(jìn)行高斯巻積操作,并將所得結(jié)果除 去齊次項(xiàng)。最后,將該三維網(wǎng)格切片,重構(gòu)出二維圖像結(jié)果。利用圖形硬 件的雙線性插值功能,我們可以很快地取得雙邊網(wǎng)格中位于坐標(biāo) (x/;少/^/0c,力")的值,該值即為所要求的雙邊濾波后的近似亮度值,即 實(shí)時(shí)的視頻和圖像的近似亮度值。使用雙邊網(wǎng)格來(lái)進(jìn)一步加速雙邊濾波器 算法,能夠?qū)^高分辨率的視頻進(jìn)行實(shí)時(shí)處理。本發(fā)明所述的將連續(xù)的實(shí)時(shí)的視頻和圖像的近似亮度值進(jìn)行偽量子 化方法如下將連續(xù)的實(shí)時(shí)的視頻和圖像的近似亮度值偽量子化,通常我們將亮度 值總寬度分為8到12層,按照下面的公式計(jì)算每一層的亮度值<formula>formula see original document page 6</formula>式中g(shù)為所計(jì)算的偽 量子化亮度值,A《是離散化寬度,^^,是最接近/(;c,力的離散值,^用來(lái) 控制相鄰兩個(gè)離散值之間變化的快慢程度。本發(fā)明所述的采用基于特征流的各向異性的高斯差分線條抽取算法 抽取線條區(qū)域并對(duì)抽取的線條區(qū)域和偽量子化的近似亮度值進(jìn)行組合操 作使線條區(qū)域的線條增強(qiáng)的方法如下采用基于特征流的各向異性的高斯差分線條抽取算法對(duì)實(shí)時(shí)的視頻 和圖像的線條區(qū)域進(jìn)行線條增強(qiáng)。首先,創(chuàng)建一個(gè)特征流場(chǎng)r(x,力,初始 值垂直于輸入圖像的梯度場(chǎng)g(;c,力-V/(;c,力。對(duì)該特征流場(chǎng)進(jìn)行濾波的操 作,使得該流場(chǎng)在特征相近區(qū)域變得平滑,而顯著的邊緣能保持其原有的 方向。其次,根據(jù)各象素所處的特征流信息,先計(jì)算出流場(chǎng)方向的高斯巻 積值,再計(jì)算垂直于流場(chǎng)方向的巻積值,最后進(jìn)行差分計(jì)算。最后,根據(jù)所得到的特征流場(chǎng),利用各向異性的高斯差分算法采用基于特征流的各向 異性的高斯差分線條抽取算法抽取線條區(qū)域并對(duì)抽取的線條區(qū)域和偽量 子化的近似亮度值進(jìn)行組合操作使線條區(qū)域的線條增強(qiáng),抽取出連貫的、 風(fēng)格化的線條。本發(fā)明針對(duì)現(xiàn)有多實(shí)時(shí)的視頻和圖像抽象化方法存在的抽取線條生 硬,不連貫的缺點(diǎn),采用了一種基于特征流的各向異性的高斯差分線條抽 取的技術(shù)方案處理實(shí)時(shí)的視頻和圖像,使實(shí)時(shí)的視頻和圖像線條增強(qiáng),有 效地解決了上述問(wèn)題。本發(fā)明算法明確,界面友好,結(jié)果魯棒,且該方法 可以用于視頻、圖像中的實(shí)時(shí)抽象化設(shè)計(jì)。
圖1是本發(fā)明的技術(shù)方案流程圖。圖2是雙邊網(wǎng)格處理過(guò)程圖。圖3是基于特征流的各向異性的高斯差分線條抽取算法的處理過(guò)程圖。
具體實(shí)施方式
下面結(jié)合附圖對(duì)本發(fā)明一種基于特征的實(shí)時(shí)的視頻和圖像抽象化方法的實(shí)施例進(jìn)行詳細(xì)說(shuō)明。如圖1所示, 一種基于特征的實(shí)時(shí)的視頻和圖像抽象化方法,包括 將實(shí)時(shí)的視頻和圖像序列中的每一幀圖像的原紅綠藍(lán)顏色空間轉(zhuǎn)換到 C正-Lab顏色空間、采用雙邊網(wǎng)格對(duì)亮度通道進(jìn)行快速雙邊濾波、偽量子 化亮度值、采用基于特征流的各向異性的高斯差分線條抽取算法抽取線條 區(qū)域并對(duì)抽取的線條區(qū)域和偽量子化的近似亮度值進(jìn)行組合操作使線條 區(qū)域的線條增強(qiáng)、將圖像由CIE-Lab顏色空間重新轉(zhuǎn)換回紅綠藍(lán)顏色空間 五個(gè)步驟?,F(xiàn)具體介紹本方法的五個(gè)步驟1)紅綠藍(lán)顏色空間轉(zhuǎn)換到CIE-Lab顏色空間對(duì)于實(shí)時(shí)的視頻和圖像,將待處理實(shí)時(shí)的視頻和圖像序列中的每一幀 圖像的每個(gè)象素原紅綠藍(lán)顏色空間轉(zhuǎn)換到CIE-Lab顏色空間,使實(shí)時(shí)的視 頻和圖像的亮度通道和彩色通道相分離。紅綠藍(lán)顏色空間轉(zhuǎn)換到CIE-Lab 顏色空間按照下面的公式進(jìn)行轉(zhuǎn)換丄=0.299* i + 0.587*G +0.114*3 < a = 0.713 6 = 0.564*(5-丄)式中i , G, B分別表示紅綠藍(lán)顏色值,丄是亮度通道值,"和A是兩個(gè)彩 色通道值。在CIE-Lab顏色空間對(duì)圖像進(jìn)行處理的特點(diǎn)就是對(duì)丄的處理只 會(huì)改變象素的明暗,不會(huì)影響到象素的彩色效果。而且,兩種顏色空間的 相互轉(zhuǎn)換是可逆的。2)采用雙邊網(wǎng)格對(duì)亮度通道進(jìn)行快速雙邊濾波,得到實(shí)時(shí)的視頻和 圖像的近似亮度值雙邊網(wǎng)格對(duì)亮度通道進(jìn)行快速雙邊濾波的過(guò)程如圖2所示。對(duì)于輸入 的實(shí)時(shí)的^L頻和圖像I,雙邊濾波器被定義為『(/義:rh么、 『(/,義,7)= Zw(/,y,:K)w(/, y) = g(ii y - z ii, ct、)g(| /(y) - /(" i, )式中X表示象素在圖像中的二維坐標(biāo)(;c,力,A^O為其鄰域,參數(shù)q定 義了濾波器中使用的鄰域空間大小。增大C7,能使圖像變得更模糊,但如果 ^設(shè)定得過(guò)大,則顯著邊緣的特征也將會(huì)變平滑。參數(shù) 決定了鄰域y象 素與Z象素亮度差值所影響的權(quán)系數(shù)。創(chuàng)建雙邊網(wǎng)格,用三維坐標(biāo)來(lái)定義一個(gè)雙邊網(wǎng)格數(shù)據(jù)結(jié)構(gòu)r,其中前兩維為圖像上的二維坐標(biāo)(;c,力,第三維是圖像的亮度。雙邊網(wǎng)格數(shù)據(jù)結(jié)構(gòu) r以一張二維紋理儲(chǔ)存,按第三維亮度域的級(jí)數(shù)平攤到紋理平面上。雙邊 網(wǎng)格算法由以下五步實(shí)現(xiàn)。(1) 初始化r(',_/,A:) = (0,0)。(2) 將輸入實(shí)時(shí)的視頻和圖像的所有象素的值置入對(duì)應(yīng)的網(wǎng)格中,對(duì) r進(jìn)行累加,增加網(wǎng)格的值,這實(shí)際上是在頂點(diǎn)著色器中實(shí)現(xiàn)的分配操作r([x/s,],b/^],[/(JC,y)/、])+ = (/(;c,>0,l),式中^和^分別表示空間域和亮度域 的采樣率,[']為最接近的整數(shù)值操作符,(/(;c,力,l)是齊次值的表示方法,第二項(xiàng)是齊次項(xiàng)。如果使用預(yù)先計(jì)算好的頂點(diǎn)緩存來(lái)進(jìn)行光柵化,會(huì)消耗 額外的存儲(chǔ)空間及傳輸時(shí)間。因此,我們直接使用頂點(diǎn)著色器來(lái)光柵化輸
入象素的坐標(biāo)并確定輸出網(wǎng)格位置。我們利用Direct3D 10流水線中輸入 匯編器自動(dòng)生成的值SV一VertexID及圖像的大小(高度及寬度)來(lái)計(jì)算輸 入坐標(biāo)。這樣,我們繪制圖像象素個(gè)數(shù)的頂點(diǎn),而無(wú)需綁定頂點(diǎn)緩存。頂 點(diǎn)著色器也叫頂點(diǎn)著色單元(vertex shader)是一個(gè)在圖形卡的GPU上執(zhí) 行的程序,它替換了固定功能管線(fixed function pipeline)中的變換 (transformation)和光照(lighting)階段。Direct3D是能處理比較復(fù)雜的 三維動(dòng)畫(huà)的圖形4妻口庫(kù)(graphics interface library)。
(3) 對(duì)雙邊網(wǎng)格進(jìn)行高斯巻積,利用高斯巻積的可分離性,分別對(duì);c, ;;,和z三個(gè)方向進(jìn)行巻積。才艮據(jù)用戶設(shè)定的crs和 值自動(dòng)確定空間域^和 亮度域&采樣率。
(4) 將巻積得到的值除以各自的齊次項(xiàng),即歸一化#:作。(5) 將三維網(wǎng)格切片,重構(gòu)出二維圖像結(jié)果以得到輸出圖像的象素值。
對(duì)于三維網(wǎng)格,使用三線性插值來(lái)取得(x",,;;/^/(;c,力/0位置的值。利用 圖形硬件的雙線性插值特性,我們先從網(wǎng)格紋理中采樣出最接近z值的兩 張切片上的值,再進(jìn)行一次插值即可得到所求的值,該值即為實(shí)時(shí)的視頻 和圖像的近似亮度值。
雙邊網(wǎng)格是一個(gè)基本的數(shù)據(jù)結(jié)構(gòu),它能使許多基于邊緣的操作達(dá)到實(shí) 時(shí)的運(yùn)行效率。實(shí)際上,它是一個(gè)三維數(shù)組,前兩維表示二維象素坐標(biāo)(x,力 并構(gòu)成空間域,第三維z表示亮度域。由于實(shí)時(shí)抽象化技術(shù)中的雙邊濾波 器和邊緣檢測(cè)器是主要的耗時(shí)瓶頸,因此選用雙邊網(wǎng)格來(lái)進(jìn)行加速。
3)偽量子化實(shí)時(shí)的視頻和圖像的近似亮度值
將上述雙邊網(wǎng)格對(duì)亮度通道進(jìn)行快速雙邊濾波得到的連續(xù)的實(shí)時(shí)的 視頻和圖像的近似亮度值進(jìn)行偽量子化,我們將亮度值總寬度分為8到12 層,按照下面的公式計(jì)算每一層的亮度值
附, 一 =《—,+ A《/ 2 * tanh(K . (/(JT) -《—,),式中g(shù)為所計(jì)算的偽量 子化亮度值, 是離散化寬度,《",是最接近/(X)的離散值,^用來(lái)控 制相鄰兩個(gè)離散值之間變化的快慢程度。連續(xù)的實(shí)時(shí)的視頻和圖像的近 似亮度值偽量子化后產(chǎn)生類似于卡通的層次感效果。4)采用基于特征流的各向異性的高斯差分線條抽取算法對(duì)CIE-Lab 顏色空間的實(shí)時(shí)的視頻和圖像的線條區(qū)域進(jìn)行線條增強(qiáng)
基于特征流的各向異性的高斯差分線條抽取算法的流程如圖3所示。 我們將處理的實(shí)時(shí)的視頻和圖像的象素的局部方向考慮到高斯差分算法 中,使高斯差分濾波器僅沿著垂直于局部"特征流"方向進(jìn)行計(jì)算。為了 獲得光滑及風(fēng)格化的線條,首先要從輸入圖像/中構(gòu)造一個(gè)近似的特征流 場(chǎng)r。該特征流場(chǎng)是一個(gè)向量場(chǎng),初始值垂直于輸入圖像的梯度場(chǎng) g(Z) = V/(Z)。特征流場(chǎng)必須滿足三個(gè)條件1 )向量流必須能表達(dá)該鄰域 中顯著邊緣的切線方向;2)除了尖角部位外,各鄰域向量必須光滑地對(duì) 齊;3)重要的邊緣必須能保持它們?cè)械姆较颉?br>
為了能達(dá)到實(shí)時(shí)的視頻和圖像數(shù)據(jù)處理的實(shí)時(shí)性能,我們定義了 一個(gè) 特征流濾波器<formula>formula see original document page 10</formula>
式中,A(y)和^(Z)分別表示象素I在水平方向及豎直方向上的鄰域,& 和&為相應(yīng)的歸一化項(xiàng)。
強(qiáng)度權(quán)因子函數(shù)^定義為
<formula>formula see original document page 10</formula>
式中g(shù)表示梯度的強(qiáng)度值。當(dāng)一個(gè)鄰居象素的梯度強(qiáng)度比較高時(shí),它對(duì)應(yīng) 的強(qiáng)度權(quán)因子函數(shù)值就比較大,反之亦然。參數(shù)7用來(lái)控制雙曲正切函數(shù) 的下降率,一4W殳定為1。
方向權(quán)因子函數(shù)^定義為<formula>formula see original document page 10</formula>
F(Z)表示之前計(jì)算得出的Z象素的特征流向量。從公式中可以看出,隨著 兩個(gè)向量的夾角的減小,該方向權(quán)因子函數(shù)值將增大。如果夾角大于90 度,r(y)的方向?qū)⒃谄交僮髑氨环聪?,有效地防止了旋渦流。
該濾波器實(shí)質(zhì)上使用了可分離的近似法來(lái)構(gòu)造特征流,因此我們能夠很方便地在圖形處理芯片GPU上并行實(shí)現(xiàn)。圖像的梯度場(chǎng)由圖像濾波 Sobel運(yùn)算符計(jì)算得出,并可以得出特征流場(chǎng)的初始值。然后將該類雙邊 濾波器應(yīng)用到特征流場(chǎng)中二到三次。注意的是,梯度場(chǎng)g會(huì)隨著特征流場(chǎng) 的變化而變動(dòng),而強(qiáng)度值g是保持不變的。
過(guò)濾完特征流場(chǎng)后,我們使用基于流場(chǎng)的各向異性高斯差分濾波器來(lái) 抽取線條區(qū)域,即特征線
<formula>formula see original document page 11</formula>
式中c(義),/("分別表示沿著象素X e /的流切線方向和垂直象素 s e 流方向的鄰域。因此ff W是沿著垂直于FOO并與s相交的線/5進(jìn)行巻 積操作的。/,平行于梯度方向g(力,并且/,(0)w。我們?cè)僖淮卫脠D形硬 件的雙線性插值能力,從鄰域中采樣出p^個(gè)點(diǎn),而每一次采樣只需要兩 次紋理讀取操作。在這里,我們?cè)O(shè)定 =1.6 ,同時(shí) 和 還自動(dòng)決定采樣 大小p和g。闊值參數(shù)p影響該邊緣檢測(cè)器的敏感度,我們?cè)O(shè)定為0.99。
計(jì)算出高斯差分函數(shù)F的值后,我們需要確定出線條區(qū)域,為了得到 光滑的線條效果,我們不使用黑白閾值來(lái)抽取線條,而是將抽取的線條亮 度值設(shè)定為
D(義)"1,如果(尸("〉0);
<formula>formula see original document page 11</formula>否則。式中,參數(shù)^控制線條的尖銳程度,這樣使
用連貫的、風(fēng)格化的線條來(lái)增強(qiáng)了線條區(qū)域,抽取出了連貫的、風(fēng)格化的 線條。
由于特征流場(chǎng)的構(gòu)造可以看作是一個(gè)修改的雙邊濾波器,細(xì)微的線條 將被濾去,而顯著的邊緣將被增強(qiáng)。并且,我們可以在抽取線條之前應(yīng)用 真實(shí)的雙邊濾波以除去圖像中的噪場(chǎng)。這樣我們就可以降低低對(duì)比度區(qū)域 的對(duì)比度,增強(qiáng)線條區(qū)域的對(duì)比度。
計(jì)算出線條區(qū)域后,我們對(duì)抽取的線條區(qū)域和近似亮度值進(jìn)行組合操 作使線條區(qū)域的線條增強(qiáng)。按照下面指令進(jìn)行組合操作
<formula>formula see original document page 11</formula>這種基于特征流的各向異性的高斯差分線條抽取算法對(duì)視頻和圖像 的線條區(qū)域進(jìn)行線條增強(qiáng)的方法能夠在圖形處理的硬件中并行處理,使各 種與邊緣檢測(cè)相關(guān)的圖像處理技術(shù)能夠達(dá)到實(shí)時(shí)的運(yùn)行效率。
5)將最終的處理完畢的CIE-Lab顏色空間的實(shí)時(shí)的視頻和圖像重新 轉(zhuǎn)換回紅綠藍(lán)顏色空間的實(shí)時(shí)的^f見(jiàn)頻和圖^f象。CIE-Lab顏色空間轉(zhuǎn)換到紅 綠藍(lán)顏色空間按照下面的公式進(jìn)行轉(zhuǎn)換
式中i , G,萬(wàn)分別表示紅綠藍(lán)顏色值,Z是亮度通道值,"和6是兩個(gè)彩 色通道值。在C正-Lab顏色空間對(duì)圖像進(jìn)行處理的特點(diǎn)就是對(duì)丄的處理只 會(huì)改變象素的明暗,不會(huì)影響到象素的彩色效果。而且,兩種顏色空間的 相互轉(zhuǎn)換是可逆的。
權(quán)利要求
1. 一種基于特征的實(shí)時(shí)的視頻和圖像抽象化方法,該方法包括以下五個(gè)步驟(1)實(shí)時(shí)的視頻和圖像讀取后,由紅綠藍(lán)顏色空間轉(zhuǎn)換到CIE-Lab顏色空間,使實(shí)時(shí)的視頻和圖像的亮度通道和彩色通道相分離;(2)采用雙邊網(wǎng)格對(duì)亮度通道進(jìn)行快速雙邊濾波,得到實(shí)時(shí)的視頻和圖像的近似亮度值;(3)偽量子化實(shí)時(shí)的視頻和圖像的近似亮度值;(4)采用基于特征流的各向異性的高斯差分線條抽取算法抽取線條區(qū)域并對(duì)抽取的線條區(qū)域和近似亮度值進(jìn)行組合操作使線條區(qū)域的線條增強(qiáng);(5)實(shí)時(shí)的視頻和圖像由CIE-Lab顏色空間重新轉(zhuǎn)換回紅綠藍(lán)顏色空間。
2. 根據(jù)權(quán)利要求1所述的實(shí)時(shí)的視頻和圖像抽象化方法,其特征在 于所述的紅綠藍(lán)顏色空間轉(zhuǎn)換到CIE-Lab顏色空間的轉(zhuǎn)換按照下面的公 式進(jìn)行'丄=0.299 * i + 0.587 * G + 0.114 * 5 < "=0.713*(/ -丄)式中i , G, S分別表示紅綠藍(lán)顏色值,丄是亮度通道值,a和6是兩個(gè)彩 色通道值。
3. 根據(jù)權(quán)利要求1所述的實(shí)時(shí)的視頻和圖像抽象化方法,其特征在 于所述的釆用雙邊網(wǎng)格對(duì)亮度通道進(jìn)行快速雙邊濾波方法如下創(chuàng)建雙邊網(wǎng)格,用三維坐標(biāo)來(lái)定義一個(gè)雙邊網(wǎng)格的數(shù)據(jù)結(jié)構(gòu)r,其中前兩維為圖像上的二維坐標(biāo)Oc,力,第三維是圖像的亮度,對(duì)每個(gè)雙邊網(wǎng)格 (/,,"先初始化為r(/,_/," = (0,0),將實(shí)時(shí)的視頻和圖像的所有象素置入對(duì) 應(yīng)的網(wǎng)格中,對(duì)r按公式r([;c/&],[y /&],[/(;c,力/&])+ = (/(x,力,l)進(jìn)行累加,式中^和、分別表示空間域和亮度域的采樣率,[']為最接近的整數(shù)值操作符,(/(x,力,l)是齊次值的表示方法,第二項(xiàng)是齊次項(xiàng),雙邊網(wǎng)格創(chuàng)建完成后, 對(duì)雙邊網(wǎng)格的齊次值相對(duì)于三維方向分別進(jìn)行高斯巻積操作,并將所得結(jié)果除去齊次項(xiàng),再將該三維網(wǎng)格切片,重構(gòu)出二維圖像結(jié)果,然后利用圖形硬件的雙線性插值功能取得雙邊網(wǎng)格中位于坐標(biāo)(^/&,;;"、.,/(;^)/0的 值,即實(shí)時(shí)的視頻和圖像的近似亮度值。
4. 根據(jù)權(quán)利要求1所述的實(shí)時(shí)的視頻和圖像抽象化方法,其特征在 于所述的偽量子化實(shí)時(shí)的視頻和圖像的近似亮度值方法如下按照公式2<formula>formula see original document page 3</formula>計(jì)算每一層的 亮度值,式中2為所計(jì)算的偽量子化亮度值,A《是離散化寬度,^一是最 接近/(x,力的離散值,^用來(lái)控制相鄰兩個(gè)離散值之間變化的快慢程度。
5. 根據(jù)權(quán)利要求1所述的實(shí)時(shí)的視頻和圖像抽象化方法,其特征在 于所述的對(duì)實(shí)時(shí)的視頻和圖像的線條區(qū)域進(jìn)行線條增強(qiáng)的方法如下創(chuàng)建一個(gè)特征流場(chǎng)r(x,力,初始值垂直于輸入圖像的梯度場(chǎng) g(jc,力=V/(x,力,對(duì)該特征流場(chǎng)進(jìn)行濾波操作并計(jì)算出流場(chǎng)方向的高斯巻 積值和垂直于流場(chǎng)方向的巻積值,再進(jìn)行差分計(jì)算,最后利用各向異性的 高斯差分算法抽取線條區(qū)域并對(duì)抽取的線條區(qū)域和近似亮度值進(jìn)行組合 操作使線條區(qū)域的線條增強(qiáng)。
6. 根據(jù)權(quán)利要求1所述的實(shí)時(shí)的視頻和圖像抽象化方法,其特征在 于所述的CIE-Lab顏色空間轉(zhuǎn)換到紅綠藍(lán)顏色空間的轉(zhuǎn)換按照下面的公 式進(jìn)行<formula>formula see original document page 3</formula>式中i , G, B分別表示紅綠藍(lán)顏色值,£是亮度通道值,a和6是兩個(gè) 彩色通道值。
全文摘要
本發(fā)明公開(kāi)了一種基于特征的實(shí)時(shí)的視頻圖像抽象化方法,該方法包括將實(shí)時(shí)的視頻和圖像的紅綠藍(lán)顏色空間轉(zhuǎn)換到CIE-Lab顏色空間、采用雙邊網(wǎng)格對(duì)亮度通道進(jìn)行快速雙邊濾波、偽量子化亮度值、采用基于特征流的各向異性的高斯差分線條抽取算法抽取線條區(qū)域并對(duì)抽取的線條區(qū)域和近似亮度值進(jìn)行組合操作使線條區(qū)域的線條增強(qiáng)、將實(shí)時(shí)的視頻和圖像由CIE-Lab顏色空間重新轉(zhuǎn)換回紅綠藍(lán)顏色空間五個(gè)步驟。本發(fā)明每一個(gè)步驟都可以在家用電腦的圖形卡硬件中并行處理,有效地解決了現(xiàn)有多實(shí)時(shí)的視頻和圖像抽象化方法存在的抽取線條生硬,不連貫的問(wèn)題,為非專業(yè)人員提供了一種簡(jiǎn)便直觀的實(shí)時(shí)的視頻和圖像的抽象化方法。
文檔編號(hào)G06T5/00GK101286228SQ20081006238
公開(kāi)日2008年10月15日 申請(qǐng)日期2008年5月15日 優(yōu)先權(quán)日2008年5月15日
發(fā)明者趙漢理, 金小剛 申請(qǐng)人:浙江大學(xué)