亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于三維模型幾何信息的紋理圖像壓縮方法

文檔序號(hào):9420686閱讀:516來(lái)源:國(guó)知局
一種基于三維模型幾何信息的紋理圖像壓縮方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明設(shè)及圖像處理領(lǐng)域,尤其設(shè)及一種的紋理圖像壓縮方法。
【背景技術(shù)】
[0002] 隨著計(jì)算機(jī)圖形學(xué)理論基礎(chǔ)W及相關(guān)軟硬件技術(shù)不斷成熟,=維建模技術(shù)逐漸地 融入了互聯(lián)網(wǎng)應(yīng)用,在web3D電子商務(wù)中取得了重要的應(yīng)用,使得用戶在網(wǎng)絡(luò)環(huán)境中也可 W得到類似現(xiàn)實(shí)世界的體驗(yàn)。然而,高精度=維掃描及重建技術(shù)在滿足用戶對(duì)虛擬場(chǎng)景及 物體模型真實(shí)感的需要的同時(shí),也造成了模型數(shù)據(jù)和紋理數(shù)據(jù)量十分龐大。運(yùn)些數(shù)據(jù)不僅 占據(jù)了大量的存儲(chǔ)空間,還降低了模型傳輸和加載的速度,嚴(yán)重影響網(wǎng)絡(luò)用戶的體驗(yàn),也制 約了Web3D的發(fā)展。研究人員通過(guò)幾何信息和紋理信息壓縮W減少數(shù)據(jù)量,經(jīng)過(guò)多年的發(fā) 展,幾何信息壓縮方面已經(jīng)取得了較多的研究成果,而=維模型紋理圖像的壓縮仍是圖形 學(xué)領(lǐng)域關(guān)注的熱點(diǎn)問(wèn)題之一。根據(jù)壓縮研究方向的發(fā)展階段,紋理壓縮算法可W分為兩類: 1.基于圖像特性的紋理圖像壓縮算法;2.基于映射特性的紋理壓縮算法。
[0003] 綜上所述,基于圖像特性的紋理圖像壓縮算法關(guān)注點(diǎn)在于圖像的內(nèi)容、數(shù)據(jù)類型、 頻域特性等各種二維特征。并沒(méi)用利用到紋理數(shù)據(jù)由=維空間到二維空間的生成過(guò)程或是 由二維空間映射到=維空間的貼圖過(guò)程中的各種特性?;谟成涮匦缘募y理壓縮算法利用 紋理像素到模型表面的映射過(guò)程中的特性,對(duì)紋理空間內(nèi)的數(shù)據(jù)完成一些特殊的操作。
[0004] 對(duì)=維圖形數(shù)據(jù)進(jìn)行壓縮編碼的研究通常分為對(duì)網(wǎng)格數(shù)據(jù)的壓縮和紋理圖像的 壓縮運(yùn)兩個(gè)相對(duì)獨(dú)立的部分,很少有人關(guān)注利用二者的關(guān)聯(lián)特性對(duì)運(yùn)兩種數(shù)據(jù)進(jìn)行關(guān)聯(lián)的 壓縮編碼和壓縮。本發(fā)明使用網(wǎng)格幾何信息來(lái)研究降低紋理局部區(qū)域分辨率的代價(jià),利用 網(wǎng)格的幾何信息確定紋理圖像的重要區(qū)域,實(shí)現(xiàn)紋理圖像感興趣區(qū)域數(shù)據(jù)的優(yōu)先壓縮和傳 輸。

【發(fā)明內(nèi)容】
陽(yáng)〇化]為了解決現(xiàn)有技術(shù)中的問(wèn)題,針對(duì)傳統(tǒng)的基于機(jī)器視覺(jué)方法產(chǎn)品缺陷檢測(cè)適用對(duì) 象的局限性W及壓縮過(guò)程中如何求取紋理圖像上人眼感興趣區(qū)域的問(wèn)題進(jìn)行深入研究,本 發(fā)明提出了一種基于=維模型幾何信息的紋理圖形壓縮方法,該方法取得了紋理圖像的感 興趣區(qū)域并提高了感興趣區(qū)域和背景的區(qū)分精度,能夠利用網(wǎng)格的幾何信息確定紋理圖像 的重要區(qū)域,實(shí)現(xiàn)紋理圖像感興趣區(qū)域數(shù)據(jù)的優(yōu)先壓縮和傳輸。
[0006] 本發(fā)明通過(guò)W下技術(shù)方案實(shí)現(xiàn):
[0007] 一種基于=維模型幾何信息的紋理圖形壓縮方法,其特征在于:所述方法首先對(duì) 原始圖形進(jìn)行預(yù)處理,確定感興趣的區(qū)域R0I,W生成ROI區(qū)域模塊;然后利用ROI區(qū)域模 版對(duì)預(yù)處理后的圖形作小波變換,對(duì)ROI對(duì)應(yīng)的小波變換系數(shù)進(jìn)行提升或降低背景系數(shù), 接下來(lái)對(duì)感興趣形狀和位置信息編碼傳輸;其中,確定感興趣的區(qū)域R0I,W生成ROI區(qū)域 模塊具體為:利用模型網(wǎng)格數(shù)據(jù)求取紋理圖像上的人眼感興趣區(qū)域,根據(jù)紋理的視覺(jué)表現(xiàn) 形式,提取了代表=維模型多分辨率重網(wǎng)格化后表面細(xì)節(jié)信息的=維特征點(diǎn)及其在紋理空 間上的映射點(diǎn)作為紋理特征點(diǎn);根據(jù)圖像空間的連續(xù)性,利用K-means聚類算法對(duì)圖像中 的特征點(diǎn)進(jìn)行了類聚合,取得了紋理圖像的感興趣區(qū)域并提高了感興趣區(qū)域和背景的區(qū)分 精度。
[0008] 作為本發(fā)明的進(jìn)一步改進(jìn),用分辨率方法處理=維圖形,將模型分為粗糖的基網(wǎng) 格和加入不同程度細(xì)節(jié)信息的多個(gè)層次,為網(wǎng)格建立四叉樹(shù)結(jié)構(gòu),方便提取=角網(wǎng)格在不 同尺度下的幾何信息;所述模型網(wǎng)格數(shù)據(jù)采用IgorGuskov的基于多分支的半正則重網(wǎng)格 化處理得到。
[0009] 作為本發(fā)明的進(jìn)一步改進(jìn),在壓縮時(shí)去除貼圖前紋理圖像中的背景像素。
[0010] 作為本發(fā)明的進(jìn)一步改進(jìn),所述K-means聚類算法對(duì)圖像中的特征點(diǎn)進(jìn)行了類聚 合具體為:首先將紋理的特征點(diǎn)集合看作未聚類的初始點(diǎn)集,隨機(jī)選取個(gè)種子點(diǎn)作為待聚 合的類的中屯、點(diǎn);然后計(jì)算每個(gè)特征點(diǎn)到聚類中屯、的距離,并聚類到離該點(diǎn)最近的聚類中 去;隨后計(jì)算每個(gè)聚類中所有點(diǎn)的坐標(biāo)平均值,并將運(yùn)個(gè)平均值作為新的聚類中屯、;最后 重復(fù)計(jì)算每個(gè)點(diǎn)到聚類中屯、的距離,并歸類到離該點(diǎn)最近的類中去,直到算法的結(jié)果收斂, 記錄完整包圍一個(gè)類所有特征點(diǎn)的矩形區(qū)域。
[0011] 作為本發(fā)明的進(jìn)一步改進(jìn),所述對(duì)ROI對(duì)應(yīng)的小波變換系數(shù)進(jìn)行提升或降低背景 系數(shù)具體為:提取的紋理ROI區(qū)域進(jìn)行六層金字塔迭代運(yùn)算后生成二值化的小波系數(shù)模 板,需要保留的小波系數(shù)包括高頻帶中感興趣區(qū)域的小波系數(shù)W及低頻帶的全部系數(shù);采 用最大位移法提升或降低處理的小波系數(shù)。
【附圖說(shuō)明】
[0012] 圖1是本發(fā)明的基于=維模型幾何信息的紋理圖形壓縮方法流程圖;
[0013] 圖2是S角面的1-4細(xì)分結(jié)構(gòu)示意圖;
[0014] 圖3是邊和頂點(diǎn)的四叉樹(shù)結(jié)構(gòu)示意圖;
[0015] 圖4是頂點(diǎn)預(yù)測(cè)位置的差值向量示意圖;
[0016] 圖5是紋理圖像的特征點(diǎn)提取結(jié)果示意圖,其中,圖5(a)是BucMha的背部,圖 5化)是BucMha的頭部,圖5(C)是R油bit的軀干花紋,圖5(d)是R油bit的臉部右側(cè),圖 5(e)是Bear的身體一側(cè),圖5(f)是Bear的全局紋理,圖5(g)是Bear的面部,圖5OOBear 的前肢;
[0017] 圖6是通過(guò)聚類算法得到的紋理圖像ROI區(qū)域示意圖,其中,圖6(a)是Bear的底 座,圖6化)是Bear的頭部,圖6 (C)是Bear的腿和腳,圖6 (d)是Bear全局貼圖;
[0018] 圖7是最大位移法提升后的小波系數(shù)示意圖,其中,圖7(a)是紋理圖像,圖7化) 是六層小波變換黑色圖像,圖7(c)是小波系數(shù)提升模板,圖7(d)是提升后的小波系數(shù)。
[0019] 本發(fā)明的有益效果是:本發(fā)明提出了一種基于=維模型表面信息的紋理圖像壓縮 方法,利用模型網(wǎng)格數(shù)據(jù)求取紋理圖像上的人眼感興趣區(qū)域,根據(jù)紋理的視覺(jué)表現(xiàn)形式,提 取了代表=維模型多分辨率重網(wǎng)格化后表面細(xì)節(jié)信息的=維特征點(diǎn)及其在紋理空間上的 映射點(diǎn)作為紋理特征點(diǎn),根據(jù)圖像空間的連續(xù)性,利用K-means聚類算法對(duì)圖像中的特征 點(diǎn)進(jìn)行了類聚合,取得了紋理圖像的感興趣區(qū)域并提高了感興趣區(qū)域和背景的區(qū)分精度。
【具體實(shí)施方式】
[0020] 為了使本發(fā)明的目的、技術(shù)方案及優(yōu)點(diǎn)更加清楚明白,W下結(jié)合附圖及實(shí)施例,對(duì) 本發(fā)明進(jìn)行進(jìn)一步詳細(xì)說(shuō)明。應(yīng)當(dāng)理解,此處所描述的具體實(shí)施例僅僅用W解釋本發(fā)明,并 不用于限定本發(fā)明。
[0021] 本發(fā)明中所描述的=維模型可W從基于圖像的=維建模方法中獲得,也可W從能 夠生成紋理的=維掃描設(shè)備中獲得。進(jìn)行紋理圖像壓縮時(shí),必須有=維模型、紋理圖像及紋 理坐標(biāo)關(guān)系。
[0022] 附圖1所示的是本發(fā)明的基于=維模型幾何信息的紋理圖形壓縮方法流程,首先 對(duì)原始圖形進(jìn)行預(yù)處理,然后確定感興趣的區(qū)域R0I,W生成ROI區(qū)域模塊,利用ROI區(qū)域模 版對(duì)預(yù)處理后的圖形作小波變換,對(duì)ROI對(duì)應(yīng)的小波變換系數(shù)進(jìn)行提升或降低背景系數(shù), 接下來(lái)對(duì)感興趣形狀和位置信息編碼傳輸。接收到傳輸?shù)牧炕幋a數(shù)據(jù)后,對(duì)感興趣形狀 和位置信息解碼,然后對(duì)感興趣區(qū)域?qū)?yīng)的系數(shù)下移,進(jìn)行小波逆變換、預(yù)處理變換后重建 圖像。
[0023] 本發(fā)明的基于=維模型幾何信息的紋理圖形壓縮方法利用模型網(wǎng)格數(shù)據(jù)求取紋 理圖像上的人眼感興趣區(qū)域,根據(jù)紋理的視覺(jué)表現(xiàn)形式,提取了代表=維模型多分辨率重 網(wǎng)格化后表面細(xì)節(jié)信息的=維特征點(diǎn)及其在紋理空間上的映射點(diǎn)作為紋理特征點(diǎn);根據(jù)圖 像空間的連續(xù)性,利用K-means聚類算法對(duì)圖像中的特征點(diǎn)進(jìn)行了類聚合,取得了紋理圖 像的感興趣區(qū)域并提高了感興趣區(qū)域和背景的區(qū)分精度。
[0024] 紋理圖像呈現(xiàn)在人眼的狀態(tài)則和普通圖像不同。一方面,貼圖前紋理圖像中的背 景像素,在貼圖后完全沒(méi)有映射到模型表面,運(yùn)部分信息對(duì)于觀察模型時(shí)的人眼完全不可 見(jiàn),可W考慮在壓縮時(shí)去除。另一方面,人眼對(duì)模型的感興趣區(qū)域多集中于表面細(xì)節(jié)豐富的 區(qū)域,在網(wǎng)絡(luò)傳輸中,運(yùn)部分信息應(yīng)當(dāng)被優(yōu)先傳達(dá)到客戶端。所W,紋理圖像的壓縮過(guò)程中, 應(yīng)當(dāng)充分考慮感興趣區(qū)域的優(yōu)先傳輸。
[00巧]紋理貼圖中由紋理坐標(biāo)系到設(shè)備坐標(biāo)系的變換,往往便是紋理映射的逆過(guò)程。給 定空間曲面FGR2,對(duì)于F中的任一點(diǎn)(X,y,Z),通過(guò)紋理映射O找到它在參數(shù)域中的對(duì) 應(yīng)點(diǎn)(U,V),即:
[0026] 軒,化句€擴(kuò).卡艱沁化轅JJ] -I朗
[0027] 紋理映射函數(shù)O滿足使輸入集合和輸出集合互為單射關(guān)系的條件。所有的模型 空間點(diǎn)坐標(biāo)(x,y,z)及其在紋理空間的對(duì)應(yīng)坐標(biāo)(u,v)都是S維模型數(shù)據(jù)中已知的部分, 因此不妨先提取=維模型網(wǎng)格頂點(diǎn)中的特征頂點(diǎn),然后將其映射到紋理坐標(biāo)系中,即可得 出紋理圖像上感興趣區(qū)域中的特征點(diǎn)。運(yùn)些特征點(diǎn)一定分布在貼圖后紋理的可見(jiàn)性區(qū)域, 并且集中在人眼所感興趣的模型表面幾何信息復(fù)雜的部分,最后借助紋理圖像內(nèi)容的連續(xù) 性,可求解出紋理圖像的感興趣區(qū)域。
[0028] 普通=維模型的網(wǎng)格拓?fù)湫畔⒓捌鋸?fù)雜,不利于求取=維模型=角網(wǎng)格頂點(diǎn)區(qū)域 的特征點(diǎn)。用分辨率方法處理=維圖形,將模型分為粗糖的基網(wǎng)格和加入不同程度細(xì)節(jié)信 息的多個(gè)層次,可W為網(wǎng)格建立四叉樹(shù)結(jié)構(gòu),方便提取=角網(wǎng)格在不同尺度下的幾何信息。 本發(fā)明采用IgorGuskov的基于多分支的半正則重網(wǎng)格化處理。新生成的網(wǎng)格具有半正則 化拓?fù)浣Y(jié)構(gòu),除了基網(wǎng)格部分頂點(diǎn)的出度(和頂點(diǎn)相鄰的邊的數(shù)量)不為6,派生子面的頂 點(diǎn)全部具有數(shù)值為6的出度。如附圖2所示,半正則網(wǎng)格的面具有天然的1-4細(xì)分結(jié)構(gòu),可 W建立1-4生成樹(shù)。不僅如此,邊和邊上的點(diǎn)也同樣具有樹(shù)形結(jié)構(gòu),附圖3說(shuō)明了運(yùn)種結(jié)構(gòu)。
[0029]應(yīng)用改進(jìn)的Loop模式(ModifiedLoop),用公式(2)對(duì)高分辨率層次的頂點(diǎn)進(jìn)行 預(yù)測(cè)操作。如附圖4所示,先利用低分辨率層級(jí)的頂點(diǎn)預(yù)測(cè)分辨率上更高一層中頂點(diǎn)的位 置,再用預(yù)測(cè)位置與實(shí)際位置之差d代替高層頂點(diǎn)的位置。由頂向下應(yīng)用運(yùn)種方式進(jìn)行處 理,則半正則網(wǎng)格可化為基網(wǎng)格頂點(diǎn)集合M。和多層漸進(jìn)網(wǎng)格的頂點(diǎn)與其自身預(yù)測(cè)值的偏移 量的集合di(i= 1,2,…,n),其中n為基網(wǎng)格向下細(xì)化的層次數(shù)目。運(yùn)種對(duì)網(wǎng)格的表示方 法盡可能低去除了網(wǎng)格的拓?fù)湫畔?,而保留了模型表面的幾何信息?br>[0030]
(2)
[0031] 在觀察物體時(shí),人眼對(duì)物體細(xì)節(jié)的分辨率是有限的,其關(guān)注度可能集中于某個(gè)分 辨率層次,高于該層次的信息易于獲取和分辨,低于該層次的細(xì)節(jié)將難W被辨認(rèn)和關(guān)注。所 W在提取網(wǎng)格不同分辨率下的偏移量時(shí),處理到某一層次就可W滿足人眼的觀察需求了。 運(yùn)里,按照
當(dāng)前第1頁(yè)1 2 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1