亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于模板匹配的多視點(diǎn)視頻運(yùn)動(dòng)和視差矢量預(yù)測(cè)方法

文檔序號(hào):7854263閱讀:216來源:國(guó)知局
專利名稱:一種基于模板匹配的多視點(diǎn)視頻運(yùn)動(dòng)和視差矢量預(yù)測(cè)方法
技術(shù)領(lǐng)域
本發(fā)明涉及3D視頻編碼技術(shù)領(lǐng)域,具體是一種基于模板匹配的多視點(diǎn)視頻運(yùn)動(dòng)和視差矢量預(yù)測(cè)方法。
背景技術(shù)
多視點(diǎn)視頻指的是由不同視點(diǎn)的多個(gè)攝像機(jī)從不同視角拍攝同一場(chǎng)景得到的一組同步視頻信號(hào),能夠更加生動(dòng)地再現(xiàn)場(chǎng)景,可廣泛應(yīng)用于三維電視、交融式會(huì)議電視、遠(yuǎn)程醫(yī)學(xué)診療、虛擬現(xiàn)實(shí)以及視頻監(jiān)視系統(tǒng)等多種正在興起的多媒體業(yè)務(wù)。與單視點(diǎn)視頻相t匕,多視點(diǎn)視頻的數(shù)據(jù)量隨著攝像機(jī)的數(shù)目增加而線性增加。因此,如何提高多視點(diǎn)視頻的編碼效率便成為了當(dāng)前研究的主要內(nèi)容。 多視點(diǎn)視頻編碼技術(shù)主要采用視點(diǎn)間預(yù)測(cè)來去除視點(diǎn)間冗余,即在編碼當(dāng)前圖像時(shí)使用其他視點(diǎn)中的已解碼圖像作為參考圖像進(jìn)行視間和時(shí)域預(yù)測(cè)。由于雙目立體視頻之間的存在幾何對(duì)應(yīng)關(guān)系,左右視點(diǎn)之間存在很大的相關(guān)性。因此,如何利用視間相關(guān)性進(jìn)行預(yù)測(cè)來提高編碼效率是提高多視點(diǎn)視頻編碼效率的關(guān)鍵。在碼流里,對(duì)于視間域預(yù)測(cè)塊需要標(biāo)記視差矢量,對(duì)于時(shí)域預(yù)測(cè)塊需要標(biāo)記運(yùn)動(dòng)矢量。中值預(yù)測(cè)是目前運(yùn)動(dòng)矢量和視差矢量常用的預(yù)測(cè)方法。當(dāng)視間域預(yù)測(cè)塊周圍是時(shí)域預(yù)測(cè)塊時(shí),時(shí)域預(yù)測(cè)塊由于缺少視差矢量,對(duì)視差矢量的預(yù)測(cè)沒有貢獻(xiàn),會(huì)造成視間域預(yù)測(cè)塊視差矢量預(yù)測(cè)效率下降。同樣,當(dāng)時(shí)域預(yù)測(cè)塊周圍是視間域預(yù)測(cè)塊時(shí),視間域預(yù)測(cè)塊對(duì)運(yùn)動(dòng)矢量的預(yù)測(cè)也沒有貢獻(xiàn),運(yùn)動(dòng)矢量的預(yù)測(cè)效率也會(huì)下降?!禔 motion vector predictionmethod for multi-view video coding)) 一文中提出利用時(shí)域上前后兩巾貞對(duì)應(yīng)塊的視差矢量來估計(jì)當(dāng)前塊的視差,但仍然存在兩個(gè)問題一是當(dāng)時(shí)域前后兩幀對(duì)應(yīng)塊無視差矢量時(shí),如何對(duì)當(dāng)前塊視差矢量進(jìn)行預(yù)測(cè);二是對(duì)于當(dāng)前塊的運(yùn)動(dòng)矢量,若周圍塊均無運(yùn)動(dòng)信息時(shí)如何預(yù)測(cè)。為了解決這些問題,我們采用基于模板匹配的視差和運(yùn)動(dòng)矢量預(yù)測(cè)的辦法來重建視間域預(yù)測(cè)塊的運(yùn)動(dòng)矢量和時(shí)域預(yù)測(cè)塊的視差矢量。

發(fā)明內(nèi)容
本發(fā)明目的在于提供一種基于模板匹配的多視點(diǎn)視頻運(yùn)動(dòng)和視差矢量預(yù)測(cè)方法,以便在編碼前能更為準(zhǔn)確的預(yù)測(cè)當(dāng)前編碼塊的運(yùn)動(dòng)矢量或視差矢量,從而提高編碼效率。為實(shí)現(xiàn)上述目的,本發(fā)明提出的基于模板匹配的多視點(diǎn)視頻運(yùn)動(dòng)和視差矢量預(yù)測(cè)方法包括以下步驟第一步對(duì)輸入的左右兩路視頻信號(hào),以一個(gè)圖像組(GOP)為例,先對(duì)左路第一幀圖像進(jìn)行普通的視頻編碼。我們將圖像劃分成若干宏塊,然后對(duì)宏塊進(jìn)行幀內(nèi)預(yù)測(cè),當(dāng)前塊與預(yù)測(cè)塊相差得到殘差值,并對(duì)殘差進(jìn)行變換、量化、掃描和熵編碼,形成碼流序列;第二步,在解碼端,碼流序列通過熵解碼、反量化和反變換后得到殘差值,通過幀內(nèi)預(yù)測(cè)的預(yù)測(cè)值與殘差值相加,經(jīng)濾波得到每個(gè)解碼宏塊,形成左路第一幀圖像的解碼圖像;
第三步,繼續(xù)編碼左路視頻序列的下一幀圖像,分別對(duì)宏塊進(jìn)行幀內(nèi)預(yù)測(cè)和運(yùn)動(dòng)補(bǔ)償預(yù)測(cè)。然后通過中值預(yù)測(cè)的方法對(duì)當(dāng)前塊的運(yùn)動(dòng)矢量進(jìn)行預(yù)測(cè)得到MVp。將運(yùn)動(dòng)矢量MV和運(yùn)動(dòng)矢量預(yù)測(cè)值MVp相減,得到運(yùn)動(dòng)矢量的差值MVd。采用率失真優(yōu)化準(zhǔn)則對(duì)當(dāng)前編碼塊進(jìn)行模式選擇(幀內(nèi)預(yù)測(cè)/運(yùn)動(dòng)補(bǔ)償預(yù)測(cè)),當(dāng)前塊與預(yù)測(cè)塊相差得到殘差值,并對(duì)殘差進(jìn)行變換、量化,然后和MVd —起熵編碼,形成碼流序列;第四步,在解碼端碼流序列通過熵解碼、反量化和反變換后得到殘差值,并通過中值預(yù)測(cè)預(yù)測(cè)出當(dāng)前塊運(yùn)動(dòng)矢量MVp,加上經(jīng)解碼的MVd得到運(yùn)動(dòng)矢量MV,然后根據(jù)MV和左路前一幀進(jìn)行運(yùn)動(dòng)補(bǔ)償?shù)玫筋A(yù)測(cè)值,預(yù)測(cè)值與殘差值相加,經(jīng)濾波得到每個(gè)解碼宏塊,形成左路解碼圖像;第五步,跳回第三步,處理左路下一幀圖像,直至左路GOP圖像全部編解碼完畢;第六步,對(duì)右路第一幀圖像進(jìn)行三維立體編碼,分別對(duì)宏塊進(jìn)行幀內(nèi)預(yù)測(cè)和視差補(bǔ)償預(yù)測(cè)。其中視差補(bǔ)償預(yù)測(cè)通過視差估計(jì)來得到當(dāng)前塊的視差矢量DV,然后根據(jù)視差矢量DV從左路參考幀中找到對(duì)應(yīng)預(yù)測(cè)塊。然后我們通過中值預(yù)測(cè)或模板匹配的方法對(duì)當(dāng)前 塊的視差矢量進(jìn)行預(yù)測(cè)得到DVp :如果當(dāng)前編碼宏塊周圍有兩個(gè)或兩個(gè)以上塊為視間預(yù)測(cè)塊,則采用中值預(yù)測(cè)的方法對(duì)當(dāng)前編碼塊進(jìn)行視差矢量預(yù)測(cè),否則采用模板匹配的方法,在解碼端得到的左路第一幀重建圖像中搜索最佳匹配塊,從而預(yù)測(cè)出當(dāng)前視間預(yù)測(cè)塊的視差矢量DVp。將視差矢量DV和視差矢量預(yù)測(cè)值DVp相減,得到視差矢量的差值DVd。采用率失真優(yōu)化準(zhǔn)則對(duì)當(dāng)前編碼塊進(jìn)行模式選擇(幀內(nèi)預(yù)測(cè)/視差補(bǔ)償預(yù)測(cè)),當(dāng)前塊與預(yù)測(cè)塊相差得到殘差值,并對(duì)殘差進(jìn)行變換、量化,然后和DVd —起熵編碼,形成碼流序列;第七步,在解碼端碼流序列通過熵解碼、反量化和反變換后得到殘差值,并通過中值預(yù)測(cè)或模板匹配法預(yù)測(cè)出當(dāng)前塊視差矢量DVp,加上經(jīng)解碼的DVd得到視差矢量DV,然后根據(jù)DV和左路參考幀進(jìn)行視差補(bǔ)償?shù)玫筋A(yù)測(cè)值,預(yù)測(cè)值與殘差值相加,經(jīng)濾波得到每個(gè)解碼宏塊,形成右路第一幀圖像的解碼圖像;第八步,繼續(xù)編碼右路視頻序列的下一幀圖像,分別對(duì)宏塊進(jìn)行幀內(nèi)預(yù)測(cè)、運(yùn)動(dòng)補(bǔ)償預(yù)測(cè)和視差補(bǔ)償預(yù)測(cè)。其中運(yùn)動(dòng)補(bǔ)償預(yù)測(cè)是通過運(yùn)動(dòng)估計(jì)來得到當(dāng)前塊的運(yùn)動(dòng)矢量MV,然后根據(jù)運(yùn)動(dòng)矢量MV從時(shí)域前一幀中找到對(duì)應(yīng)預(yù)測(cè)塊。然后我們通過中值預(yù)測(cè)或模板匹配的方法對(duì)當(dāng)前塊的運(yùn)動(dòng)矢量進(jìn)行預(yù)測(cè)得到MVp :如果當(dāng)前編碼塊周圍有兩個(gè)或兩個(gè)以上塊為時(shí)域預(yù)測(cè)塊,則采用中值預(yù)測(cè)的方法對(duì)當(dāng)前編碼塊進(jìn)行運(yùn)動(dòng)矢量預(yù)測(cè),否則采用模板匹配的方法,在解碼端得到的右路前一幀重建圖像中搜索最佳匹配塊,從而預(yù)測(cè)出當(dāng)前運(yùn)動(dòng)預(yù)測(cè)塊的運(yùn)動(dòng)矢量MVp。同時(shí)對(duì)當(dāng)前塊做視差估計(jì)得到視差矢量DV,然后根據(jù)視差矢量DV從左路參考幀中找到對(duì)應(yīng)預(yù)測(cè)塊。通過中值預(yù)測(cè)或模板匹配的方法對(duì)當(dāng)前塊的視差矢量進(jìn)行預(yù)測(cè)得到DVp (同第三步),最后得到視差矢量的差值DVd。采用率失真優(yōu)化準(zhǔn)則對(duì)當(dāng)前編碼宏塊進(jìn)行模式選擇(幀內(nèi)預(yù)測(cè)/運(yùn)動(dòng)補(bǔ)償預(yù)測(cè)/視差補(bǔ)償預(yù)測(cè)),當(dāng)前塊與預(yù)測(cè)塊相差得到殘差值,并對(duì)殘差進(jìn)行變換、量化、和MVd(DVd)一起熵編碼,形成碼流序列;第九步,在解碼端碼流序列通過熵解碼、反量化和反變換后得到殘差值,并通過中值預(yù)測(cè)或模板匹配法預(yù)測(cè)出當(dāng)前塊運(yùn)動(dòng)矢量MVp (或預(yù)測(cè)視差矢量DVp),加上經(jīng)解碼的MVd(DVd)得到運(yùn)動(dòng)矢量MV (視差矢量DV),然后根據(jù)MV (DV)和右路前一幀(左路參考幀)進(jìn)行運(yùn)動(dòng)(視差)補(bǔ)償?shù)玫筋A(yù)測(cè)值,預(yù)測(cè)值與殘差值相加,經(jīng)濾波得到每個(gè)解碼宏塊,形成右路解碼圖像;第十步,跳回第八步,處理右路下一幀圖像,直至右路GOP圖像全部編解碼完畢;本發(fā)明具有以下優(yōu)點(diǎn) 本發(fā)明使用模板匹配方法對(duì)編碼塊的運(yùn)動(dòng)矢量和視差矢量進(jìn)行預(yù)測(cè),提高了預(yù)測(cè)的準(zhǔn)確性,對(duì)圖像的編碼效率有所改善。


圖I是本發(fā)明實(shí)施例中倒L型模板匹配示意圖;圖2是本發(fā)明實(shí)例中視差和運(yùn)動(dòng)矢量預(yù)測(cè)示意圖;圖3是本發(fā)明實(shí)例中視差和運(yùn)動(dòng)矢量預(yù)測(cè)的流程圖;圖4是本發(fā)明實(shí)例編碼和解碼框圖。
具體實(shí)施例方式下面結(jié)合附圖和實(shí)施例,對(duì)本發(fā)明進(jìn)行詳細(xì)的描述。本實(shí)施例僅為本發(fā)明的一個(gè)實(shí)施例而不是全部實(shí)施例。我們采用模板匹配的方法對(duì)視差和運(yùn)動(dòng)矢量進(jìn)行預(yù)測(cè)。我們這里采用倒L型模板匹配,如圖I所示,當(dāng)前編碼塊的上面塊和左邊塊構(gòu)成倒L型模板(模板大小為4像素寬度),模板L在主視點(diǎn)重建圖像中平移搜索窗口覆蓋的子圖記作Li j’,i,j為子圖左上頂點(diǎn)在主視點(diǎn)圖像中的坐標(biāo),最終通過比較L與Li j’的相似性,完成模板匹配過程。該實(shí)施例中,圖2為基于模板匹配的視差和運(yùn)動(dòng)矢量預(yù)測(cè)示意圖,圖3為具體實(shí)現(xiàn)的流程圖,圖4為編碼解碼框架圖;對(duì)于輸入的視頻信號(hào),我們以一組GOP為例(如GOP =8),編解碼過程如下(為方面起見,我們?cè)O(shè)左路視頻為主視點(diǎn)圖像,右路視頻為輔視點(diǎn)圖像)第一步對(duì)輸入的兩路視頻信號(hào),將一路定義為主視點(diǎn),另一路定義為輔視點(diǎn),先對(duì)主視點(diǎn)第一幀圖像進(jìn)行普通的視頻編碼。我們將圖像劃分成若干宏塊,按照從上至下、從左至右的順序?qū)γ總€(gè)宏塊進(jìn)行處理。首先然后對(duì)宏塊進(jìn)行幀內(nèi)預(yù)測(cè),這里基于塊的劃分采用不同的預(yù)測(cè)方向作為相應(yīng)的編碼模式,即根據(jù)已經(jīng)編碼和重建后的塊形成一個(gè)預(yù)測(cè)塊,選擇使預(yù)測(cè)塊與當(dāng)前塊的差值最小的預(yù)測(cè)模式作為當(dāng)前塊的預(yù)測(cè)模式,然后對(duì)當(dāng)前塊與該預(yù)測(cè)塊的差值塊進(jìn)行變換、量化和熵編碼,得到碼流序列;第二步,在解碼端碼流序列通過熵解碼、反量化和反變換后得到殘差值,預(yù)測(cè)值與殘差值相加,經(jīng)濾波得到每個(gè)解碼宏塊,形成主視點(diǎn)第一幀圖像的解碼圖像;第三步,繼續(xù)編碼主視點(diǎn)視頻序列的一幀圖像,分別對(duì)宏塊進(jìn)行幀內(nèi)預(yù)測(cè)和運(yùn)動(dòng)補(bǔ)償預(yù)測(cè)。然后通過中值預(yù)測(cè)或模板匹配的方法對(duì)當(dāng)前塊的運(yùn)動(dòng)矢量進(jìn)行預(yù)測(cè)得到MVp。將運(yùn)動(dòng)矢量MV和運(yùn)動(dòng)矢量預(yù)測(cè)值MVp相減,得到運(yùn)動(dòng)矢量的差值MVd。采用率失真優(yōu)化準(zhǔn)則對(duì)當(dāng)前編碼塊進(jìn)行模式選擇(幀內(nèi)預(yù)測(cè)/運(yùn)動(dòng)補(bǔ)償預(yù)測(cè)),當(dāng)前塊與預(yù)測(cè)塊相差得到殘差值,并對(duì)殘差進(jìn)行變換、量化,然后和MVd —起熵編碼,形成碼流序列;第四步,在解碼端碼流序列通過熵解碼、反量化和反變換后得到殘差值,并通過中值預(yù)測(cè)或模板匹配法預(yù)測(cè)出當(dāng)前塊運(yùn)動(dòng)矢量MVp,加上經(jīng)解碼的MVd得到運(yùn)動(dòng)矢量MV,然后根據(jù)MV和主視點(diǎn)前一幀進(jìn)行運(yùn)動(dòng)補(bǔ)償?shù)玫筋A(yù)測(cè)值,預(yù)測(cè)值與殘差值相加,經(jīng)濾波得到每個(gè)解碼宏塊,形成主視點(diǎn)解碼圖像;第五步,跳回第三步,處理主視點(diǎn)下一幀圖像,直至主視點(diǎn)GOP圖像全部編解碼完畢;第六步,對(duì)輔視點(diǎn)第一幀圖像進(jìn)行三維立體編碼,分別對(duì)當(dāng)前塊(如B6塊)進(jìn)行幀內(nèi)預(yù)測(cè)和視差補(bǔ)償預(yù)測(cè)。其中視差補(bǔ)償預(yù)測(cè)通過視差估計(jì)來得到當(dāng)前塊的視差矢量D6,然后根據(jù)視差矢量D6從主視點(diǎn)參考幀中找到對(duì)應(yīng)預(yù)測(cè)塊。然后我們通過中值預(yù)測(cè)或模板匹配的方法對(duì)當(dāng)前塊的視差矢量進(jìn)行預(yù)測(cè)得到D6p (如圖2),判斷其相鄰圖像塊B1、B2、B3和B5的預(yù)測(cè)模式,如果至少有兩塊為視間預(yù)測(cè)塊(如B1、B2,對(duì)應(yīng)視差矢量為D1、D2),則可從其鄰近視間域預(yù)測(cè)塊中估計(jì)出B6的視差矢量預(yù)測(cè)值D6p D6p = f (Dl, D2)如果與其相鄰的圖像塊B1、B2、B3和B5均為時(shí)域預(yù)測(cè)塊,沒有可用視差矢量,則以 BI,B2, B3和B5的重建值為模板,采用模板匹配方法在主視點(diǎn)第一幀重建圖像中尋找最佳匹配塊BI,,B2,,B3,和B5’,可以近似得至IJ BI,B2,B3和B5的視差矢量Dl,D2,D3和D5,從而得到B6的視差矢量預(yù)測(cè)值D6p D6p = f (Dl, D2, D3, D5)采用中值預(yù)測(cè),f■為中值函數(shù)D6p = median (D2, D3, D5)將視差矢量D6和視差矢量預(yù)測(cè)值D6p相減,得到視差矢量的差值D6d。米用率失真優(yōu)化準(zhǔn)則對(duì)當(dāng)前編碼塊進(jìn)行模式選擇(幀內(nèi)預(yù)測(cè)/視差補(bǔ)償預(yù)測(cè)),當(dāng)前塊與預(yù)測(cè)塊相差得到殘差值,并對(duì)殘差進(jìn)行變換、量化,然后和D6d —起熵編碼,形成碼流序列;第七步,在解碼端碼流序列通過熵解碼、反量化和反變換后得到殘差值,并通過中值預(yù)測(cè)或模板匹配法預(yù)測(cè)出當(dāng)前塊視差矢量D6p,加上經(jīng)解碼的D6d得到視差矢量D6,然后根據(jù)D6和主視點(diǎn)參考幀進(jìn)行視差補(bǔ)償?shù)玫筋A(yù)測(cè)值,預(yù)測(cè)值與殘差值相加,經(jīng)濾波得到每個(gè)解碼宏塊,形成輔視點(diǎn)第一幀解碼圖像;第八步,繼續(xù)編碼輔視點(diǎn)圖像,分別對(duì)宏塊進(jìn)行幀內(nèi)預(yù)測(cè)、視差補(bǔ)償預(yù)測(cè)和運(yùn)動(dòng)補(bǔ)償預(yù)測(cè)。其中運(yùn)動(dòng)補(bǔ)償預(yù)測(cè)是通過運(yùn)動(dòng)估計(jì)來得到當(dāng)前塊(如Bll)的運(yùn)動(dòng)矢量M11,然后根據(jù)運(yùn)動(dòng)矢量Mll從輔視點(diǎn)前一幀中找到對(duì)應(yīng)預(yù)測(cè)塊。然后我們通過中值預(yù)測(cè)或模板匹配的方法對(duì)當(dāng)前塊的運(yùn)動(dòng)矢量進(jìn)行預(yù)測(cè)得到Mllp (如圖2):判斷其相鄰圖像塊B6、B7、B8和BlO的預(yù)測(cè)模式,如果至少有兩塊為時(shí)域預(yù)測(cè)塊(如B6、B7,對(duì)應(yīng)運(yùn)動(dòng)矢量為M6、M7),則可從其鄰近時(shí)域預(yù)測(cè)塊中估計(jì)出Bll的運(yùn)動(dòng)矢量預(yù)測(cè)值Mllp Mllp = g(M6, M7)如果與其相鄰的圖像塊B6,B7, B8和BlO均為視間預(yù)測(cè)塊,沒有可用運(yùn)動(dòng)矢量,則以B6,B7, B8和BlO的重建塊作為模板,采用模板匹配方法在輔視點(diǎn)前一幀圖像中搜索最佳匹配塊B6,,B7,,B8,和B10’,可以近似得到B6, B7, B8和BlO的運(yùn)動(dòng)矢量M6,M7,M8和M10,從而得到Bll的運(yùn)動(dòng)矢量預(yù)測(cè)值Mllp Mllp = g(M6, M7,,M8, M10)如果采用中值預(yù)測(cè),g為中值函數(shù)Mllp = median(M7, M8, M10)將運(yùn)動(dòng)矢量Ml I和運(yùn)動(dòng)矢量預(yù)測(cè)值Ml Ip相減,得到運(yùn)動(dòng)矢量的差值Ml Id。同時(shí)對(duì)當(dāng)前塊做視差估計(jì)得到視差矢量D11,然后根據(jù)視差矢量Dll從主視點(diǎn)參考幀中找到對(duì)應(yīng)預(yù)測(cè)塊。通過中值預(yù)測(cè)或模板匹配的方法對(duì)當(dāng)前塊的視差矢量進(jìn)行預(yù)測(cè)得到Dllp (同第六步),最后得到視差矢量的差值Dl Id。采用率失真優(yōu)化準(zhǔn)則對(duì)當(dāng)前編碼宏塊進(jìn)行模式選擇(幀內(nèi)預(yù)測(cè)/運(yùn)動(dòng)補(bǔ)償預(yù)測(cè)/視差補(bǔ)償預(yù)測(cè)),當(dāng)前塊與預(yù)測(cè)塊相差得到殘差值,并對(duì)殘差進(jìn)行變換、量化、和Mlld(Dlld) 一起熵編碼,形成碼流序列;第九步,在解碼端碼流序列通過熵解碼、反量化和反變換后得到殘差值,并通過中值預(yù)測(cè)或模板匹配法預(yù)測(cè)出當(dāng)前塊運(yùn)動(dòng)矢量Mllp (或預(yù)測(cè)視差矢量Dllp),加上經(jīng)解碼的Mlld(Dlld)得到運(yùn)動(dòng)矢量MlI (視差矢量Dll),然后根據(jù)MlI (DlI)和輔視點(diǎn)前一幀(主視點(diǎn)參考幀)進(jìn)行運(yùn)動(dòng)(視差)補(bǔ)償?shù)玫筋A(yù)測(cè)值,預(yù)測(cè)值與殘差值相加,經(jīng)濾波得到每個(gè)解碼宏塊,形成輔視點(diǎn)解碼圖像;第十步,跳回第八步,處理輔視點(diǎn)下一幀圖像,直至輔視點(diǎn)GOP圖像全部編解碼完 畢。至此,該實(shí)施例的所有步驟完成。本發(fā)明通過以上步驟,使用模板匹配方法對(duì)編碼塊的視差矢量和運(yùn)動(dòng)矢量進(jìn)行估計(jì),提高了運(yùn)動(dòng)補(bǔ)償預(yù)測(cè)和視差補(bǔ)償預(yù)測(cè)的準(zhǔn)確性,對(duì)于圖像的編碼效率有所改善。
權(quán)利要求
1.本發(fā)明公開了一種基于模板匹配技術(shù)提高多視點(diǎn)視頻運(yùn)動(dòng)和視差矢量預(yù)測(cè)精度的方法。所述方法包括對(duì)當(dāng)前編碼塊進(jìn)行運(yùn)動(dòng)矢量預(yù)測(cè)時(shí)如果相鄰塊不存在運(yùn)動(dòng)矢量,則采用模板匹配的方法估計(jì)相鄰塊運(yùn)動(dòng)矢量,用作當(dāng)前塊運(yùn)動(dòng)矢量預(yù)測(cè)的參考;對(duì)當(dāng)前編碼塊進(jìn)行視差矢量預(yù)測(cè)時(shí),如果相鄰塊不存在視差矢量,則采用模板匹配的方法估計(jì)相鄰塊的視差矢量,用作當(dāng)前塊視差矢量預(yù)測(cè)的參考。
2.如權(quán)利要求I所述方法中,模板匹配中用到的模板是以當(dāng)前編碼塊為左下角的矩形塊,除去當(dāng)前塊的區(qū)域。
3.對(duì)當(dāng)前編碼塊進(jìn)行運(yùn)動(dòng)矢量預(yù)測(cè)時(shí)如果存在運(yùn)動(dòng)矢量相鄰塊數(shù)目少于兩個(gè),則采用模板匹配的方法估計(jì)不存在運(yùn)動(dòng)矢量的相鄰塊運(yùn)動(dòng)矢量,用作當(dāng)前塊運(yùn)動(dòng)矢量預(yù)測(cè)的參考;對(duì)當(dāng)前編碼塊進(jìn)行視差矢量預(yù)測(cè)時(shí),如果不存在視差矢量的相鄰塊數(shù)目少于兩個(gè),則采用模板匹配的方法估計(jì)不存在視差矢量的相鄰塊視差矢量,用作當(dāng)前塊視差矢量預(yù)測(cè)的參考。
4.采用權(quán)利要求1,2,3所述方法的代碼、軟件和設(shè)備等。
全文摘要
本發(fā)明公開了一種基于模板匹配技術(shù)提高多視點(diǎn)視頻運(yùn)動(dòng)和視差矢量預(yù)測(cè)精度的方法。所述方法包括對(duì)當(dāng)前編碼塊進(jìn)行運(yùn)動(dòng)矢量預(yù)測(cè)時(shí)如果相鄰塊不存在運(yùn)動(dòng)矢量,則采用模板匹配的方法估計(jì)相鄰塊運(yùn)動(dòng)矢量,用作當(dāng)前塊運(yùn)動(dòng)矢量預(yù)測(cè)的參考;對(duì)當(dāng)前編碼塊進(jìn)行視差矢量預(yù)測(cè)時(shí),如果相鄰塊不存在視差矢量,則采用模板匹配的方法估計(jì)相鄰塊的視差矢量,用作當(dāng)前塊視差矢量預(yù)測(cè)的參考。
文檔編號(hào)H04N13/00GK102801995SQ20121021141
公開日2012年11月28日 申請(qǐng)日期2012年6月25日 優(yōu)先權(quán)日2012年6月25日
發(fā)明者王榮剛, 高璇, 高文 申請(qǐng)人:北京大學(xué)深圳研究生院
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1