一種基于數(shù)據(jù)重用的多視點多描述視頻編碼方法
【專利摘要】本發(fā)明為一種基于數(shù)據(jù)重用的多視點多描述視頻編解碼方法,根據(jù)多視點視頻序列經(jīng)空間水平和垂直下采樣后產(chǎn)生的四個子序列非常相近的特點,將這四個子序列兩兩組合形成兩個描述,編碼時對每個描述中的一個子序列直接用標準的多視點視頻編碼器進行編碼,另一子序列的各宏塊則根據(jù)其性質(zhì)不同,采用三種不同的數(shù)據(jù)重用方式進行預測編碼;本發(fā)明所提出的方法簡單易行,在提高多視點視頻編碼容錯能力的同時,保持了較高的編碼效率并大大降低了編碼的計算復雜度。
【專利說明】一種基于數(shù)據(jù)重用的多視點多描述視頻編碼方法
【技術領域】
[0001]本發(fā)明涉及視頻通信中的視頻編解碼領域,尤其涉及一種基于數(shù)據(jù)重用的多視點多描述視頻編碼方法,可應用于不可靠信道中的視頻通信。
【背景技術】
[0002]隨著移動寬帶4G時代的到來,互聯(lián)網(wǎng)和無線信道將成為多視點視頻的主要傳輸信道。而無線信道傳輸中的數(shù)據(jù)錯誤、由互聯(lián)網(wǎng)中的信道干擾、網(wǎng)絡擁塞和路由選擇延遲引起的數(shù)據(jù)到達時間過度延遲和數(shù)據(jù)包丟失等問題,將嚴重影響多視點視頻圖像的重建質(zhì)量?,F(xiàn)有的多視點視頻編碼(Mult1-view Video Coding,MVC)標準采用的是HHI提出的基于分層B幀的視點間/時間混合預測結構,它不僅采用了幀內(nèi)與視點內(nèi)的幀間預測,還引入了視點間的預測。這樣的預測結構導致即使是一個數(shù)據(jù)包出現(xiàn)誤碼,也會影響到與其關聯(lián)的若干個數(shù)據(jù)包視頻信息的重建,造成嚴重的“誤碼擴散”,使重建視頻圖像的質(zhì)量嚴重下降。因此,抗干擾和差錯恢復能力對多視點視頻編碼尤為重要。
[0003]雖然差錯控制技術在2D視頻編碼中已得到廣泛的應用,但由于多視點視頻數(shù)據(jù)量龐大、預測編碼結構復雜、計算復雜度非常高,如果采用現(xiàn)有的差錯恢復編碼技術將進一步增加編碼復雜度和冗余率。由于錯誤隱藏技術不需要增加編碼端的開銷,所以目前對MVC差錯控制的研究主要集中在基于時空域相關性的錯誤隱藏技術,特別是雙目立體視頻的錯誤隱藏;對多視點視頻編碼差錯控制的研究進展不大。如何提高多視點視頻編解碼的容錯能力,有待進一步研究。
【發(fā)明內(nèi)容】
[0004]本發(fā)明的目的在于克服現(xiàn)有多視點視頻編碼方法的不足,提供一種基于數(shù)據(jù)重用的多視點多描述視頻編解碼方法,該方法簡單易行,能更好地提高多視點視頻編碼的容錯能力。
[0005]本發(fā)明提供一種基于數(shù)據(jù)重用的多視點多描述視頻編解碼方法,其中,
[0006]在編碼端,對輸入的多視點視頻的每一個圖像組實施如下步驟:
[0007]步驟11、對輸入的多視點視頻圖像組中每個視點的每一幀進行水平下采樣和垂直下采樣,得到ABCD四個相同分辨率的子幀,然后分別將每個視點內(nèi)空間位置一樣的各子幀按序組合,形成該視點的ABCD四個視頻子序列;再把各個視點的相對位置一樣的視頻子序列的集合作為一個多視點視頻子序列,形成ABCD四個多視點視頻子序列,把這四個多視點視頻子序列兩兩組合形成兩個描述,設為A+B和C+D ;
[0008]步驟12、采用標準的多視點視頻編碼器(即JMVC編碼器),直接對上述每個描述中的一個多視點視頻子序列進行編碼,設兩多視點視頻子序列分別為A和C,稱為直接編碼子序列,并保存該直接編碼子序列各宏塊的最佳預測模式和預測矢量;
[0009]步驟13、設上述每個描述中的另一個多視點視頻子序列分別為B和D,稱為間接編碼子序列,對間接編碼子序列B和D的每一個宏塊而言,如果同一描述中直接編碼子序列的對應宏塊即處于同一視點、同一時間和同一空間位置的宏塊的最佳預測模式是巾貞內(nèi)模式,則轉(zhuǎn)步驟13-1進行處理;如果最佳預測模式屬于巾貞間P8x8,即8x8,8x4,4x8,4x4中的任一種模式,則轉(zhuǎn)步驟13-2進行處理;否則,最佳預測模式屬于SKIP或幀間大模式,即16x16, 16x8, 8x16中的任一種,不需要編碼,轉(zhuǎn)步驟13處理下一宏塊,直至所有宏塊處理完畢轉(zhuǎn)步驟14 ;
[0010]步驟13-1、直接復制同一描述中直接編碼子序列對應宏塊的最佳預測模式,對當前宏塊進行幀內(nèi)預測編碼,轉(zhuǎn)步驟13處理下一宏塊;
[0011]步驟13-2、直接復制同一描述中直接編碼子序列對應宏塊的最佳預測模式和預測向量,即運動矢量或視差矢量,對當前宏塊進行幀間預測編碼,轉(zhuǎn)步驟13處理下一宏塊;
[0012]步驟14、將兩個描述的輸出碼流分別打包送入兩個相互獨立的信道進行傳輸;
[0013]在解碼端,對接收的多視點視頻的每一個圖像組進行重建,實施如下步驟:
[0014]步驟21、如果能正確接收信道I的信號,接收直接編碼子序列的碼流并用標準的多視點視頻解碼器對接收到的碼流進行解碼,重建描述I的直接編碼子序列I,轉(zhuǎn)步驟22重建間接編碼子序列I ;否則,轉(zhuǎn)步驟23對描述2進行解碼;
[0015]步驟22、順序重建描述I的間接編碼子序列I的每一個宏塊,如果當前宏塊在直接編碼子序列I的對應宏塊的最佳預測模式是幀內(nèi)模式,轉(zhuǎn)步驟22-1重建當前宏塊;如果最佳預測模式屬于幀間P8x8中的任一種模式,轉(zhuǎn)步驟22-2重建當前宏塊;否則,最佳預測模式屬于SKIP或幀間大模式,以直接編碼子序列I的對應宏塊的重建值作為當前宏塊的重建值,轉(zhuǎn)步驟22重建下一宏塊,直至所有宏塊重建完畢后轉(zhuǎn)步驟23 ;
[0016]步驟22-1、從信道I接收當前宏塊的預測誤差,并以直接編碼子序列I的對應宏塊的最佳預測模式為當前宏塊的預測模式,重建當前宏塊,轉(zhuǎn)步驟22重建下一宏塊;
[0017]步驟22-2、從信道I接收當前宏塊的預測誤差,并以直接編碼子序列I的對應宏塊的最佳預測模式和預測向量為當前宏塊的預測模式和預測向量,重建當前宏塊;轉(zhuǎn)步驟22重建下一宏塊;
[0018]步驟23、如果能正確接收信道2的信號,接收直接編碼子序列的碼流并用標準的多視點視頻解碼器對接收到的碼流進行解碼,重建描述2的直接編碼子序列2,轉(zhuǎn)步驟24重建間接編碼子序列2 ;否則,轉(zhuǎn)步驟25重建原始的多視點視頻;
[0019]步驟24、順序重建描述2的間接編碼子序列的每一個宏塊,如果當前宏塊在直接編碼子序列2的對應宏塊的最佳預測模式是幀內(nèi)模式,轉(zhuǎn)步驟24-1重建當前宏塊;如果最佳預測模式屬于幀間P8x8中的任一種模式,轉(zhuǎn)步驟24-2重建當前宏塊;否則,最佳預測模式屬于SKIP或幀間大模式,以直接編碼子序列2的對應宏塊的重建值作為當前宏塊的重建值,轉(zhuǎn)步驟24重建下一宏塊,直至所有宏塊重建完畢后轉(zhuǎn)步驟25 ;
[0020]步驟24-1、從信道2接收當前宏塊的預測誤差,并以直接編碼子序列2的對應宏塊的最佳預測模式為當前宏塊的預測模式,重建當前宏塊,轉(zhuǎn)步驟24重建下一宏塊;
[0021]步驟24-2、從信道2接收當前宏塊的預測誤差,并以直接編碼子序列2的對應宏塊的最佳預測模式和預測向量為當前宏塊的預測模式和預測向量,重建當前宏塊,轉(zhuǎn)步驟24重建下一宏塊;
[0022]步驟25、原始的多視點視頻的圖像組重建:如果能同時接收到來自信道I和2的信號,轉(zhuǎn)步驟25-1進行中心重建;如果只能接收到來自信道I的信號,轉(zhuǎn)步驟25-2進行邊重建;如果只能接收到來自信道2的信號,轉(zhuǎn)步驟25-3進行邊重建;否則,沒有接收到任何信號,所有幀均復制前一圖像組的最后一幀,結束該圖像組的重建;
[0023]步驟25-1、合并兩個描述的4個視頻子序列,重建多視點視頻的當前圖像組,結束該圖像組的重建;
[0024]步驟25-2、對重建的描述I的每一幀,通過插值重建多視點視頻圖像組的每一幀,結束該圖像組的重建;
[0025]步驟25-3、對重建的描述2的每一幀,通過插值重建多視點視頻圖像組的每一幀,結束該圖像組的重建。
[0026]本發(fā)明的主要優(yōu)點是:
[0027]1、每個描述只需要對其中一個子序列進行模式選擇和運動估計/視差估計,所以計算復雜度遠低于標準的多視點視頻編碼算法;
[0028]2、把間接編碼子序列的宏塊分為3種類型,對不同類型的宏塊采用不同的數(shù)據(jù)重用方式,無需傳輸不必要的預測模式、運動向量和預測誤差,大幅度降低多描述編碼引入的冗余,有效地提高了編碼效率;
[0029]3、各描述獨立預測,在理想多描述信道下不發(fā)生誤匹配。
【專利附圖】
【附圖說明】
[0030]圖1為本發(fā)明視頻序列的空間多相變換示意圖;
[0031]圖2為本發(fā)明的流程示意圖。
[0032]以下結合附圖和實施例對本發(fā)明作進一步詳述。
【具體實施方式】
[0033]如圖1、圖2所示,本發(fā)明提出一種基于數(shù)據(jù)重用的多視點多描述視頻編解碼方法,其中,
[0034]在編碼端,對輸入的多視點視頻的每一個圖像組(Group of Picture,GOP)實施如下步驟:
[0035]步驟11、對輸入的多視點視頻圖像組每個視點的每一幀進行水平下采樣和垂直下采樣,得到相同分辨率的Flp,F(xiàn)ld, F2p, F2d四個子幀,然后分別將每個視點的Flp、Fld、F2p和F2d按幀順序組合,形成該視點的四個視頻子序列Vlp,Vld, V2p和V2d ;再把各個視點的視頻子序列Vlp的集合作為多視點視頻子序列Xlp的當前圖像組,把各個視點的視頻子序列Vld的集合作為多視點視頻子序列Xld的當前圖像組,把各個視點的視頻子序列V2p的集合作為多視點視頻子序列X2p的當前圖像組,把各個視點的視頻子序列V2d的集合作為多視點視頻子序列X2d的當前圖像組,其中,Xlp和Xld的組合X1構成描述1,X2p和X2d的組合X2構成描述2,下面的步驟12和步驟13分別實現(xiàn)對描述I和描述2當前圖像組的編碼;
[0036]步驟12、對描述I的當前圖像組進行編碼:其中步驟12-1對Xlp的當前圖像組進行編碼,步驟12-2對Xld的當前圖像組進行編碼,將Xlp和Xld的碼流打包后經(jīng)信道I傳輸,形成描述I ;
[0037]步驟12-1、采用標準的多視點視頻編碼器直接對Xlp的當前圖像組進行編碼后經(jīng)信道I輸出,并保存其各宏塊的最佳預測模式和預測矢量;[0038]步驟12-2、對Xld的當前圖像組進行編碼,若已完成對Xld當前圖像組所有宏塊的編碼,轉(zhuǎn)步驟13對描述2進行編碼,否則,轉(zhuǎn)步驟12-3對Xld的下一宏塊進行編碼;由于對間接編碼子序列Xld的編碼方法是在標準的多視點視頻編碼方法的基礎上經(jīng)裁減得到的,故稱其編碼器為類MVC編碼器;
[0039]步驟12-3、輸入Xld的下一宏塊,并讀入Xlp中對應宏塊的最佳預測模式和預測矢量,如果最佳預測模式是幀內(nèi)模式,轉(zhuǎn)步驟12-3-1 ;如果最佳預測模式屬于幀間P8x8,即8x8,8x4, 4x8, 4x4中的任一種模式,轉(zhuǎn)步驟12_3_2 ;若最佳預測模式屬于SKIP或幀間大模式(B卩16x16,16x8,8x16中的任一種),則不需要編碼,轉(zhuǎn)步驟12_2處理Xld的下一宏塊;
[0040]步驟12-3-1、直接復制多視點視頻子序列Xlp中對應宏塊的最佳預測模式對Xld的當前宏塊進行幀內(nèi)預測,對預測誤差進行編碼后經(jīng)信道I輸出,轉(zhuǎn)步驟12-2處理Xld的下一宏塊;
[0041]步驟12-3-2、直接復制多視點視頻子序列Xlp中對應宏塊的的最佳預測模式和預測向量(運動矢量或視差矢量),然后對多視點視頻子序列Xld的當前宏塊進行幀間預測,對預測誤差進行編碼后經(jīng)信道I輸出,轉(zhuǎn)步驟12-2處理Xld的下一宏塊;
[0042]步驟13、對描述2的當前圖像組進行編碼,其中步驟13-1對X2p的當前圖像組進行編碼,步驟13-2對X2d的當前圖像組進行編碼,將X2p和X2d的碼流打包后經(jīng)信道2傳輸,形成描述2 ;
[0043]步驟13-1、采用標準的多視點視頻編碼器直接對X2p的當前圖像組進行編碼后經(jīng)信道2輸出,并保存其各宏塊的最佳預測模式和預測矢量;
[0044]步驟13-2、對X2d的當前圖像組進行編碼,若已完成對X2d當前圖像組所有宏塊的編碼,轉(zhuǎn)步驟14,否則,轉(zhuǎn)步驟13-3對X2d的下一宏塊進行編碼;
[0045]步驟13-3、輸入X2d的下一宏塊,并讀入X2p中對應宏塊的最佳預測模式和預測矢量,如果最佳預測模式是幀內(nèi)模式,轉(zhuǎn)步驟13-3-1 ;如果最佳預測模式屬于幀間P8x8,轉(zhuǎn)步驟13-3-21 ;若最佳預測模式屬于SKIP或幀間大模式,則不需要編碼,轉(zhuǎn)步驟13-2處理X2d的下一宏塊;
[0046]步驟13-3-1、直接復制多視點視頻子序列X2p中對應宏塊的最佳預測模式對X2d的當前宏塊進行幀內(nèi)預測,對預測誤差進行編碼后經(jīng)信道2輸出,轉(zhuǎn)步驟13-2處理X2d的下一宏塊;
[0047]步驟13-3-2、直接復制多視點視頻子序列X2p中對應宏塊的的最佳預測模式和預測向量,然后對多視點視頻子序列X2d的當前宏塊進行幀間預測,對預測誤差進行編碼后經(jīng)信道I輸出,轉(zhuǎn)步驟13-2處理X2d的下一宏塊;
[0048]步驟14、結束對多視點視頻X當前圖像的編碼;
[0049]在解碼端,對接收的多視點視頻的每一個圖像組進行重建,實施如下步驟:
[0050]步驟21、如果正確接收到來自信道I的信號,進入步驟22進行描述I的重建;否則轉(zhuǎn)步驟23進行描述2的重建;
[0051]步驟22、描述I的重建:
[0052]步驟22-1、采用標準的多視點視頻解碼器對接收到的直接編碼子序列的碼流進行解碼,重建尤;,的當前圖像組,并保存其各宏塊的最佳預測模式和預測矢量,轉(zhuǎn)步驟22-2 ;[0053]步驟22-2、重建的當前圖像組,若已完成I,,當前圖像組所有宏塊的重建,轉(zhuǎn)步驟23進行描述2的重建;否則,轉(zhuǎn)步驟22-2-1 ;
[0054]步驟22-2-1、讀入尤,當前宏塊在尤p中對應宏塊的最佳預測模式和預測矢量,如果最佳預測模式是幀內(nèi)模式,轉(zhuǎn)步驟22-2-2重建Iw的當前宏塊;如果最佳預測模式屬于幀間P8x8中的任一種模式,轉(zhuǎn)步驟22-2-3重建名,的當前宏塊;若最佳預測模式屬于SKIP或幀間大模式,則以中對應宏塊的重建值作為尤,當前宏塊的重建值,轉(zhuǎn)步驟22-2重建X ,的下一宏塊;
[0055]步驟22-2-2、從信道I接收當前宏塊的預測誤差,并以中對應宏塊的最佳預測模式為其預測模式,重建Xw的當前宏塊,轉(zhuǎn)步驟22-2重建;T的下一宏塊;
[0056]步驟22-2-3、從信道I接收當前宏塊的預測誤差,并以中對應宏塊的最佳預測
模式和預測向量為預測模式和預測向量,重建I,的當前宏塊,轉(zhuǎn)步驟22-2重建文w的下一宏塊;
[0057]步驟23、描述2的重建:如果能正確接收到來自信道2的信號,轉(zhuǎn)步驟23_1重建X2;,的當前圖像組,否則轉(zhuǎn)步驟24 ;
[0058]步驟23-1、采用標準的多視點視頻解碼器對接收到的直接編碼子序列2的碼流進行解碼,重建的當前圖像組,并保存其各宏塊的最佳預測模式和預測矢量,轉(zhuǎn)步驟23-2
重建X,的當前圖像組;
[0059]步驟23-2、如果已完成對當前圖像組所有宏塊的重建,轉(zhuǎn)步驟24 ;否則,轉(zhuǎn)步驟23-2-1重建X ,的當前宏塊;
[0060]步驟23-2-1、讀`入f2</當前宏塊在中對應宏塊的最佳預測模式和預測矢量,如果最佳預測模式是幀內(nèi)模式,轉(zhuǎn)步驟23-2-2重建的當前宏塊;如果最佳預測模式屬于幀間P8x8中的任一種模式,轉(zhuǎn)步驟23-2-3重建足£/的當前宏塊;若最佳預測模式屬于SKIP或幀間大模式,則以I中對應宏塊的重建值作為尤2(/當前宏塊的重建值,轉(zhuǎn)步驟23-2重建尤,的下一宏塊;
[0061]步驟23-2-2、從信道2接收當前宏塊的預測誤差,并以中對應宏塊的最佳預測模式為其預測模式,重建的當前宏塊;轉(zhuǎn)步驟23-2重建尤,的下一宏塊;
[0062]步驟23-2-3、從信道2接收當前宏塊的預測誤差,并以足$中對應宏塊的最佳預測模式和預測向量為預測模式和預測向量,重建的當前宏塊,轉(zhuǎn)步驟23-2重建X的下一宏塊;
[0063]步驟24、重建多視點視頻X的當前圖像組:如果能同時接收到來自信道I和2的信號,轉(zhuǎn)步驟24-1進行中心重建;如果只能接收到來自信道I的信號,轉(zhuǎn)步驟24-2進行邊重建;如果只能接收到來自信道2的信號,轉(zhuǎn)步驟24-3進行邊重建;如果沒有接收到任何信息,則所有幀均復制前一圖像組的最后一幀,轉(zhuǎn)步驟25 ;
[0064]步驟24-1、合并重建的足f,足,,足,的圖像組,重建多視點視頻X的當前圖像組,轉(zhuǎn)步驟25 ;
[0065]步驟24-2、從重建的足p和名〃的圖像組,通過插值重建多視點視頻文的當前圖像組,轉(zhuǎn)步驟25 ;
[0066]步驟24-3、從重建的X和尤2,的圖像組,通過插值重建多視點視顱i的當前圖像組,轉(zhuǎn)步驟25 ;
[0067]步驟25、結束多視點視頻X當前圖像組的重建。
[0068]本發(fā)明中描述I和描述2的編碼可以順序執(zhí)行,也可以并行執(zhí)行,同理,描述I和描述2的解碼可以順序執(zhí)行,也可以并行執(zhí)行。
[0069]以上所述,僅是本發(fā)明較佳實施例而已,并非對本發(fā)明的技術范圍作任何限制,故凡是依據(jù)本發(fā)明的技術實質(zhì)對以上實施例所作的任何細微修改、等同變化與修飾,均仍屬于本發(fā)明技術方案的范圍內(nèi)。
【權利要求】
1.一種基于數(shù)據(jù)重用的多視點多描述視頻編解碼方法,其特征在于: 在編碼端,對輸入的多視點視頻的每一個圖像組實施如下步驟: 步驟11、對輸入的多視點視頻圖像組中每個視點的每一幀進行水平下采樣和垂直下采樣,得到ABCD四個相同分辨率的子幀,然后分別將每個視點內(nèi)空間位置一樣的各子幀按序組合,形成該視點的ABCD四個視頻子序列;再把各個視點的相對位置一樣的視頻子序列的集合作為一個多視點視頻子序列,形成ABCD四個多視點視頻子序列,把這四個多視點視頻子序列兩兩組合形成兩個描述,設為描述A+B和C+D ; 步驟12、采用標準的多視點視頻編碼器直接對上述每個描述中的一個多視點視頻子序列進行編碼,設為多視點視頻子序列A和C,稱為直接編碼子序列,并保存該直接編碼子序列各宏塊的最佳預測模式和預測矢量; 步驟13、設上述每個描述中的另一個多視點視頻子序列為B和D,稱為間接編碼子序列,對間接編碼子序列B和D的每一個宏塊而言,如果同一描述中直接編碼子序列的對應宏塊,即處于同一視點、同一時間和同一空間位置的宏塊的最佳預測模式是幀內(nèi)模式,則轉(zhuǎn)步驟13-1進行處理;如果最佳預測模式屬于幀間P8x8,即8x8,8x4,4x8,4x4中的任一種模式,則轉(zhuǎn)步驟13-2進行處理;否則,最佳預測模式屬于SKIP或幀間大模式,即16x16, 16x8, 8x16中的任一種,不需要編碼,轉(zhuǎn)步驟13處理下一宏塊,直至所有宏塊處理完畢轉(zhuǎn)步驟14 ; 步驟13-1、直接復制同一描述中直接編碼子序列對應宏塊的最佳預測模式,對當前宏塊進行幀內(nèi)預測編碼,轉(zhuǎn)步驟13處理下一宏塊; 步驟13-2、直接復制同一描述中直接編碼子序列對應宏塊的最佳預測模式和預測向量,即運動矢量或視差矢量,對當前宏塊進行幀間預測編碼,轉(zhuǎn)步驟13處理下一宏塊; 步驟14、將兩個描述的輸出碼流分別打包送入兩個相互獨立的信道進行傳輸; 在解碼端,對接收的多視點視頻的每一個圖像組進行重建,實施如下步驟: 步驟21、如果能正確接收信道I的信號,接收直接編碼子序列的碼流并用標準的多視點視頻解碼器對接收到的碼流進行解碼,重建描述I的直接編碼子序列1,轉(zhuǎn)步驟22 ;否則,轉(zhuǎn)步驟23對描述2進行解碼; 步驟22、順序重建描述I的間接編碼子序列I的每一個宏塊,若所有宏塊重建完畢,轉(zhuǎn)步驟23 ;如果當前宏塊在直接編碼子序列I的對應宏塊的最佳預測模式是幀內(nèi)模式,轉(zhuǎn)步驟22-1重建當前宏塊;如果最佳預測模式屬于幀間P8x8中的任一種模式,轉(zhuǎn)步驟22-2重建當前宏塊;否則,最佳預測模式屬于SKIP或幀間大模式,以直接編碼子序列I的對應宏塊的重建值作為當前宏塊的重建值,轉(zhuǎn)步驟22重建下一宏塊; 步驟22-1、從信道I接收當前宏塊的預測誤差,并以直接編碼子序列I的對應宏塊的最佳預測模式為當前宏塊的預測模式,重建當前宏塊,轉(zhuǎn)步驟22重建下一宏塊; 步驟22-2、從信道I接收當前宏塊的預測誤差,并以直接編碼子序列I的對應宏塊的最佳預測模式和預測向量為當前宏塊的預測模式和預測向量,重建當前宏塊;轉(zhuǎn)步驟22重建下一宏塊; 步驟23、如果能正確接收信道2的信號,接收直接編碼子序列的碼流并用標準的多視點視頻解碼器對接收到的碼流進行解碼,重建描述2的直接編碼子序列2,否則,轉(zhuǎn)步驟25重建原始的多視點視頻;步驟24、順序重建描述2的間接編碼子序列的每一個宏塊,若所有宏塊重建完畢,轉(zhuǎn)步驟25 ;如果當前宏塊在直接編碼子序列2的對應宏塊的最佳預測模式是幀內(nèi)模式,轉(zhuǎn)步驟24-1重建當前宏塊;如果最佳預測模式屬于幀間P8x8中的任一種模式,轉(zhuǎn)步驟24-2重建當前宏塊;否則,最佳預測模式屬于SKIP或幀間大模式,以直接編碼子序列2的對應宏塊的重建值作為當前宏塊的重建值,轉(zhuǎn)步驟24重建下一宏塊; 步驟24-1、從信道2接收當前宏塊的預測誤差,并以直接編碼子序列2的對應宏塊的最佳預測模式為當前宏塊的預測模式,重建當前宏塊,轉(zhuǎn)步驟24重建下一宏塊; 步驟24-2、從信道2接收當前宏塊的預測誤差,并以直接編碼子序列2的對應宏塊的最佳預測模式和預測向量為當前宏塊的預測模式和預測向量,重建當前宏塊,轉(zhuǎn)步驟24重建下一宏塊; 步驟25、原始的多視點視頻的圖像組重建:如果能同時接收到來自信道I和2的信號,轉(zhuǎn)步驟25-1進行中心重建;如果只能接收到來自信道I的信號,轉(zhuǎn)步驟25-2進行邊重建;如果只能接收到來自信道2的信號,轉(zhuǎn)步驟25-3進行邊重建;否則,沒有接收到任何信號,所有幀均復制前一圖像組的最后一幀,結束該圖像組的重建; 步驟25-1、合并兩個描述的4個視頻子序列,重建多視點視頻的當前圖像組,結束該圖像組的重建; 步驟25-2、對重建的描述I的每一幀,通過插值重建多視點視頻圖像組的每一幀,結束該圖像組的重建; 步驟25-3、對重建的描述2 的每一幀,通過插值重建多視點視頻圖像組的每一幀,結束該圖像組的重建。
【文檔編號】H04N13/00GK103533330SQ201310481195
【公開日】2014年1月22日 申請日期:2013年10月15日 優(yōu)先權日:2013年10月15日
【發(fā)明者】蔡燦輝, 王小蘭, 陳婧 申請人:華僑大學