出:同一場景的紋理信息基本不變;帖長1越長,說明運動量 越大,量化的宏塊數(shù)就越多,圖像失真越大,PSNR也就越小。如圖5所示給出了視頻場景變化 和視頻運動量與線性模型中紋理系數(shù)和運動系數(shù)的關(guān)系示意圖。因而本發(fā)明提出了上述在 同一場景中P帖PSNR的線性預(yù)測模型。
[0043] (3)利用步驟(2)建立的線性預(yù)測模型依次對網(wǎng)絡(luò)視頻流所有場景預(yù)測編碼帖P帖 的峰值信噪比PSNR值進行估計。
[0044] (3-1)估計當(dāng)前場景SjJ >1中視頻壓縮帖內(nèi)編碼帖I帖的PSNR,得到當(dāng)前場景Sj的 視頻壓縮帖內(nèi)編碼帖I帖的紋理系數(shù)T;
[004引(3-2)通過離線統(tǒng)計分析得到當(dāng)前場景&中預(yù)測編碼帖P帖運動系數(shù)初始值Minit;
[0046] (3-3)利用步驟(3-1)中得到的當(dāng)前場景的紋理系數(shù)T及運動系數(shù)初始值Minit,通 過所述線性預(yù)測模型得到當(dāng)前場景第一個P帖的峰值信噪比PSNR值FpsAfOG;);
[0047] (3-4)針對當(dāng)前場景中其余N-I個P帖,保持紋理系數(shù)T不變,依次更新運動系數(shù)M 后,再通過所述線性預(yù)測模型得到當(dāng)前場景對應(yīng)P帖的峰值信噪比PSNR值戶= 2,...,N;
[0048] (3-5)針對網(wǎng)絡(luò)視頻流中的后續(xù)場景,依次執(zhí)行步驟(3-1)-(3-4)。
[0049] 在同一場景下,表征P帖運動量的運動系數(shù)M也要隨P帖運動量的變化實時更新,如 圖4所示,也就是說,對于同一場景,M的初始值Minit可通過離線統(tǒng)計分析得出;對于同一場 景中后續(xù)的P帖(i〉l),統(tǒng)籌考慮P帖的局部運動量和全局運動量后,運動系數(shù)M更新方法為:
[0051] 其中^1,1-1 =以-心1,1 = 2^-斯,為當(dāng)前?帖與前一個?帖的帖長差,表征了當(dāng)前 P帖的局部運動量;Al;二為當(dāng)前P帖與所有P帖帖長均值Iavg的差值,表征了當(dāng)前P 帖的全局運動量;Q為離線統(tǒng)計分析得出的量化系數(shù);Mi-I上一帖的運動系數(shù)。
[0052] 隨場景的切換,表征同一場景的紋理系數(shù)T同樣進行動態(tài)更新,如圖4所示,由于I 帖沒有運動量,那么可直接將估計得到的I帖PSNR作為表征運一場景紋理復(fù)雜度的系數(shù)。即 所述當(dāng)前場景&中的帖內(nèi)編碼帖I帖的紋理系數(shù)T具體為:
[005引 T=Ipsnr
[0054]通過I帖的離散余弦變換DCT系數(shù)估計I帖的PSNR值Ipsnr:
[0056] 其中,D為均方誤差MSE,
eSf是直流〇(:系數(shù)平均量化 誤差,是每一個交流AC系數(shù)的總體誤差方。
[0057] 對于同一場景,紋理復(fù)雜度是基本不變的,所WT在此場景中是常量。每當(dāng)場景切 換,就重新計算I帖的紋理復(fù)雜度,W此動態(tài)更新T值。
[0058] 下面結(jié)合H.264/AVC標(biāo)準(zhǔn)壓縮的CIF(352X288)格式視頻流化Otball (假設(shè)編碼時 只允許I帖和P帖存在),對P帖PSNR進行動態(tài)預(yù)測。利用運個具體實例對本發(fā)明做進一步的 說明:
[0059] (1)首先讀取化O憂all視頻流的I帖,標(biāo)識場景切換。
[0060] (11)解碼I帖,重構(gòu)圖像。
[0061] (12)計算此I帖的PSNR,公式如下:
[0064] 其中,D為均方誤差(MSE),日是直流(DC)系數(shù)平均量化誤差,是每一個交流 (AC)系數(shù)的總體誤差方。
[006引(2)讀取化Otball視頻流的后續(xù)所有P帖直到下一個I帖或視頻結(jié)束,將運些P帖放 入隊列如eue,獲得P帖總數(shù)N。
[0066 ] (21)分別確定紋理系數(shù)T的值和運動系數(shù)M初值:
[0067 ] (211)由于I帖沒有運動量,所W直接將步驟(1)得出的I帖PSNR值作為表征運一場 景紋理復(fù)雜度的系數(shù):T=IpsnrD
[0068] (212)對于同一場景的(HF格式視頻,M初始值通過離線統(tǒng)計分析得Minit = -0.005。
[0069] (22)計算P帖運動量:
[0070] (221)首先,計算P帖帖長的均值:
[0072] 其中,Ii是第i(i M)個P帖帖長,N為當(dāng)前場景的P帖總數(shù)。
[0073] (222)其次,計算每個P帖的帖長與當(dāng)前場景P帖長均值的差值:
[0074] 作三 4 - /("巧
[0075] (223)最后,計算相鄰P帖的帖長差值:
[0076] Ali'i-i = k-Li-i,i = 2,...,N
[0077] (3)在同一場景中,利用本發(fā)明提出的線性預(yù)測模型:
[0078] Ppsnr (,AT^) = M X AT, + T
[0079] 估計每一個P帖的I^NR。
[0080] (31)對于第一個P(i = l)帖,在步驟(222)中已經(jīng)算出,所W直接使用運動系數(shù) Minit = -0.005和紋理系數(shù)T= Ipsnr來計算此P帖的PSNR。
[0081] (32)對于后續(xù)P(i〉l)帖,紋理系數(shù)T不變,運動系數(shù)M更新為:
[0083] 其中,Q為離線統(tǒng)計分析得出的量化系數(shù),對于H. 264/AVC編碼的CIF視頻,Q可取
;Mi-I上一帖的運動系數(shù)。
[0084] 本領(lǐng)域的技術(shù)人員容易理解,W上所述僅為本發(fā)明的較佳實施例而已,并不用W 限制本發(fā)明,凡在本發(fā)明的精神和原則之內(nèi)所作的任何修改、等同替換和改進等,均應(yīng)包含 在本發(fā)明的保護范圍之內(nèi)。
【主權(quán)項】
1. 一種網(wǎng)絡(luò)視頻流的無參考圖像質(zhì)量在線估計方法,其特征在于,所述方法包括W下 步驟: (1) 對網(wǎng)絡(luò)視頻流的各帖圖像進行場景分割,將每一個帖內(nèi)編碼帖I帖及緊隨其后的N 個預(yù)測編碼帖P帖劃分為一個場景Sj,j > 1; (2) 建立同一場景中預(yù)測編碼帖P帖峰值信噪比PSNR的線性預(yù)測模型:其中,Μ為當(dāng)前場景預(yù)測編碼帖P帖運動系數(shù);T為當(dāng)前場景帖內(nèi)編碼帖I帖的紋理系數(shù); Δζ為第i個Ρ帖帖材1與當(dāng)前場景下所有Ρ帖帖長均值lavg的差值,Δζ = ?廣!胃,? = 1,…,Ν; 其中Ν為當(dāng)前場景中Ρ帖總數(shù)。 (3) 利用步驟(2)建立的線性預(yù)測模型依次對網(wǎng)絡(luò)視頻流所有場景預(yù)測編碼帖Ρ帖的峰 值信噪比PSNR值進行估計。2. 如權(quán)利要求1所述的方法,其特征在于,所述步驟(3)具體包括: (3-1)估計當(dāng)前場景Sj,j > 1中I帖的峰值信噪比PSNR,得到當(dāng)前場景Sj的I帖的紋理系 數(shù)T; (3-2)通過離線統(tǒng)計分析得到當(dāng)前場景&中?帖運動系數(shù)初始值Minit; (3-3)利用步驟(3-1)中得到的當(dāng)前場景的紋理系數(shù)T及運動系數(shù)初始值Minit,通過所述 線性預(yù)測模型得到當(dāng)前場景第一個P帖的峰值信噪比PSNR值(3-4)針對當(dāng)前場景中其余N-1個P帖,保持紋理系數(shù)T不變,依次更新運動系數(shù)Μ后,再 通過所述線性預(yù)測模型得到當(dāng)前場景對應(yīng)Ρ帖的峰值信噪比PSNR值= 2,...,Ν; (3-5)針對網(wǎng)絡(luò)視頻流中的后續(xù)場景,依次執(zhí)行步驟(3-1)-(3-4)。3. 如權(quán)利要求1或2所述的方法,其特征在于,所述更新運動系數(shù)Μ具體為:其中Δ = = . . .,Ν,為當(dāng)前Ρ帖與前一個Ρ帖的帖長差;為當(dāng)前Ρ帖與所有Ρ帖帖長均值lavg的差值;Q為離線統(tǒng)計分析得出的量化系數(shù);Mi-l上一帖的 運動系數(shù)。4. 如權(quán)利要求1或2所述的方法,其特征在于,所述當(dāng)前場景&的帖內(nèi)編碼帖I帖的紋理 系數(shù)T具體為: T=Ipsnr 通過I帖的離散余弦變換DCT系數(shù)估計I帖的PSNR值Ipsnr :其中,D為均方誤差MSE,,e|c是直流DC系數(shù)平均量化誤差, 培是每一個交流AC系數(shù)的總體誤差方。
【專利摘要】本發(fā)明公開了一種網(wǎng)絡(luò)視頻流的無參考圖像質(zhì)量在線估計方法。所述方法利用P幀PSNR相對于I幀紋理復(fù)雜度和P幀運動量的線性預(yù)測模型,估計網(wǎng)絡(luò)視頻流的P幀PSNR值;同時結(jié)合模型系數(shù)隨P幀幀長和場景的變化而動態(tài)變化的規(guī)律,利用I幀的PSNR調(diào)整紋理系數(shù),利用上一P幀的運動系數(shù)和當(dāng)前幀的運動信息調(diào)整當(dāng)前幀的運動系數(shù),最終得出了較為準(zhǔn)確的適應(yīng)視頻內(nèi)容變化的P幀PSNR估計方法。本發(fā)明提供的線性預(yù)測模型,只需解碼I幀,無需解碼P幀,系統(tǒng)運行開銷小,而且在線動態(tài)更新運動系數(shù)和紋理系數(shù)可及時反映視頻流中相鄰P幀間的運動變化和場景切換時紋理復(fù)雜度的變化,從而使得估計得到的PSNR較為準(zhǔn)確,系統(tǒng)自適應(yīng)性好。
【IPC分類】H04N19/52, H04N19/87, H04N19/172, H04N19/142, H04N19/136
【公開號】CN105578185
【申請?zhí)枴緾N201510930619
【發(fā)明人】郭紅星, 朱文周, 楊建群, 潘俊夫, 蘇曙光, 孫偉平
【申請人】華中科技大學(xué)
【公開日】2016年5月11日
【申請日】2015年12月14日