亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種視頻序列失真評(píng)價(jià)方法和裝置的制作方法

文檔序號(hào):7658169閱讀:250來源:國(guó)知局
專利名稱:一種視頻序列失真評(píng)價(jià)方法和裝置的制作方法
技術(shù)領(lǐng)域
本發(fā)明涉及多媒體通信領(lǐng)域,具體涉及一種視頻序列失真評(píng)價(jià)方法。
背景技術(shù)
目前,多媒體技術(shù)日新月異,各類視頻處理技術(shù)快速發(fā)展,人們對(duì)高質(zhì)量視頻的需求也日益高漲。對(duì)原始視頻序列進(jìn)行有損壓縮、傳輸?shù)忍幚硗鶗?huì)引入失真,使得處理后的視頻序列與其對(duì)應(yīng)的原始視頻序列不同,而這些不同一般導(dǎo)致視頻序列的視覺質(zhì)量相對(duì)于原始視頻序列的視覺質(zhì)量有所下降。本說明書中,“視頻序列”指對(duì)無損的“原始視頻序列”處理后得到的有損的視頻序列。視頻質(zhì)量評(píng)估技術(shù),作為各類視頻處理技術(shù)優(yōu)劣的判定準(zhǔn)貝U,其重要性也日漸突顯??偟膩碚f,視頻質(zhì)量評(píng)估可分為主觀質(zhì)量評(píng)估和客觀質(zhì)量評(píng)估兩大類。主觀質(zhì)量評(píng)估要求有大量人員參加,并且在嚴(yán)格的測(cè)試環(huán)境當(dāng)中得到各測(cè)試人員對(duì)各被測(cè)視頻序列的主觀評(píng)分。常用的測(cè)試方法有ITU-R BT. 500-11測(cè)試方法。主觀質(zhì)量評(píng)估需要大量的人才和時(shí)間,并且過程復(fù)雜,成本較高??陀^質(zhì)量評(píng)估一般采用定量的方法測(cè)量視頻中的平均失真,其方法通常為首先,將視頻序列每一幀圖像劃分為若干局部區(qū)域,通過以下兩類方法求取該局部區(qū)域的失真I)有參考模型求取視頻序列中每個(gè)局部區(qū)域與視頻序列對(duì)應(yīng)的原始視頻序列中相應(yīng)局部區(qū)域像素值的不同,通過一定運(yùn)算將所述像素值的不同定量為一個(gè)數(shù)值,作為該局部區(qū)域的失真,例如,將視頻序列每一幀劃分為以一個(gè)像素為單位的局部區(qū)域,求取視頻序列中各像素與其對(duì)應(yīng)的原始視頻序列中相應(yīng)像素之間的平方誤差作為各局部區(qū)域的失真;2)無參考模型根據(jù)視頻序列中每個(gè)局部區(qū)域的像素信息,利用一個(gè)特定的算子來預(yù)測(cè)該局部區(qū)域中某類圖像失真(如塊效應(yīng),模糊等)的程度,將這個(gè)程度定量為一個(gè)數(shù)值,作為該局部區(qū)域的失真。之后,利用所有局部區(qū)域失真的平均值來評(píng)價(jià)視頻序列的失真程度,其失真程度越大,視頻序列的主觀質(zhì)量越差??陀^質(zhì)量評(píng)估方法由處理器自動(dòng)計(jì)算實(shí)現(xiàn),無需人工參與,效率高,評(píng)估時(shí)間短,結(jié)果不具有時(shí)變性??陀^質(zhì)量評(píng)估主要存在的問題是其評(píng)估結(jié)果不能與主觀評(píng)分的結(jié)果高度一致。導(dǎo)致這種結(jié)果的一個(gè)原因是根據(jù)局部區(qū)域失真求取整個(gè)視頻序列的平均失真的一般方法為簡(jiǎn)單的代數(shù)平均,其中并沒有考慮以下三個(gè)重要的視覺因素
I)人眼對(duì)一幀圖像中不同局部區(qū)域的失真敏感度有很大差別;2)視頻中某一幀的相鄰幀的失真對(duì)該幀的失真產(chǎn)生的視覺影響;3)每一幀由于播放時(shí)刻不同,對(duì)視頻序列平均失真產(chǎn)生的感知影響。因此,一種結(jié)合人眼視覺特性,對(duì)視頻序列局部區(qū)域失真進(jìn)行處理,求取接近于人眼視覺感知的視頻序列平均失真計(jì)算方法對(duì)提升客觀質(zhì)量評(píng)估方法的性能舉足輕重。獲得視頻序列局部區(qū)域失真的方法多種多樣,目前已經(jīng)有許多成熟的算法,例如,I)圖像中每個(gè)像素作為一個(gè)局部區(qū)域,計(jì)算視頻序列中各像素與原始視頻序列中對(duì)應(yīng)像素的差值的平方或者絕對(duì)值,作為各局部區(qū)域的失真;2)圖像中每個(gè)像素作為一個(gè)局部區(qū)域,計(jì)算視頻序列中各像素周圍sXr塊(即寬s個(gè)像素、高r個(gè)像素的塊,下同)與原始視頻序列中對(duì)應(yīng)sXr塊的結(jié)構(gòu)相似度(Structural Similarity,詳見參考文獻(xiàn)[I]),作為各局部區(qū)域的失真;3)將圖像劃分為mXn塊,每個(gè)mXn塊為一個(gè)局部區(qū)域,計(jì)算視頻序列中各mXn塊對(duì)應(yīng)的時(shí)間域噪聲(temporal noise,詳見參考文獻(xiàn)[2]),作為這各局部區(qū)域的失真;4)將圖像劃分為mXn ±夾,每個(gè)mXn塊為一個(gè)局部區(qū)域,計(jì)算視頻序列中各mXn塊對(duì)應(yīng)的塊效應(yīng)強(qiáng)度(blocking artifact,詳見參考文獻(xiàn)[3]),作為各局部區(qū)域的失真。上述局部區(qū)域失真計(jì)算方法中,方法I)、2)和3)為有參考模型的例子,方法4)為無參考模型的例子。 人眼對(duì)一幀圖像中不同局部區(qū)域的失真敏感度不同,失真敏感度越低,則相同強(qiáng)度局部區(qū)域失真對(duì)應(yīng)的視覺感知強(qiáng)度越低。失真敏感度主要受到以下四個(gè)因子的影響I)局部區(qū)域?qū)?yīng)的背景區(qū)域紋理的對(duì)比度掩蔽效應(yīng)(contrast masking)。一般來說,紋理的對(duì)比度(也稱紋理強(qiáng)度)越強(qiáng),人眼對(duì)該局部區(qū)域的失真敏感度越低。紋理強(qiáng)度可以用背景區(qū)域像素值的方差來近似估計(jì)。其中,背景區(qū)域指局部區(qū)域在視頻序列或者視頻序列對(duì)應(yīng)的原始視頻序列中的對(duì)應(yīng)位置及其鄰域構(gòu)成的區(qū)域。2)局部區(qū)域與人眼注視點(diǎn)(fixation)的距離。一般來說,距離越大,人眼對(duì)該局部區(qū)域的失真敏感度越低。其中人眼的注視點(diǎn)可以簡(jiǎn)單地用圖像的中心來近似,也可以利用注意力模型(詳見參考文獻(xiàn)[4])計(jì)算圖像的色彩、亮度、對(duì)比度等特征得到圖像中Num(Num ^ I)個(gè)最為顯著的區(qū)域(the most salient regions)的位置。3)局部區(qū)域?qū)?yīng)的背景區(qū)域紋理的運(yùn)動(dòng)掩蔽效應(yīng)(motion masking)。一般來說,背景區(qū)域紋理的運(yùn)動(dòng)速度越快,人眼對(duì)該局部區(qū)域的失真敏感度越低。其中背景區(qū)域紋理的運(yùn)動(dòng)速度可以由背景區(qū)域在當(dāng)前幀和前一幀中對(duì)應(yīng)位置的位移矢量得到。此外,如果將背景區(qū)域紋理的運(yùn)動(dòng)速度用其相對(duì)于對(duì)應(yīng)幀中注視點(diǎn)移動(dòng)速度的相對(duì)速度代替,失真敏感度的建模將更加準(zhǔn)確。注視點(diǎn)移動(dòng)速度可由注視點(diǎn)在前后幀中的位移除以兩幀之間的相隔時(shí)間來近似表示。4)局部區(qū)域是否屬于一片大面積的圖像失真。如果局部區(qū)域?qū)儆谝黄竺娣e的圖像失真,則人眼對(duì)該局部區(qū)域的失真敏感度較高。其中局部區(qū)域是否屬于一片大面積的圖像失真可以由該局部區(qū)域?qū)?yīng)的MXN背景區(qū)域中具有大于某一閾值K的失真的局部區(qū)域的總數(shù)占MXN背景區(qū)域包含的局部區(qū)域數(shù)目的百分比來估計(jì)。該百分比越大,則說明局部區(qū)域?qū)儆谝黄竺娣e的圖像失真的概率越大。綜上所述,由上述四個(gè)因子決定的失真敏感度,對(duì)于調(diào)整局部區(qū)域失真的視覺強(qiáng)度有很重要的影響。若考慮以上四個(gè)因子相互獨(dú)立,則失真敏感度可以近似表示為四個(gè)因子的乘積與一常數(shù)之和,或者四個(gè)因子的加權(quán)平均。此外,由于人眼視覺的視覺暫留效應(yīng)(visual persistence),—個(gè)視覺刺激的視覺感知將會(huì)在其消失之后持續(xù)一段時(shí)間。因此,對(duì)于一個(gè)具有較強(qiáng)失真的幀,它對(duì)應(yīng)的較強(qiáng)的視覺影響將會(huì)持續(xù),從而之后具有較弱失真的幀對(duì)應(yīng)時(shí)刻的感知失真總和被這一較強(qiáng)失真幀的感知失真總和所掩蓋。這種現(xiàn)象可以用如下模型近似每一幀的感知失真總和等于該幀相鄰若干幀時(shí)間段內(nèi)最大的失真總和。引入這種視覺暫留機(jī)制來修正每幀的失真總和有利于最終得到的視頻序列的平均失真更接近于主觀評(píng)價(jià)的結(jié)果。再則,人的工作記憶體(working memory)記錄對(duì)象的記憶強(qiáng)度隨著時(shí)間變久而下降。記憶強(qiáng)度越小,則某一時(shí)刻失真的感知強(qiáng)度相應(yīng)下降。主觀評(píng)分通常在觀看視頻序列結(jié)束之后,因此,越先播放的幀相對(duì)于視頻播放結(jié)束的時(shí)間(也就是評(píng)分的時(shí)間)越長(zhǎng),其失真總和的記憶強(qiáng)度越低,感知強(qiáng)度相應(yīng)下降。所以,根據(jù)每幀的播放時(shí)刻,確定其對(duì)應(yīng)的表示記憶強(qiáng)度的時(shí)域權(quán)值,用該時(shí)域權(quán)值來調(diào)整每幀的失真總和的感知強(qiáng)度也十分重要。參考文獻(xiàn)[1]Z. Wang, A. C. Bovik, H. R. Sheikh,and E. P. Simoncelli,“Image qualityassessment from error visibility to structural similarity,,,IEEE Trans. ImageProcess.,vol. 13,no. 4,pp. 600-612,Apr. 2004.[2] Y. Zhao and L Yu,“Evaluating video quality with temporal noise,,,inProc. IEEE Int. Conf. Multimedia & Expo (ICME),2010,pp. 708-712.[3] S. A. Karunasekera and N. G. Kingsbury,“A distortion measure for blocking artifacts in images based on human visual sensitivity,,,IEEE Trans.Image Processing,vol. 4,no. 6,pp. 713—724,June 1995.[4] D. Walther and C. Koch, uMo deling attention to salientproto-objects, ” Neural Networks, vol. 19,pp. 1395-1407,2006.

發(fā)明內(nèi)容
為克服現(xiàn)有技術(shù)的上述缺陷,本發(fā)明的目的在于提供一種視頻序列失真評(píng)價(jià)方法,它包括對(duì)視頻序列每一幀中各局部區(qū)域失真,使用其所在位置的紋理強(qiáng)度因子、注視點(diǎn)距離因子、運(yùn)動(dòng)強(qiáng)度因子以及失真面積因子計(jì)算得到所述的局部區(qū)域失真對(duì)應(yīng)的失真敏感度因子,將每一幀中各局部區(qū)域失真與其對(duì)應(yīng)的失真敏感度因子的乘積的總和作為所述幀的失真總和;對(duì)視頻序列中每一幀,根據(jù)其相鄰若干幀各幀所述的失真總和,獲得所述幀的失真總和修正值;根據(jù)每一幀在視頻序列中的對(duì)應(yīng)時(shí)刻獲得所述幀的時(shí)域權(quán)值,計(jì)算所有幀所述的失真總和修正值與其對(duì)應(yīng)的時(shí)域權(quán)值的乘積的總和,除以一個(gè)歸一化數(shù)值,得到所述視頻序列的平均失真。進(jìn)一步的,所述紋理強(qiáng)度因子由以下處理方法之一得到a、計(jì)算局部區(qū)域失真所在位置背景區(qū)域的紋理強(qiáng)度,設(shè)定一組常數(shù)Al、A2和A3,將所述的紋理強(qiáng)度的Al次方與A2之和的倒數(shù)乘以A3,得到所述的紋理強(qiáng)度因子;b、計(jì)算局部區(qū)域失真所在位置背景區(qū)域的紋理強(qiáng)度,設(shè)定一組常數(shù)BI、B2和B3,將所述的紋理強(qiáng)度以BI為底的對(duì)數(shù)與B2之和的倒數(shù)乘以B3,得到所述的紋理強(qiáng)度因子。所述注視點(diǎn)距離因子由以下處理方法之一得到a、計(jì)算局部區(qū)域失真所在位置與其所在幀圖像的圖像中心的距離值,設(shè)定一組常數(shù)Cl、C2和C3,將所述的距離值的Cl次方與C2之和的倒數(shù)乘以C3,得到所述的注視點(diǎn)距離因子;b、計(jì)算局部區(qū)域失真所在位置與其所在幀圖像的各注視點(diǎn)的距離值,設(shè)定一組常數(shù)Dl、D2和D3,將所述的各注視點(diǎn)的距離值的Dl次方與D2之和的倒數(shù)乘以D3,得到該局部區(qū)域失真相對(duì)于各注視點(diǎn)的注視值;對(duì)所有所述的注視值進(jìn)行加權(quán)求和,獲得所述的注視點(diǎn)距離因子。所述運(yùn)動(dòng)強(qiáng)度因子由以下處理方法之一得到a、計(jì)算局部區(qū)域失真所在位置背景區(qū)域的紋理運(yùn)動(dòng)速度,設(shè)定一組常數(shù)El、E2和E3,將所述的紋理運(yùn)動(dòng)速度的模的El次方與E2之和的倒數(shù)乘以E3,得到所述的運(yùn)動(dòng)強(qiáng)度因子;b、計(jì)算局部區(qū)域失真所在位置背景區(qū)域的紋理運(yùn)動(dòng)速度和所述局部區(qū)域失真對(duì)應(yīng)時(shí)刻的注視點(diǎn)移動(dòng)速度,設(shè)定一組常數(shù)FI、F2和F3,將所述的紋理運(yùn)動(dòng)速度和注視點(diǎn)移動(dòng)速度之差的模的Fl次方與F2之和的倒數(shù)乘以F3,得到所述的運(yùn)動(dòng)強(qiáng)度因子。所述失真面積因子由以下處理方法之一得到 a、計(jì)算局部區(qū)域失真所在位置周圍SXR區(qū)域中包含失真大于一個(gè)閾值G4的局部區(qū)域數(shù)目占所述SXR區(qū)域所包含局部區(qū)域總數(shù)的百分比,設(shè)定一組常數(shù)G1、G2和G3,將所述的百分比的Gl次方與G2之和的倒數(shù)乘以G3,得到所述的失真面積因子;b、計(jì)算局部區(qū)域失真所在位置周圍SXR區(qū)域中包含失真大于一個(gè)閾值H4的局部區(qū)域數(shù)目占所述SXR區(qū)域所包含局部區(qū)域總數(shù)的百分比,設(shè)定一組常數(shù)H1、H2和H3,如果所述的百分比大于H1,則所述的失真面積因子等于H2 ;否則,所述的失真面積因子等于H3。所述的使用其所在位置的紋理強(qiáng)度因子、注視點(diǎn)距離因子、運(yùn)動(dòng)強(qiáng)度因子以及失真面積因子計(jì)算得到所述的局部區(qū)域失真對(duì)應(yīng)的失真敏感度因子,由以下處理方法之一完成a、設(shè)定一組常數(shù)II、12、13、14、Jl、J2、J3和J4,將所述的紋理強(qiáng)度因子的Il次方與Jl的乘積、注視點(diǎn)距離因子的12次方與J2的乘積、運(yùn)動(dòng)強(qiáng)度因子的13次方與J3的乘積以及失真面積因子的14次方與J4的乘積相加,得到所述的失真敏感度因子;b、設(shè)定一組常數(shù)K1、K2、K3、K4和K5,將所述的紋理強(qiáng)度因子的Kl次方、注視點(diǎn)距離因子的K2次方、運(yùn)動(dòng)強(qiáng)度因子的K3次方以及失真面積因子的K4次方相乘,再加上K5,得到所述的失真敏感度因子。所述的對(duì)視頻序列中每一幀、根據(jù)其相鄰若干幀各幀所述的失真總和、獲得所述幀的失真總和修正值是由以下處理方法之一完成a、設(shè)定一組常數(shù)LI和L2,將每一幀的前LI幀、后L2幀及所述幀的失真總和中的最大值,作為所述幀的失真總和修正值;b、設(shè)定一組常數(shù)Ml和M2,將每一幀的前Ml幀、后M2幀及所述幀的失真總和的平均值,作為所述幀的失真總和修正值。所述的根據(jù)每一幀在視頻序列中的對(duì)應(yīng)時(shí)刻獲得所述幀的時(shí)域權(quán)值是由以下處
理方法之一完成a、設(shè)定一組常數(shù)N1、N2、N3和N4,計(jì)算每一幀與視頻序列最后幀相距的播放時(shí)差,將所述的播放時(shí)差與NI之和求以N2為底的對(duì)數(shù),乘以N3,加上N4,得到所述的時(shí)域權(quán)值;b、設(shè)定一組常數(shù)01、02和03,計(jì)算每一幀與視頻序列最后幀相距的播放時(shí)差,將所述的播放時(shí)差與01之和的倒數(shù)與02的乘積加上03,得到所述的時(shí)域權(quán)值。本發(fā)明的另一目的還在于提供一種視頻序列失真評(píng)價(jià)裝置,該裝置包括以下三個(gè)模塊
對(duì)視頻序列每一幀中各局部區(qū)域失真,使用其所在位置的紋理強(qiáng)度因子、注視點(diǎn)距離因子、運(yùn)動(dòng)強(qiáng)度因子以及失真面積因子計(jì)算得到所述的局部區(qū)域失真對(duì)應(yīng)的失真敏感度因子,將各局部區(qū)域失真與其對(duì)應(yīng)的失真敏感度因子的乘積的總和作為所述幀的失真總和的幀級(jí)失真總和生成模塊,其輸入為視頻序列的局部區(qū)域失真以及視頻序列或者所述視頻序列對(duì)應(yīng)的原始視頻序列,輸出為視頻序列每一幀的失真總和;對(duì)視頻序列中每一幀,根據(jù)其相鄰若干幀的所述的失真總和,獲得所述幀的失真總和修正值的幀級(jí)失真總合修正值生成模塊,其輸入為視頻序列每一幀的失真總和,輸出為視頻序列每一幀的失真總和修正值;根據(jù)每一幀在視頻序列中的對(duì)應(yīng)時(shí)刻獲得所述幀的時(shí)域權(quán)值,計(jì)算所有幀所述的失真總和修正值與其對(duì)應(yīng)的時(shí)域權(quán)值的乘積的總和,除以一個(gè)歸一化數(shù)值,得到所述視頻序列的平均失真的序列級(jí)平均失真生成模塊,其輸入為視頻序列每一幀的失真總和修正值,其輸出為視頻序列的平均失真。所述的幀級(jí)失真總和生成模塊包括以下六個(gè)模塊 a、獲得局部區(qū)域失真對(duì)應(yīng)的紋理強(qiáng)度因子的紋理強(qiáng)度因子生成模塊,其輸入為局部區(qū)域失真以及視頻序列或者視頻序列對(duì)應(yīng)的原始視頻序列,其輸出為局部區(qū)域失真對(duì)應(yīng)的紋理強(qiáng)度因子,所述模塊完成以下處理之一I)計(jì)算局部區(qū)域失真所在位置背景區(qū)域的紋理強(qiáng)度,設(shè)定一組常數(shù)Al、A2和A3,將所述的紋理強(qiáng)度的Al次方與A2之和的倒數(shù)乘以A3,得到所述的紋理強(qiáng)度因子;2)計(jì)算局部區(qū)域失真所在位置背景區(qū)域的紋理強(qiáng)度,設(shè)定一組常數(shù)BI、B2和B3,將所述的紋理強(qiáng)度以BI為底的對(duì)數(shù)值與B2之和的倒數(shù)乘以B3,得到所述的紋理強(qiáng)度因子;b、獲得局部區(qū)域失真對(duì)應(yīng)的注視點(diǎn)距離因子的注視點(diǎn)距離因子生成模塊,其輸入為局部區(qū)域失真以及視頻序列或者視頻序列對(duì)應(yīng)的原始視頻序列,其輸出為局部區(qū)域失真對(duì)應(yīng)的注視點(diǎn)距離因子,所述模塊完成以下處理之一I)計(jì)算局部區(qū)域失真所在位置與圖像中心的距離值,設(shè)定一組常數(shù)Cl、C2和C3,將所述的距離值的Cl次方與C2之和的倒數(shù)乘以C3,得到所述的注視點(diǎn)距離因子;2)計(jì)算局部區(qū)域失真所在位置與該局部區(qū)域所在幀圖像的各注視點(diǎn)的距離值,設(shè)定一組常數(shù)Dl、D2和D3,將所述的各注視點(diǎn)的距離值的Dl次方值與D2之和的倒數(shù)乘以D3,得到該局部區(qū)域失真相對(duì)于各注視點(diǎn)的注視值;對(duì)所有所述的注視值進(jìn)行加權(quán)求和,獲得所述的注視點(diǎn)距離因子;C、獲得局部區(qū)域失真對(duì)應(yīng)的運(yùn)動(dòng)強(qiáng)度因子的運(yùn)動(dòng)強(qiáng)度因子生成模塊,其輸入為局部區(qū)域失真以及視頻序列或者視頻序列對(duì)應(yīng)的原始視頻序列,其輸出為局部區(qū)域失真對(duì)應(yīng)的運(yùn)動(dòng)強(qiáng)度因子,所述模塊完成以下處理之一I)計(jì)算局部區(qū)域失真所在位置背景區(qū)域的紋理運(yùn)動(dòng)速度,設(shè)定一組常數(shù)E1、E2和E3,將所述的紋理運(yùn)動(dòng)速度的模的El次方與E2之和的倒數(shù)乘以E3,得到所述的運(yùn)動(dòng)強(qiáng)度因子;2)計(jì)算局部區(qū)域失真所在位置背景區(qū)域的紋理運(yùn)動(dòng)速度和所述局部區(qū)域失真對(duì)應(yīng)時(shí)刻的注視點(diǎn)移動(dòng)速度,設(shè)定一組常數(shù)Fl、F2和F3,將所述的紋理運(yùn)動(dòng)速度和注視點(diǎn)移動(dòng)速度之差的模的Fl次方與F2之和的倒數(shù)乘以F3,得到所述的運(yùn)動(dòng)強(qiáng)度因子;
d、獲得局部區(qū)域失真對(duì)應(yīng)的失真面積因子的失真面積因子生成模塊,其輸入為局部區(qū)域失真,其輸出為局部區(qū)域失真對(duì)應(yīng)的失真面積因子,所述模塊完成以下處理之一I)計(jì)算局部區(qū)域失真所在位置周圍SXR區(qū)域中包含失真大于一個(gè)閾值G4的局部區(qū)域數(shù)目占所述SXR區(qū)域所包含局部區(qū)域總數(shù)的百分比,設(shè)定一組常數(shù)G1、G2和G3,將所述的百分比的Gl次方與G2之和的倒數(shù)乘以G3,得到所述的失真面積因子;2)計(jì)算局部區(qū)域失真所在位置周圍SXR區(qū)域中包含失真大于一個(gè)閾值H4的局部區(qū)域數(shù)目占所述SXR區(qū)域所包含局部區(qū)域總數(shù)的百分比,設(shè)定一組常數(shù)H1、H2和H3,如果所述的百分比大于H1,則所述的失真面積因子等于H2;否則,所述的失真面積因子等于H3 ;e、獲得局部區(qū)域失真對(duì)應(yīng)的失真敏感度因子的失真敏感度因子生成模塊,其輸入為局部區(qū)域失真對(duì)應(yīng)的紋理強(qiáng)度因子、注視點(diǎn)距離因子、運(yùn)動(dòng)強(qiáng)度因子和失真面積因子,其輸出為局部區(qū)域失真對(duì)應(yīng)的失真敏感度因子,所述模塊完成以下處理之一 I)設(shè)定一組常數(shù)11、12、13、14、11、12、13和4,將所述的紋理強(qiáng)度因子的Il次方與Jl的乘積、注視點(diǎn)距離因子的12次方與J2的乘積、運(yùn)動(dòng)強(qiáng)度因子的13次方與J3的乘積以及失真面積因子的14次方與J4的乘積相加,得到所述的失真敏感度因子;2)設(shè)定一組常數(shù)Kl、K2、K3、K4和K5,將所述的紋理強(qiáng)度因子的Kl次方、注視點(diǎn)距離因子的K2次方、運(yùn)動(dòng)強(qiáng)度因子的K3次方以及失真面積因子的K4次方相乘,再加上K5,得到所述的失真敏感度因子;f、獲得視頻序列每一幀中所有局部區(qū)域失真之和的失真乘加模塊,其輸入為視頻序列每一幀中所有局部區(qū)域失真及其對(duì)應(yīng)的失真敏感度因子,其輸出為所述幀的失真總和,所述模塊完成以下處理將每一幀中各局部區(qū)域失真與其對(duì)應(yīng)的失真敏感度因子的乘積的總和作為所述幀的失真總和。本發(fā)明利用視覺敏感度、視覺暫留、記憶強(qiáng)度等特性的數(shù)值模型,對(duì)視頻序列的各個(gè)局部區(qū)域失真進(jìn)行處理,得到整個(gè)視頻序列的平均失真,用以視頻序列失真評(píng)價(jià)。相對(duì)于將視頻序列的各個(gè)局部區(qū)域失真進(jìn)行簡(jiǎn)單的幾何平均所得到的幾何平均失真,由本發(fā)明得到的視頻序列的平均失真結(jié)果與主觀視頻質(zhì)量評(píng)估方法的評(píng)估結(jié)果具有更高的一致性。


圖I為本發(fā)明一種視頻序列失真評(píng)價(jià)裝置實(shí)施例的結(jié)構(gòu)示意圖。圖2為本發(fā)明一種視頻序列失真評(píng)價(jià)裝置中幀級(jí)失真總和生成模塊實(shí)施例的結(jié)構(gòu)示意圖。圖3為本發(fā)明對(duì)定義為“各像素平方誤差”的局?jǐn)?shù)區(qū)域失真進(jìn)行處理后得到的視頻序列平均失真(已歸一化處理)和主觀質(zhì)量評(píng)估結(jié)果之間的散點(diǎn)圖。
具體實(shí)施例方式下面,結(jié)合實(shí)施例來詳細(xì)闡述本發(fā)明的視頻序列失真評(píng)價(jià)方法和視頻序列失真評(píng)價(jià)裝置的具體實(shí)施方式
。所述的視頻質(zhì)量評(píng)估方法包括對(duì)視頻序列每一幀中各局部區(qū)域失真,使用其所在位置的紋理強(qiáng)度因子、注視點(diǎn)距離因子、運(yùn)動(dòng)強(qiáng)度因子以及失真面積因子計(jì)算得到所述的局部區(qū)域失真對(duì)應(yīng)的失真敏感度因子,將每一幀中各局部區(qū)域失真與其對(duì)應(yīng)的失真敏感度因子的乘積的總和作為所述幀的失真總和;對(duì)視頻序列中每一幀,根據(jù)其相鄰若干幀各幀所述的失真總和,獲得該幀的失真總和修正值;根據(jù)每一幀在視頻序列中的對(duì)應(yīng)時(shí)刻獲得時(shí)域權(quán)值,計(jì)算所有幀所述的失真總和修正值和對(duì)應(yīng)時(shí)域權(quán)值的乘積的總和,除以一個(gè)歸一化數(shù)值,得到該視頻序列的平均失真。其具體實(shí)施方式
如下本方法的處理對(duì)象為視頻序列局部區(qū)域失真,其獲得方法有多種,例如,方法一圖像中每個(gè)像素作為一個(gè)局部區(qū)域,計(jì)算視頻序列中該像素與原始視頻序列中對(duì)應(yīng)像素的差值的平方或者絕對(duì)值,作為該局部區(qū)域的失真。方法二 圖像中每個(gè)像素作為一個(gè)局部區(qū)域,計(jì)算視頻序列中該像素周圍sXr塊與原始視頻序列中對(duì)應(yīng)sXr塊的結(jié)構(gòu)相似度(Structural Similarity,詳見參考文獻(xiàn)),作為該局部區(qū)域的失真。 方法三將圖像劃分為mXnife,每個(gè)mXn塊為一個(gè)局部區(qū)域,計(jì)算視頻序列中該mXn塊對(duì)應(yīng)的時(shí)間域噪聲(temporal noise,詳見參考文獻(xiàn)[2]),作為該局部區(qū)域的失真。方法四將圖像劃分為mXn塊,每個(gè)mXn塊為一個(gè)局部區(qū)域,計(jì)算視頻序列中各mXn塊對(duì)應(yīng)的塊效應(yīng)強(qiáng)度(blocking artifact,詳見參考文獻(xiàn)[3]),作為各局部區(qū)域的失真。需要注意的是,每個(gè)局部區(qū)域失真也含有該局部區(qū)域在視頻序列中的位置信息,即該局部區(qū)域所在幀的幀號(hào),以及其在該幀中的坐標(biāo)位置。設(shè)一個(gè)視頻序列共有I幀,每一幀i被劃分為K個(gè)局部區(qū)域,相應(yīng)的第i幀中第k個(gè)局部區(qū)域記為(k,i),k G K,i G I,其失真記為DiS (k,i),k G K,i G I,所述的局部區(qū)域失真可由上述的視頻序列局部區(qū)域失真的獲得方法中所述的四種方法獲得,但不僅限于上述的四種方法。所述的對(duì)視頻序列每一幀中各局部區(qū)域失真,使用其所在位置的紋理強(qiáng)度因子、注視點(diǎn)距離因子、運(yùn)動(dòng)強(qiáng)度因子以及失真面積因子計(jì)算得到所述的局部區(qū)域失真對(duì)應(yīng)的失真敏感度因子,將每一幀中各局部區(qū)域失真與其對(duì)應(yīng)的失真敏感度因子的乘積的總和作為每一幀的失真總和,包括以下六項(xiàng)處理I)所述的局部區(qū)域失真對(duì)應(yīng)的紋理強(qiáng)度因子與該局部區(qū)域所在位置背景區(qū)域的紋理強(qiáng)度呈單調(diào)遞減關(guān)系。其中,背景區(qū)域指局部區(qū)域在視頻序列或者視頻序列對(duì)應(yīng)的原始視頻序列中的對(duì)應(yīng)位置及其鄰域構(gòu)成的區(qū)域(下同)。所述的紋理強(qiáng)度因子T(k,i),由以下處理方法之一得到方法一計(jì)算局部區(qū)域(k,i)所在位置背景區(qū)域的紋理強(qiáng)度c (k,i)。設(shè)定一組常數(shù)ApA2和A3,所述的紋理強(qiáng)度因子T (k,i)通過以下運(yùn)算得到聊=j+A2。其中紋理強(qiáng)度c(k,i)可以用局部區(qū)域(k,i)所在位置背景區(qū)域MXN塊中各像素值的方差表示。各常數(shù)的取值使得T (k,i)和c(k,i)呈單調(diào)遞減關(guān)系且T (k,i) >0,例如A1 = I, A2 = 50, A3 = 50 ;又例如,A1 = 0. 5, A2 = 20, A3 = 15。所述的局部區(qū)域(k, i)所在位置背景區(qū)域MXN塊既可以是該視頻序列中第i幀第k局部區(qū)域?qū)?yīng)的背景區(qū)域MXN塊,也可以是該視頻序列對(duì)應(yīng)的原始視頻序列中第i幀第k局部區(qū)域?qū)?yīng)的背景區(qū)域MXN塊。其中,背景區(qū)域MXN塊包含整個(gè)局部區(qū)域(k,i),例如背景區(qū)域MXN塊的中心和局部區(qū)域(k,i)的中心重合且背景區(qū)域MXN塊面積大于等于局部區(qū)域(k,1)。背景區(qū)域大小取值例如M = 8,N = 8 ;又例如M = 9,N = 7。方法二 計(jì)算局部區(qū)域(k,i)所在位置背景區(qū)域的紋理強(qiáng)度c (k,i)。設(shè)定一組常數(shù)BpB2和B3,所述的紋理強(qiáng)度因子T (k,i)通過以下運(yùn)算得到T (k, i) = -- 3 。
權(quán)利要求
1.一種視頻序列失真評(píng)價(jià)方法,其特征在于,包括 對(duì)視頻序列每一幀中各局部區(qū)域失真,使用其所在位置的紋理強(qiáng)度因子、注視點(diǎn)距離因子、運(yùn)動(dòng)強(qiáng)度因子以及失真面積因子計(jì)算得到所述的局部區(qū)域失真對(duì)應(yīng)的失真敏感度因子,將每一幀中各局部區(qū)域失真與其對(duì)應(yīng)的失真敏感度因子的乘積的總和作為所述幀的失真總和; 對(duì)視頻序列中每一幀,根據(jù)其相鄰若干幀各幀所述的失真總和,獲得所述幀的失真總和修正值; 根據(jù)每一幀在視頻序列中的對(duì)應(yīng)時(shí)刻獲得所述幀的時(shí)域權(quán)值,計(jì)算所有幀所述的失真總和修正值與其對(duì)應(yīng)的時(shí)域權(quán)值的乘積的總和,除以一個(gè)歸一化數(shù)值,得到所述視頻序列的平均失真。
2.如權(quán)利要求I所述的視頻序列失真評(píng)價(jià)方法,其特征在于,所述紋理強(qiáng)度因子以下處理方法之一得到 a、計(jì)算局部區(qū)域失真所在位置背景區(qū)域的紋理強(qiáng)度,設(shè)定一組常數(shù)Al、A2和A3,將所述的紋理強(qiáng)度的Al次方與A2之和的倒數(shù)乘以A3,得到所述的紋理強(qiáng)度因子; b、計(jì)算局部區(qū)域失真所在位置背景區(qū)域的紋理強(qiáng)度,設(shè)定一組常數(shù)BI、B2和B3,將所述的紋理強(qiáng)度以BI為底的對(duì)數(shù)與B2之和的倒數(shù)乘以B3,得到所述的紋理強(qiáng)度因子。
3.如權(quán)利要求I所述的視頻序列失真評(píng)價(jià)方法,其特征在于,所述注視點(diǎn)距離因子由以下處理方法之一得到 a、計(jì)算局部區(qū)域失真所在位置與其所在幀圖像的圖像中心的距離值,設(shè)定一組常數(shù)Cl、C2和C3,將所述的距離值的Cl次方與C2之和的倒數(shù)乘以C3,得到所述的注視點(diǎn)距離因子; b、計(jì)算局部區(qū)域失真所在位置與其所在幀圖像的各注視點(diǎn)的距離值,設(shè)定一組常數(shù)DU D2和D3,將所述的各注視點(diǎn)的距離值的Dl次方與D2之和的倒數(shù)乘以D3,得到該局部區(qū)域失真相對(duì)于各注視點(diǎn)的注視值;對(duì)所有所述的注視值進(jìn)行加權(quán)求和,獲得所述的注視點(diǎn)距離因子。
4.如權(quán)利要求I所述的視頻序列失真評(píng)價(jià)方法,其特征在于,所述運(yùn)動(dòng)強(qiáng)度因子由以下處理方法之一得到 a、計(jì)算局部區(qū)域失真所在位置背景區(qū)域的紋理運(yùn)動(dòng)速度,設(shè)定一組常數(shù)El、E2和E3,將所述的紋理運(yùn)動(dòng)速度的模的El次方與E2之和的倒數(shù)乘以E3,得到所述的運(yùn)動(dòng)強(qiáng)度因子; b、計(jì)算局部區(qū)域失真所在位置背景區(qū)域的紋理運(yùn)動(dòng)速度和所述局部區(qū)域失真對(duì)應(yīng)時(shí)刻的注視點(diǎn)移動(dòng)速度,設(shè)定一組常數(shù)FI、F2和F3,將所述的紋理運(yùn)動(dòng)速度和注視點(diǎn)移動(dòng)速度之差的模的Fl次方與F2之和的倒數(shù)乘以F3,得到所述的運(yùn)動(dòng)強(qiáng)度因子。
5.如權(quán)利要求I所述的視頻序列失真評(píng)價(jià)方法,其特征在于,所述失真面積因子由以下處理方法之一得到 a、計(jì)算局部區(qū)域失真所在位置周圍SXR區(qū)域中包含失真大于一個(gè)閾值G4的局部區(qū)域數(shù)目占所述SXR區(qū)域所包含局部區(qū)域總數(shù)的百分比,設(shè)定一組常數(shù)G1、G2和G3,將所述的百分比的Gl次方與G2之和的倒數(shù)乘以G3,得到所述的失真面積因子; b、計(jì)算局部區(qū)域失真所在位置周圍SXR區(qū)域中包含失真大于一個(gè)閾值H4的局部區(qū)域數(shù)目占所述SXR區(qū)域所包含局部區(qū)域總數(shù)的百分比,設(shè)定一組常數(shù)H1、H2和H3,如果所述的百分比大于H1,則所述的失真面積因子等于H2 ;否則,所述的失真面積因子等于H3。
6.如權(quán)利要求I所述的視頻序列失真評(píng)價(jià)方法,其特征在于,所述的使用其所在位置的紋理強(qiáng)度因子、注視點(diǎn)距離因子、運(yùn)動(dòng)強(qiáng)度因子以及失真面積因子計(jì)算得到所述的局部區(qū)域失真對(duì)應(yīng)的失真敏感度因子由以下處理方法之一完成 a、設(shè)定一組常數(shù)II、12、13、14、Jl、J2、J3和J4,將所述的紋理強(qiáng)度因子的Il次方與Jl的乘積、注視點(diǎn)距離因子的12次方與J2的乘積、運(yùn)動(dòng)強(qiáng)度因子的13次方與J3的乘積以及失真面積因子的14次方與J4的乘積相加,得到所述的失真敏感度因子; b、設(shè)定一組常數(shù)K1、K2、K3、K4和K5,將所述的紋理強(qiáng)度因子的Kl次方、注視點(diǎn)距離因子的K2次方、運(yùn)動(dòng)強(qiáng)度因子的K3次方以及失真面積因子的K4次方相乘,再加上K5,得到所述的失真敏感度因子。
7.如權(quán)利要求I所述的視頻序列失真評(píng)價(jià)方法,其特征在于,對(duì)視頻序列中每一幀、根據(jù)其相鄰若干幀各幀所述的失真總和、獲得所述幀的失真總和修正值是由以下處理方法之一完成 a、設(shè)定一組常數(shù)LI和L2,將每一幀的前LI幀、后L2幀及所述幀的失真總和中的最大值,作為所述幀的失真總和修正值; b、設(shè)定一組常數(shù)Ml和M2,將每一幀的前Ml幀、后M2幀及所述幀的失真總和的平均值,作為所述幀的失真總和修正值。
8.如權(quán)利要求I所述的視頻序列失真評(píng)價(jià)方法,其特征在于,所述的根據(jù)每一幀在視頻序列中的對(duì)應(yīng)時(shí)刻獲得所述幀的時(shí)域權(quán)值由以下處理方法之一完成 a、設(shè)定一組常數(shù)N1、N2、N3和N4,計(jì)算每一幀與視頻序列最后幀相距的播放時(shí)差,將所述的播放時(shí)差與NI之和求以N2為底的對(duì)數(shù),乘以N3,加上N4,得到所述的時(shí)域權(quán)值; b、設(shè)定一組常數(shù)01、02和03,計(jì)算每一幀與視頻序列最后幀相距的播放時(shí)差,將所述的播放時(shí)差與01之和的倒數(shù)與02的乘積加上03,得到所述的時(shí)域權(quán)值。
9.一種視頻序列失真評(píng)價(jià)裝置,其特征在于,包括以下三個(gè)模塊 對(duì)視頻序列每一幀中各局部區(qū)域失真,使用其所在位置的紋理強(qiáng)度因子、注視點(diǎn)距離因子、運(yùn)動(dòng)強(qiáng)度因子以及失真面積因子計(jì)算得到所述的局部區(qū)域失真對(duì)應(yīng)的失真敏感度因子,將各局部區(qū)域失真與其對(duì)應(yīng)的失真敏感度因子的乘積的總和作為所述幀的失真總和的幀級(jí)失真總和生成模塊,其輸入為視頻序列的局部區(qū)域失真以及視頻序列或者所述視頻序列對(duì)應(yīng)的原始視頻序列,輸出為視頻序列每一幀的失真總和; 對(duì)視頻序列中每一幀,根據(jù)其相鄰若干幀的所述的失真總和,獲得所述幀的失真總和修正值的幀級(jí)失真總合修正值生成模塊,其輸入為視頻序列每一幀的失真總和,輸出為視頻序列每一幀的失真總和修正值; 根據(jù)每一幀在視頻序列中的對(duì)應(yīng)時(shí)刻獲得所述幀的時(shí)域權(quán)值,計(jì)算所有幀所述的失真總和修正值與其對(duì)應(yīng)的時(shí)域權(quán)值的乘積的總和,除以一個(gè)歸一化數(shù)值,得到所述視頻序列的平均失真的序列級(jí)平均失真生成模塊,其輸入為視頻序列每一幀的失真總和修正值,其輸出為視頻序列的平均失真。
10.如權(quán)利要求9所述的視頻序列失真評(píng)價(jià)裝置,其特征在于,所述的幀級(jí)失真總和生成模塊包括以下六個(gè)模塊a、獲得局部區(qū)域失真對(duì)應(yīng)的紋理強(qiáng)度因子的紋理強(qiáng)度因子生成模塊,其輸入為局部區(qū)域失真以及視頻序列或者視頻序列對(duì)應(yīng)的原始視頻序列,其輸出為局部區(qū)域失真對(duì)應(yīng)的紋理強(qiáng)度因子,所述模塊完成以下處理之一 1)計(jì)算局部區(qū)域失真所在位置背景區(qū)域的紋理強(qiáng)度,設(shè)定一組常數(shù)Al、A2和A3,將所述的紋理強(qiáng)度的Al次方與A2之和的倒數(shù)乘以A3,得到所述的紋理強(qiáng)度因子; 2)計(jì)算局部區(qū)域失真所在位置背景區(qū)域的紋理強(qiáng)度,設(shè)定一組常數(shù)BI、B2和B3,將所述的紋理強(qiáng)度以BI為底的對(duì)數(shù)值與B2之和的倒數(shù)乘以B3,得到所述的紋理強(qiáng)度因子; b、獲得局部區(qū)域失真對(duì)應(yīng)的注視點(diǎn)距離因子的注視點(diǎn)距離因子生成模塊,其輸入為局部區(qū)域失真以及視頻序列或者視頻序列對(duì)應(yīng)的原始視頻序列,其輸出為局部區(qū)域失真對(duì)應(yīng)的注視點(diǎn)距離因子,所述模塊完成以下處理之一 1)計(jì)算局部區(qū)域失真所在位置與圖像中心的距離值,設(shè)定一組常數(shù)Cl、C2和C3,將所述的距離值的Cl次方與C2之和的倒數(shù)乘以C3,得到所述的注視點(diǎn)距離因子; 2)計(jì)算局部區(qū)域失真所在位置與該局部區(qū)域所在幀圖像的各注視點(diǎn)的距離值,設(shè)定一組常數(shù)Dl、D2和D3,將所述的各注視點(diǎn)的距離值的Dl次方值與D2之和的倒數(shù)乘以D3,得到該局部區(qū)域失真相對(duì)于各注視點(diǎn)的注視值;對(duì)所有所述的注視值進(jìn)行加權(quán)求和,獲得所述的注視點(diǎn)距離因子; C、獲得局部區(qū)域失真對(duì)應(yīng)的運(yùn)動(dòng)強(qiáng)度因子的運(yùn)動(dòng)強(qiáng)度因子生成模塊,其輸入為局部區(qū)域失真以及視頻序列或者視頻序列對(duì)應(yīng)的原始視頻序列,其輸出為局部區(qū)域失真對(duì)應(yīng)的運(yùn)動(dòng)強(qiáng)度因子,所述模塊完成以下處理之一 1)計(jì)算局部區(qū)域失真所在位置背景區(qū)域的紋理運(yùn)動(dòng)速度,設(shè)定一組常數(shù)El、E2和E3,將所述的紋理運(yùn)動(dòng)速度的模的El次方與E2之和的倒數(shù)乘以E3,得到所述的運(yùn)動(dòng)強(qiáng)度因子; 2)計(jì)算局部區(qū)域失真所在位置背景區(qū)域的紋理運(yùn)動(dòng)速度和所述局部區(qū)域失真對(duì)應(yīng)時(shí)刻的注視點(diǎn)移動(dòng)速度,設(shè)定一組常數(shù)FI、F2和F3,將所述的紋理運(yùn)動(dòng)速度和注視點(diǎn)移動(dòng)速度之差的模的Fl次方與F2之和的倒數(shù)乘以F3,得到所述的運(yùn)動(dòng)強(qiáng)度因子; d、獲得局部區(qū)域失真對(duì)應(yīng)的失真面積因子的失真面積因子生成模塊,其輸入為局部區(qū)域失真,其輸出為局部區(qū)域失真對(duì)應(yīng)的失真面積因子,所述模塊完成以下處理之一 1)計(jì)算局部區(qū)域失真所在位置周圍SXR區(qū)域中包含失真大于一個(gè)閾值G4的局部區(qū)域數(shù)目占所述SXR區(qū)域所包含局部區(qū)域總數(shù)的百分比,設(shè)定一組常數(shù)G1、G2和G3,將所述的百分比的Gl次方與G2之和的倒數(shù)乘以G3,得到所述的失真面積因子; 2)計(jì)算局部區(qū)域失真所在位置周圍SXR區(qū)域中包含失真大于一個(gè)閾值H4的局部區(qū)域數(shù)目占所述SXR區(qū)域所包含局部區(qū)域總數(shù)的百分比,設(shè)定一組常數(shù)H1、H2和H3,如果所述的百分比大于H1,則所述的失真面積因子等于H2 ;否則,所述的失真面積因子等于H3 ; e、獲得局部區(qū)域失真對(duì)應(yīng)的失真敏感度因子的失真敏感度因子生成模塊,其輸入為局部區(qū)域失真對(duì)應(yīng)的紋理強(qiáng)度因子、注視點(diǎn)距離因子、運(yùn)動(dòng)強(qiáng)度因子和失真面積因子,其輸出為局部區(qū)域失真對(duì)應(yīng)的失真敏感度因子,所述模塊完成以下處理之一 I)設(shè)定一組常數(shù)II、12、13、14、Jl、J2、J3和J4,將所述的紋理強(qiáng)度因子的Il次方與Jl的乘積、注視點(diǎn)距離因子的12次方與J2的乘積、運(yùn)動(dòng)強(qiáng)度因子的13次方與J3的乘積以及失真面積因子的14次方與J4的乘積相加,得到所述的失真敏感度因子;2)設(shè)定一組常數(shù)Kl、K2、K3、K4和K5,將所述的紋理強(qiáng)度因子的Kl次方、注視點(diǎn)距離因子的K2次方、運(yùn)動(dòng)強(qiáng)度因子的K3次方以及失真面積因子的K4次方相乘,再加上K5,得到所述的失真敏感度因子; f、獲得視頻序列每一幀中所有局部區(qū)域失真之和的失真乘加模塊,其輸入為視頻序列每一幀中所有局部區(qū)域失真及其對(duì)應(yīng)的失真敏感度因子,其輸出為所述幀的失真總和,所述模塊完成以下處理 將每一幀中各局部區(qū)域失真與其對(duì)應(yīng)的失真敏感度因子的乘積的總和作為所述幀的失真總和。
全文摘要
提供一種視頻序列失真評(píng)價(jià)方法和裝置。所述評(píng)價(jià)方法包括對(duì)視頻序列每一幀中各局部區(qū)域失真,使用其所在位置的紋理強(qiáng)度因子、注視點(diǎn)距離因子、運(yùn)動(dòng)強(qiáng)度因子以及失真面積因子獲得其對(duì)應(yīng)的失真敏感度因子,將每一幀中各局部區(qū)域失真與其對(duì)應(yīng)的失真敏感度因子的乘積的總和作為所述幀的失真總和;對(duì)視頻序列每一幀,根據(jù)其相鄰若干幀各幀的失真總和,獲得所述幀的失真總和修正值;根據(jù)每一幀在視頻序列中的對(duì)應(yīng)時(shí)刻獲得所述幀的時(shí)域權(quán)值,計(jì)算所有幀的失真總和修正值與其對(duì)應(yīng)的時(shí)域權(quán)值的乘積的總和,除以一個(gè)歸一化數(shù)值,得到所述視頻序列的平均失真。由本發(fā)明得到的視頻序列平均失真與主觀視頻質(zhì)量評(píng)估結(jié)果具有較高的一致性。
文檔編號(hào)H04N17/00GK102769772SQ20111011528
公開日2012年11月7日 申請(qǐng)日期2011年5月5日 優(yōu)先權(quán)日2011年5月5日
發(fā)明者虞露, 趙寅 申請(qǐng)人:浙江大學(xué)
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1