亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于幀間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法

文檔序號(hào):10616346閱讀:177來源:國知局
一種基于幀間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法
【專利摘要】本發(fā)明公開了一種基于幀間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法,根據(jù)客觀視頻質(zhì)量評(píng)價(jià)模型計(jì)算出視頻每一幀的預(yù)測分?jǐn)?shù),對(duì)其進(jìn)行滑窗均值處理,再將滑窗后的結(jié)果進(jìn)行排序,取其中最差的部分幀的均值作為最終對(duì)整個(gè)視頻序列的預(yù)測分?jǐn)?shù)。本發(fā)明在現(xiàn)有時(shí)域融合方法上,有效的提高了客觀視頻質(zhì)量評(píng)價(jià)算法的性能,是一種簡單、有效、符合人類視覺特性的時(shí)域信息融合方法;與已有的均值融合方法相比誤差較小,符合人眼實(shí)際評(píng)估的結(jié)果;考慮視頻幀與幀之間的影響,效果很好。本發(fā)明既考慮了人眼的延遲效應(yīng),還考慮了幀與幀間的聯(lián)系,使用滑窗均值處理各幀的數(shù)據(jù),使得估計(jì)準(zhǔn)確性大大提升。
【專利說明】
-種基于順間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法
技術(shù)領(lǐng)域
[0001] 本發(fā)明屬于數(shù)字視頻處理技術(shù)領(lǐng)域,尤其設(shè)及一種基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí) 域信息融合方法。
【背景技術(shù)】
[0002] 經(jīng)過近=十年多媒體通信技術(shù)和視頻壓縮技術(shù)的高速發(fā)展,越來越多的通信數(shù)據(jù) 依賴視頻圖像的形式出現(xiàn)。相對(duì)于其他通信數(shù)據(jù),視頻可W承載更真切更豐富也更容易被 人類大腦接收和處理的數(shù)據(jù),給人更直觀、生動(dòng)的形象。視頻信息傳輸已成為工業(yè)通信和多 媒體服務(wù)中不可缺少的重要組成部分。然而數(shù)字視頻數(shù)據(jù)在采集、處理、壓縮、傳輸W及再 現(xiàn)過程中會(huì)受到噪聲等各種因素的影響,產(chǎn)生各種失真,進(jìn)而會(huì)影響到視覺觀看效果。而人 類對(duì)信息加工在很大程度上依賴于視覺,約有80%-90%的外界信息是通過人的眼睛獲得 的。因此數(shù)字視頻的感知質(zhì)量也成為了衡量視頻處理和通信系統(tǒng)好壞的一個(gè)重要指標(biāo)。視 頻的感知質(zhì)量的評(píng)估也構(gòu)成了視頻處理和通信系統(tǒng)的重要組成部分。視頻質(zhì)量評(píng)價(jià)(VQA, Video Quality Assessment)處理的是對(duì)視頻序列感知質(zhì)量的預(yù)測。而在運(yùn)一過程中,如何 融合局部質(zhì)量分?jǐn)?shù)來預(yù)測對(duì)整個(gè)圖像或視頻的質(zhì)量度量是一個(gè)很重要的問題,會(huì)直接影響 到VQA算法最終的性能。一個(gè)使用最普遍,也最簡單的方法就是使用所有局部分?jǐn)?shù)的均值作 為最終的預(yù)測結(jié)果。然而均值融合方法雖然簡單,卻與人類評(píng)估視頻質(zhì)量的方式并不是一 致的。在進(jìn)行視頻質(zhì)量評(píng)估時(shí),觀察者更容易關(guān)注到失真比較嚴(yán)重的區(qū)域。發(fā)生在局部帖間 的嚴(yán)重失真是觀察者進(jìn)行視頻質(zhì)量評(píng)價(jià)的重要線索和依據(jù)。基于W上考慮,A.K.Moorthy于 2009年提出了一種Percentile融合方法,即使用所有質(zhì)量分?jǐn)?shù)中最低的P%個(gè)分?jǐn)?shù)來預(yù)測 最終的結(jié)果。相對(duì)于平均值融合方法,運(yùn)種改進(jìn)提高了 VQA的性能。但是還有很大的改進(jìn)空 間。除了運(yùn)兩種常用的方式外,還有Minkowski求和、指數(shù)加權(quán)的Minkowski求和、直方圖W 及機(jī)器學(xué)習(xí)等時(shí)域融合方法,然而運(yùn)些方法效果還有待提高。
[0003] W上的方法中,從復(fù)雜度及性能上看,均值融合方法沒有參數(shù)操作最為簡單,但不 符合人類評(píng)估視頻質(zhì)量的方式,效果欠佳;Percent i Ie融合方法效果較好,但沒有考慮帖間 聯(lián)系,還有很大的改進(jìn)空間。

【發(fā)明內(nèi)容】

[0004] 本發(fā)明的目的在于提供一種基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法,旨在 解決視頻質(zhì)量評(píng)價(jià)中如何由局部質(zhì)量分?jǐn)?shù)預(yù)測對(duì)整個(gè)視頻的質(zhì)量度量的問題。
[0005] 本發(fā)明是運(yùn)樣實(shí)現(xiàn)的,一種基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法,所述 基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法根據(jù)客觀視頻質(zhì)量評(píng)價(jià)模型計(jì)算出視頻每 一帖的預(yù)測分?jǐn)?shù),進(jìn)行滑窗均值處理;再將滑窗后的結(jié)果進(jìn)行排序,取其中最差的部分帖的 均值作為最終對(duì)整個(gè)視頻序列的預(yù)測分?jǐn)?shù)。
[0006] 進(jìn)一步,所述基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法包括W下步驟:
[0007] 步驟一、選取客觀視頻質(zhì)量評(píng)價(jià)模型0M,通過比較原始參考視頻和失真視頻,計(jì)算 失真視頻每帖的預(yù)測分值,例如使用PSNR質(zhì)量評(píng)價(jià)模型時(shí),每帖的預(yù)測分值即為視頻序列 每一帖的PSNR指標(biāo)值。并將獲取的帖級(jí)分?jǐn)?shù)標(biāo)記為矢量X,視頻總帖數(shù)標(biāo)記為N;
[0008] 步驟二、人眼在看東西時(shí)具有一定的延遲特性。此外,在進(jìn)行主觀視頻質(zhì)量評(píng)價(jià) 時(shí),較前時(shí)刻的帖的質(zhì)量對(duì)后面時(shí)刻的帖的評(píng)價(jià)也有對(duì)比與記憶的影響。本發(fā)明同時(shí)考慮 人眼的延遲效應(yīng)和視頻中帖與帖間的聯(lián)系,將客觀質(zhì)量評(píng)價(jià)模型(此處標(biāo)記為OM模型)計(jì)算 出來的所有帖級(jí)分?jǐn)?shù)依次進(jìn)行滑窗處理。滑窗具有延遲特性,帖與帖間的聯(lián)系我們使用窗 口內(nèi)取均值來描述。設(shè)滑動(dòng)窗口的窗口長度為WhLen,對(duì)步驟一中所獲得的每帖的預(yù)測分 值,也就是帖級(jí)質(zhì)量分?jǐn)?shù)進(jìn)行滑窗處理,即處理后第n帖的帖級(jí)分?jǐn)?shù)為[n-winLen+l,n]帖的 帖級(jí)分?jǐn)?shù)的均值,將滑窗處理后的帖級(jí)分?jǐn)?shù)標(biāo)記為矢量WX;
[0009] 步驟S、將WX由小到大進(jìn)行排序,并將排序后的結(jié)果標(biāo)記為WX',取最差的P%帖的 平均值,作為整個(gè)視頻序列的質(zhì)量度量分值。WPSNR為例,PSNR值越大說明視頻質(zhì)量越好。 設(shè)視頻總帖數(shù)為N,計(jì)算所有的帖級(jí)質(zhì)量分?jǐn)?shù)后共可W求出N個(gè)PSNR值。PSNR滑窗處理后的 帖級(jí)分?jǐn)?shù)標(biāo)記為WX(PSNR),將WX(PSNI〇由小到大進(jìn)行排序,其WX(PSNR)值最小的P%帖的帖 級(jí)分?jǐn)?shù)的均值即排序后第1個(gè)至第(P%*N)個(gè)WX(PSNR)的均值則為最終度量結(jié)果。
[0010] 講一巧,將OM橫巧計(jì)貸出夾的所有頓級(jí)分?jǐn)?shù)依次進(jìn)行滑窗處理,即:
[0011]
[0012] 其中,WinLen表示滑窗濾波時(shí)的窗口長度,是需要調(diào)節(jié)的參數(shù),X(t)表示第t帖的 質(zhì)量分?jǐn)?shù),WX(n)則表示滑窗處理后的第n帖的質(zhì)量分?jǐn)?shù)。
[0013] 進(jìn)一步,使用基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法對(duì)預(yù)測帖級(jí)分?jǐn)?shù)進(jìn)行 融合,最終的預(yù)測分?jǐn)?shù):
[0014]
[001引其中,P %為待調(diào)參數(shù),N為視頻總帖數(shù),WX '( t)表示由小到大進(jìn)行排序后的第t個(gè) 帖級(jí)分?jǐn)?shù),OMwinPDDling為該視頻的質(zhì)量的最終評(píng)價(jià)結(jié)果。
[0016]本發(fā)明提供的基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法,在化rcentile融合 方法上進(jìn)行了改進(jìn),同時(shí)考慮人眼延遲特性W及視頻序列帖間的聯(lián)系,最不同的客觀視頻 質(zhì)量評(píng)價(jià)算法性能都有改進(jìn)。本發(fā)明的復(fù)雜度不高,便于實(shí)現(xiàn)。主要是適用于基于帖級(jí)質(zhì)量 計(jì)算的客觀視頻質(zhì)量評(píng)價(jià)算法;在已有的效果較好的化rcentile融合方法上進(jìn)行改進(jìn),考 慮人眼的延遲效應(yīng)W及視頻帖與帖間的聯(lián)系,使Percentile融合方法的效果得到改善;在 使用同一客觀視頻質(zhì)量評(píng)價(jià)算法時(shí),使用基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域融合方法,最終 的PCC和SROOC系數(shù)相較于平均值融合方法和化rcentiIe融合方法都有提升,同時(shí)其RMSE值 也有很大程度的降低,表明基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域融合方法在一定程度上提升了 各算法的性能;相比已有的均值融合方法直接求所有帖的均值作為最終的預(yù)測結(jié)果,計(jì)算 雖然簡單,但是誤差很大,不太符合人眼實(shí)際評(píng)估的結(jié)果;W及化rcentile融合方法,使用 所有質(zhì)量分?jǐn)?shù)中最低的P%的分?jǐn)?shù)來預(yù)測最終的結(jié)果,雖然考慮了人眼對(duì)質(zhì)量比較差的地 方更關(guān)注,但沒有考慮視頻帖與帖之間的影響,效果還有提升空間。本發(fā)明既考慮了人眼的 延遲效應(yīng),還考慮了帖與帖間的聯(lián)系,使用滑窗均值處理各帖的數(shù)據(jù),使得估計(jì)準(zhǔn)確性大大 提升。
【附圖說明】
[0017] 圖1是本發(fā)明實(shí)施例提供的基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法流程 圖。
[0018] 圖2是本發(fā)明實(shí)施例提供的滑窗處理過程示意圖。
[0019] 圖3是本發(fā)明實(shí)施例提供的基于局部最差方法示例示意圖。
【具體實(shí)施方式】
[0020] 為了使本發(fā)明的目的、技術(shù)方案及優(yōu)點(diǎn)更加清楚明白,W下結(jié)合實(shí)施例,對(duì)本發(fā)明 進(jìn)行進(jìn)一步詳細(xì)說明。應(yīng)當(dāng)理解,此處所描述的具體實(shí)施例僅僅用W解釋本發(fā)明,并不用于 限定本發(fā)明。
[0021] 下面結(jié)合附圖對(duì)本發(fā)明的應(yīng)用原理作詳細(xì)的描述。
[0022] 如圖1所示:一種基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域融合方法,選用視頻質(zhì)量評(píng)價(jià)領(lǐng) 域中比較權(quán)威的,引用比較廣泛的LIVE視頻質(zhì)量評(píng)價(jià)數(shù)據(jù)庫中的視頻,進(jìn)行測試,該基于帖 間關(guān)聯(lián)與時(shí)隙最差的時(shí)域融合方法包括W下步驟:
[0023] SlOl:開始;
[0024] S102:選取一種客觀視頻質(zhì)量評(píng)價(jià)模型0M,通過比較原始參考視頻和失真視頻,計(jì) 算失真視頻每帖的預(yù)測分值,并將獲取的帖級(jí)分?jǐn)?shù)標(biāo)記為矢量X,視頻總帖數(shù)標(biāo)記為N;
[002引 S103:設(shè)置初始參數(shù):窗日長度L和P% ;
[0026] S104:帖級(jí)質(zhì)量分?jǐn)?shù)X進(jìn)行滑窗處理,即處理后第n帖的帖級(jí)分?jǐn)?shù)為[n-L+l,n]帖的
帖級(jí)分滬6川心古、晚'惟泡AkTK 標(biāo)記為矢量WX,即
[0027]
[002引所述處理過程如圖1所示。
[0029] S105:將WX由小到大進(jìn)行排序,并將排序后的結(jié)果標(biāo)記為WX'。取最差的P%帖的平 均值,作為整個(gè)視頻序列的質(zhì)量度量分值,OM,即:
[0030]
[0031] 所述處理過程如圖2所示。
[0032] S106:對(duì)預(yù)測結(jié)果OM進(jìn)行非線性擬合,并與數(shù)據(jù)庫給出的主觀分?jǐn)?shù)作比較,計(jì)算預(yù) 測的性能評(píng)估指標(biāo)值;
[0033] S107:判斷是否當(dāng)將參數(shù)設(shè)置為L和P%時(shí)所獲得的性能指標(biāo)值最好,若是,貝峭b至 S108結(jié)束操作,基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域融合方法中的兩參數(shù)最佳值為L和P%;若 否,則返回S103,重新修改窗口長度和百分比兩個(gè)參數(shù),重復(fù)操作,直至找到最佳參數(shù)。
[0034] S108:結(jié)束。
[0035] 依據(jù)W上步驟最終得到基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域融合方法的兩個(gè)最佳參 數(shù)及客觀視頻質(zhì)量評(píng)價(jià)模型最終預(yù)測結(jié)果。
[0036] 下面結(jié)合具體實(shí)施例對(duì)本發(fā)明的應(yīng)用原理作進(jìn)一步的描述。
[0037] 本發(fā)明是運(yùn)樣實(shí)現(xiàn)的,先選取某種客觀視頻評(píng)價(jià)算法,通過該算法先行計(jì)算視頻 每一帖的質(zhì)量分?jǐn)?shù),然后使用該種基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域融合方法對(duì)運(yùn)些帖級(jí)分 數(shù)進(jìn)行融合,最后得到對(duì)整個(gè)視頻的質(zhì)量度量值,W實(shí)現(xiàn)對(duì)視頻進(jìn)行質(zhì)量評(píng)價(jià)的目的。該種 基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域融合方法包括W下步驟:
[0038] 步驟一、選取一種客觀視頻質(zhì)量評(píng)價(jià)模型0M,通過比較原始參考視頻和失真視頻, 計(jì)算失真視頻每帖的預(yù)測分值,并將獲取的帖級(jí)分?jǐn)?shù)標(biāo)記為矢量X;
[0039] 步驟二、人眼在看東西時(shí)具有一定的延遲特性。此外,在進(jìn)行主觀視頻質(zhì)量評(píng)價(jià) 時(shí),較前時(shí)刻的帖的質(zhì)量對(duì)后面時(shí)刻的帖的評(píng)價(jià)也有對(duì)比與記憶的影響。本發(fā)明同時(shí)考慮 人眼的延遲效應(yīng)和視頻中帖與帖間的聯(lián)系,將OM模型計(jì)算出來的所有帖級(jí)分?jǐn)?shù)依次進(jìn)行滑 窗處理?;熬哂醒舆t特性,帖與帖間的聯(lián)系此處由窗口內(nèi)取均值來描述。假設(shè)滑動(dòng)窗口的 窗口長度為WhLen,對(duì)上一步驟中獲得的帖級(jí)質(zhì)量分?jǐn)?shù)進(jìn)行滑窗處理,即處理后第n帖的帖 級(jí)分?jǐn)?shù)為[n-winLen+1,n ]帖的帖級(jí)分?jǐn)?shù)的均值,并將滑窗處理后的帖級(jí)分?jǐn)?shù)標(biāo)記為矢量 WX,即
[0040]
[0041] 所述處理過程閣2:
[0042] 步驟S、將WX由小到大進(jìn)行排序,并將排序后的結(jié)果標(biāo)記為WX'。取最差的P%帖的 平均值,作為整個(gè)視頻序列的質(zhì)量度量分值。WPSNR為例,PSNR值越大說明視頻質(zhì)量越好。 PSNR滑窗處理后的帖級(jí)分?jǐn)?shù)標(biāo)記為WX(PSNR),將WX(PSNR)進(jìn)行排序,其最小的P%帖的帖級(jí) 分?jǐn)?shù)跨K畝刪兩爲(wèi)激睛吾結(jié)軍-郵.
[0043]
[0044] 所述處理過程圖3。
[0045] 在步驟二和步驟S中,有兩個(gè)需要調(diào)節(jié)的參數(shù),即窗口長度WhLen和百分比P%。 在實(shí)際實(shí)現(xiàn)中,可W先固定其中一個(gè),在調(diào)節(jié)另一個(gè)參數(shù)。然后改變第一個(gè)參數(shù)的值,繼續(xù) 調(diào)節(jié)第二個(gè)參數(shù)。如此反復(fù),直至得到最佳結(jié)果。
[0046] 為了對(duì)時(shí)域融合算法性能客觀的分析,此處選用了四種在工業(yè)界及學(xué)術(shù)研究領(lǐng)域 使用比較廣泛的客觀視頻質(zhì)量評(píng)價(jià)算法模型一PSNR、VSNR、SSIMW及MS-SSIM。運(yùn)幾種方法 都是基于帖級(jí)質(zhì)量計(jì)算的客觀視頻質(zhì)量評(píng)價(jià)算法,一般都是采用平均值融合方法進(jìn)行時(shí)域 融合的。在評(píng)估視頻質(zhì)量評(píng)價(jià)算法的性能時(shí),通常需要先對(duì)算法預(yù)測出來的質(zhì)量分?jǐn)?shù)進(jìn)行 一次非線性擬合。此處分析同樣遵循運(yùn)樣的流程,采用的擬合函數(shù)為視頻質(zhì)量評(píng)價(jià)專家組 (VQEG,Video 如alityExperts Group)推薦的:
[0047]
[004引其中Qk代表客觀模型預(yù)測出來的分?jǐn)?shù),Q^k則代表擬合后的分?jǐn)?shù)。將數(shù)據(jù)庫發(fā)布的 主觀視頻質(zhì)量評(píng)價(jià)結(jié)果標(biāo)記為DM0S,則客觀模型預(yù)測分?jǐn)?shù)擬合的初始參數(shù)設(shè)為Pi = Hiax (DMOS) ,02=min(DMOS),03=mean(Qh),化=1。
[0049]客觀視頻質(zhì)量評(píng)價(jià)算法性能主要可W由=個(gè)性能指標(biāo)進(jìn)行評(píng)估,包括皮爾森相關(guān) 系數(shù)(PCC,The F*earson Correlation Coefficient)、斯皮爾曼秩相關(guān)系數(shù)(SR0CC,The Spearman Rank Order Correlation Coefficient)和均方根誤差(RMSE,The Root Mean Square化roiOePCC是預(yù)測分?jǐn)?shù)與主觀分?jǐn)?shù)DMOS的線性相關(guān)系數(shù),描述的是客觀評(píng)價(jià)模型 的預(yù)測準(zhǔn)確度;SROOC是預(yù)測分?jǐn)?shù)與主觀分?jǐn)?shù)DMOS相關(guān)系數(shù),描述的是是客觀評(píng)價(jià)模型的預(yù) 測單調(diào)性;RMSE則描述的是預(yù)測分?jǐn)?shù)的準(zhǔn)確程度。
[0050]本發(fā)明復(fù)雜度不高,便于實(shí)現(xiàn)。主要是適用于基于帖級(jí)質(zhì)量計(jì)算的客觀視頻質(zhì)量 評(píng)價(jià)算法。本發(fā)明在已有的效果較好的化rcentile融合方法上進(jìn)行改進(jìn),考慮人眼的延遲 效應(yīng)W及視頻帖與帖間的聯(lián)系,使化rcentile融合方法的效果得到改善。具體實(shí)驗(yàn)數(shù)據(jù)由 表1、表2和表3給出。
[0化1] 親1 _ PfT結(jié)單 [0化2]
[0化3]
[0化4]
[0化5]
[0化6] 123 表1、表2和表3給出了四種客觀視頻質(zhì)量評(píng)價(jià)模型在分別使用不同的時(shí)域融合方 法時(shí)的性能指標(biāo)值。由表1、表2、表3表明,在使用同一客觀視頻質(zhì)量評(píng)價(jià)算法時(shí),使用基于 帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域融合方法,最終的PCC和SROOC系數(shù)相較于平均值融合方法和 化rcentile融合方法都有提升,同時(shí)其RMSE值也有很大程度的降低,表明基于帖間關(guān)聯(lián)與 時(shí)隙最差的時(shí)域融合方法在一定程度上提升了各算法的性能。 2
[005引相比已有的均值融合方法直接求所有帖的均值作為最終的預(yù)測結(jié)果,計(jì)算雖然簡 單,但是誤差很大,不太符合人眼實(shí)際評(píng)估的結(jié)果;W及化rcentile融合方法,使用所有質(zhì) 量分?jǐn)?shù)中最低的P%的分?jǐn)?shù)來預(yù)測最終的結(jié)果,雖然考慮了人眼對(duì)質(zhì)量比較差的地方更關(guān) 注,但沒有考慮視頻帖與帖之間的影響,效果還有提升空間。本發(fā)明既考慮了人眼的延遲效 應(yīng),還考慮了帖與帖間的聯(lián)系,使用滑窗均值處理各帖的數(shù)據(jù),使得估計(jì)準(zhǔn)確性大大提升。 3 W上所述僅為本發(fā)明的較佳實(shí)施例而已,并不用W限制本發(fā)明,凡在本發(fā)明的精 神和原則之內(nèi)所作的任何修改、等同替換和改進(jìn)等,均應(yīng)包含在本發(fā)明的保護(hù)范圍之內(nèi)。
【主權(quán)項(xiàng)】
1. 一種基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法,其特征在于,所述基于帖間關(guān) 聯(lián)與時(shí)隙最差的時(shí)域信息融合方法根據(jù)客觀視頻質(zhì)量評(píng)價(jià)模型計(jì)算出視頻每一帖的預(yù)測 分?jǐn)?shù),進(jìn)行滑窗均值處理;再將滑窗后的結(jié)果進(jìn)行排序,取其中最差的部分帖的均值作為最 終對(duì)整個(gè)視頻序列的預(yù)測分?jǐn)?shù)。2. 如權(quán)利要求1所述的基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法,其特征在于,所 述基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法包括W下步驟: 步驟一、選取客觀視頻質(zhì)量評(píng)價(jià)模型0M,通過比較原始參考視頻和失真視頻,計(jì)算失真 視頻每帖的預(yù)測分值,并將獲取的帖級(jí)分?jǐn)?shù)標(biāo)記為矢量X,視頻總帖數(shù)標(biāo)記為N; 步驟二、滑動(dòng)窗口的窗口長度為whLen,對(duì)獲得的帖級(jí)質(zhì)量分?jǐn)?shù)進(jìn)行滑窗處理,即處理 后第η帖的帖級(jí)分?jǐn)?shù)為[n-winLen+l,n]帖的帖級(jí)分?jǐn)?shù)的均值,將滑窗處理后的帖級(jí)分?jǐn)?shù)標(biāo) 記為矢量WX; 步驟Ξ、將WX由小到大進(jìn)行排序,并將排序后的結(jié)果標(biāo)記為WX',取最差的P%帖的平均 值,作為整個(gè)視頻序列的質(zhì)量度量分值,進(jìn)行排序,最小的P%帖均值即為最終度量結(jié)果。3. 如權(quán)利要求2所述的基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法,其特征在于,將 0M模型計(jì)算出來的所有帖級(jí)分?jǐn)?shù)依次進(jìn)行滑窗處理,即:其中,winLen表示滑窗濾波時(shí)的窗口長度,是需要調(diào)節(jié)的參數(shù),X(t)表示第t帖的質(zhì)量 分?jǐn)?shù),WX(n)則表示滑窗處理后的第η帖的質(zhì)量分?jǐn)?shù)。4. 如權(quán)利要求2所述的基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法,其特征在于,使 用基于帖間關(guān)聯(lián)與時(shí)隙最差的時(shí)域信息融合方法對(duì)預(yù)測帖級(jí)分?jǐn)?shù)進(jìn)行融合,最終的預(yù)測分 數(shù):其中,Ρ%為待調(diào)參數(shù),Ν為視頻總帖數(shù),WX'(t)表示由小到大進(jìn)行排序后的第t個(gè)帖級(jí) 分?jǐn)?shù),OMwinPDDling為該視頻的質(zhì)量的最終評(píng)價(jià)結(jié)果。
【文檔編號(hào)】H04N19/109GK105979266SQ201610297994
【公開日】2016年9月28日
【申請(qǐng)日】2016年5月6日
【發(fā)明人】宋銳, 祝桂林, 胡銀林, 賈媛, 李云松, 王養(yǎng)利
【申請(qǐng)人】西安電子科技大學(xué)
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1