亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

基于雙目融合特征相似度的無參考立體圖像質(zhì)量評價方法與流程

文檔序號:11996125閱讀:234來源:國知局
本發(fā)明涉及一種立體圖像質(zhì)量客觀評價方法,尤其是涉及一種基于雙目融合特征相似度的無參考立體圖像質(zhì)量評價方法。

背景技術(shù):
進入二十一世紀以來,隨著立體圖像/視頻系統(tǒng)處理技術(shù)的日趨成熟,以及計算機網(wǎng)絡(luò)與通信技術(shù)的快速發(fā)展,已引起人們對立體圖像/視頻系統(tǒng)的強烈需求。相比傳統(tǒng)的單視點圖像/視頻系統(tǒng),立體圖像/視頻系統(tǒng)由于能夠提供深度信息來增強視覺的真實感,給用戶以身臨其境的全新視覺體驗而越來越受到人們的歡迎,已被認為是下一代媒體主要的發(fā)展方向,已引發(fā)了學術(shù)界、產(chǎn)業(yè)界的廣泛關(guān)注。然而,人們?yōu)榱双@得更好的立體臨場感和視覺體驗,對立體視覺主觀感知質(zhì)量提出了更高的要求。在立體圖像/視頻系統(tǒng)中,采集、編碼、傳輸、解碼及顯示等處理環(huán)節(jié)都會引入一定失真,這些失真將對立體視覺主觀感知質(zhì)量產(chǎn)生不同程度的影響,因此如何有效地進行無參考質(zhì)量評價是亟需解決的難點問題。綜上,評價立體圖像質(zhì)量,并建立與主觀質(zhì)量評價相一致的客觀評價模型顯得尤為重要。目前,研究人員提出了不少針對單視點視覺質(zhì)量的無參考評價方法,然而由于缺乏系統(tǒng)理論深入研究立體視覺感知特性,因此還沒有有效地無參考立體圖像質(zhì)量評價方法。相比單視點視覺質(zhì)量無參考評價模型,無參考立體圖像質(zhì)量評價模型需要考慮不同失真類型立體掩蔽效應(yīng)以及與之相關(guān)的雙目競爭/抑制和雙目融合等立體感知因素對視覺質(zhì)量的影響。因此,不能簡單地把現(xiàn)有的單視點視覺質(zhì)量無參考評價模型直接擴展到無參考立體圖像質(zhì)量評價方法中?,F(xiàn)有的無參考質(zhì)量客觀評價方法主要是通過機器學習來預測評價模型的,但針對立體圖像,現(xiàn)有的立體圖像評價方法還是平面圖像評價方法的簡單擴展,并沒有考慮雙目視覺特性,因此,如何在評價過程中有效地提取特征信息,在評價過程中進行雙目視覺特性結(jié)合,使得客觀評價結(jié)果更加符合人類視覺感知系統(tǒng),是立體圖像進行客觀質(zhì)量評價過程中需要研究解決的問題。

技術(shù)實現(xiàn)要素:
本發(fā)明所要解決的技術(shù)問題是提供一種基于雙目融合特征相似度的無參考立體圖像質(zhì)量評價方法,其能夠充分考慮到立體視覺感知特性,從而能夠有效地提高客觀評價結(jié)果與主觀感知之間的相關(guān)性。本發(fā)明解決上述技術(shù)問題所采用的技術(shù)方案為:一種基于雙目融合特征相似度的無參考立體圖像質(zhì)量評價方法,其特征在于包括以下步驟:①令Sdis表示待評價的失真立體圖像,將Sdis的左視點圖像記為{Ldis(x,y)},將Sdis的右視點圖像記為{Rdis(x,y)};然后采用塊匹配方法,計算{Ldis(x,y)}與{Rdis(x,y)}之間的視差圖像,記為{ddis(x,y)};其中,1≤x≤W,1≤y≤H,W表示Sdis的寬度,H表示Sdis的高度,Ldis(x,y)表示{Ldis(x,y)}中坐標位置為(x,y)的像素點的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐標位置為(x,y)的像素點的像素值,ddis(x,y)表示{ddis(x,y)}中坐標位置為(x,y)的像素點的像素值;②采用Gabor濾波方法對{Ldis(x,y)}進行操作,得到左視點響應(yīng)圖,記為{GL,dis(x,y)};并采用LOG濾波方法對{Ldis(x,y)}進行操作,得到左視點視覺特征圖,記為{FL,dis(x,y)};其中,GL,dis(x,y)表示{GL,dis(x,y)}中坐標位置為(x,y)的像素點的像素值,F(xiàn)L,dis(x,y)表示{FL,dis(x,y)}中坐標位置為(x,y)的像素點的像素值;同樣,采用Gabor濾波方法對{Rdis(x,y)}進行操作,得到右視點響應(yīng)圖,記為{GR,dis(x,y)};并采用LOG濾波方法對{Rdis(x,y)}進行操作,得到右視點視覺特征圖,記為{FR,dis(x,y)};其中,GR,dis(x,y)表示{GR,dis(x,y)}中坐標位置為(x,y)的像素點的像素值,F(xiàn)R,dis(x,y)表示{FR,dis(x,y)}中坐標位置為(x,y)的像素點的像素值;③根據(jù){Ldis(x,y)}和{Rdis(x,y)}、{GL,dis(x,y)}和{GR,dis(x,y)}、{ddis(x,y)},計算Sdis的左右視點融合圖像,記為{RL,R,dis(x,y)},其中,RL,R,dis(x,y)表示{RL,R,dis(x,y)}中坐標位置為(x,y)的像素點的像素值;④根據(jù){FL,dis(x,y)}和{FR,dis(x,y)}、{GL,dis(x,y)}和{GR,dis(x,y)}、{ddis(x,y)},計算Sdis的左右視點融合視覺特征圖,記為{FL,R,dis(x,y)},其中,F(xiàn)L,R,dis(x,y)表示{FL,R,dis(x,y)}中坐標位置為(x,y)的像素點的像素值;⑤計算{RL,R,dis(x,y)}與{FL,R,dis(x,y)}之間的自相似度圖像,記為{Hdis,sim(x,y)},其中,Hdis,sim(x,y)表示{Hdis,sim(x,y)}中坐標位置為(x,y)的像素點的像素值;⑥采用量化方法對{Hdis,sim(x,y)}進行處理,得到{Hdis,sim(x,y)}的量化圖像,記為{Hdis,sim,Q(x,y)};并采用局部二值化模式操作對{Hdis,sim(x,y)}進行處理,得到{Hdis,sim(x,y)}的局部二值化模式圖像,記為{Hdis,sim,lbp(x,y)};其中,Hdis,sim,Q(x,y)表示{Hdis,sim,Q(x,y)}中坐標位置為(x,y)的像素點的像素值,Hdis,sim,lbp(x,y)表示{Hdis,sim,lbp(x,y)}中坐標位置為(x,y)的像素點的像素值;⑦采用直方圖統(tǒng)計方法對{Hdis,sim,Q(x,y)}進行統(tǒng)計操作,得到{Hdis,sim,Q(x,y)}的直方圖統(tǒng)計特征向量,記為Hdis,sim,Q,hist;同樣,采用直方圖統(tǒng)計方法對{Hdis,sim,lbp(x,y)}進行統(tǒng)計操作,得到{Hdis,sim,lbp(x,y)}的直方圖統(tǒng)計特征向量,記為Hdis,sim,lbp,hist;其中,Hdis,sim,Q,hist的維數(shù)為1×m'維,Hdis,sim,Q,hist中的第m個元素為Hdis,sim,Q,hist(m),Hdis,sim,lbp,hist的維數(shù)為1×m'維,Hdis,sim,lbp,hist中的第m個元素為Hdis,sim,lbp,hist(m),1≤m≤m',m'=P+2,P表示局部二值化模式操作中的領(lǐng)域參數(shù);⑧采用n”幅原始的無失真立體圖像,建立其在不同失真類型不同失真程度下的失真立體圖像集合,將該失真立體圖像集合作為訓練集,訓練集包括多幅失真立體圖像;然后利用主觀質(zhì)量評價方法評價出訓練集中的每幅失真立體圖像的平均主觀評分值,將訓練集中的第j幅失真立體圖像的平均主觀評分值記為DMOSj;再按照步驟①至步驟⑦的操作,以相同的方式獲取訓練集中的每幅失真立體圖像對應(yīng)的自相似度圖像的量化圖像的直方圖統(tǒng)計特征向量和自相似度圖像的局部二值化模式圖像的直方圖統(tǒng)計特征向量,將訓練集中的第j幅失真立體圖像對應(yīng)的自相似度圖像的量化圖像的直方圖統(tǒng)計特征向量和自相似度圖像的局部二值化模式圖像的直方圖統(tǒng)計特征向量分別記為Hj,sim,Q,hist和Hj,sim,lbp,hist;其中,n”>1,1≤j≤N',N'表示訓練集中包含的失真立體圖像的總幅數(shù),0≤DMOSj≤100,Hj,sim,Q,hist和Hj,sim,lbp,hist的維數(shù)均為1×m'維;⑨計算Sdis對應(yīng)的直方圖統(tǒng)計特征向量與訓練集中的每幅失真立體圖像對應(yīng)的直方圖統(tǒng)計特征向量之間的距離,將Sdis對應(yīng)的直方圖統(tǒng)計特征向量與訓練集中的第j幅失真立體圖像對應(yīng)的直方圖統(tǒng)計特征向量之間的距離記為Ddis,j,Ddis,j=|Hdis,sim,Q,hist-Hj,sim,Q,hist|+|Hdis,sim,lbp,hist-Hj,sim,lbp,hist|,并將這N'個距離構(gòu)成的集合記為{Ddis,j|1≤j≤N'},其中,符號“||”為取絕對值符號;然后對{Ddis,j|1≤j≤N'}中的所有距離按從小到大的順序排列,將排列后的集合記為{D'dis,j|1≤j≤N'};接著獲取{D'dis,j|1≤j≤N'}中的前K個距離各自對應(yīng)的訓練集中的失真立體圖像的平均主觀評分值,并將這K個平均主觀評分值構(gòu)成的集合記為{DMOS'1,DMOS'2,…,DMOS'K},其中,1≤K≤N',DMOS'1,DMOS'2,…,DMOS'K對應(yīng)表示{D'dis,j|1≤j≤N'}中的第1個距離對應(yīng)的訓練集中的失真立體圖像的平均主觀評分值、第2個距離對應(yīng)的訓練集中的失真立體圖像的平均主觀評分值、…、第K個距離對應(yīng)的訓練集中的失真立體圖像的平均主觀評分值。⑩計算Sdis的客觀質(zhì)量評價預測值,記為Qdis,其中,D'dis,k表示{D'dis,j|1≤j≤N'}中的第k個距離,DMOS'k表示D'dis,k對應(yīng)的訓練集中的失真立體圖像的平均主觀評分值。所述的步驟③中的,其中,Rdis(x+ddis(x,y),y)表示{Rdis(x,y)}中坐標位置為(x+ddis(x,y),y)的像素點的像素值,GR,dis(x+ddis(x,y),y)表示{GR,dis(x,y)}中坐標位置為(x+ddis(x,y),y)的像素點的像素值。所述的步驟④中的,其中,F(xiàn)R,dis(x+ddis(x,y),y)表示{FR,dis(x,y)}中坐標位置為(x+ddis(x,y),y)的像素點的像素值,GR,dis(x+ddis(x,y),y)表示{GR,dis(x,y)}中坐標位置為(x+ddis(x,y),y)的像素點的像素值。所述的步驟⑤中的其中,C為控制參數(shù)。所述的步驟⑥中的局部二值化模式操作中的領(lǐng)域參數(shù)P取值為8,且局部半徑參數(shù)R取值為1。與現(xiàn)有技術(shù)相比,本發(fā)明的優(yōu)點在于:1)本發(fā)明方法采用雙目融合模型,對左視點圖像和右視點圖像進行融合,得到左右視點融合圖像;同時對左視點視覺特征圖和右視點視覺特征圖進行融合,得到左右視點融合視覺特征圖,得到的左右視點融合圖像和左右視點融合視覺特征圖能夠很好的模擬雙目(立體)視覺感知特性。2)本發(fā)明方法在充分利用了雙目視覺感知特性的基礎(chǔ)上,獲取了左右視點融合圖像與左右視點融合視覺特征圖之間的自相似度圖像,自相似度圖像作為雙目視覺感知特性信息能夠有效地表示主觀視覺特性,因此能有效地提高客觀評價結(jié)果與主觀感知之間的相關(guān)性。附圖說明圖1為本發(fā)明方法的總體實現(xiàn)框圖。具體實施方式以下結(jié)合附圖實施例對本發(fā)明作進一步詳細描述。本發(fā)明提出的一種基于雙目融合特征相似度的無參考立體圖像質(zhì)量評價方法,其總體實現(xiàn)框圖如圖1所示,其包括以下步驟:①令Sdis表示待評價的失真立體圖像,將Sdis的左視點圖像記為{Ldis(x,y)},將Sdis的右視點圖像記為{Rdis(x,y)};然后采用現(xiàn)有的塊匹配方法,計算{Ldis(x,y)}與{Rdis(x,y)}之間的視差圖像,記為{ddis(x,y)};其中,1≤x≤W,1≤y≤H,W表示Sdis的寬度,H表示Sdis的高度,Ldis(x,y)表示{Ldis(x,y)}中坐標位置為(x,y)的像素點的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐標位置為(x,y)的像素點的像素值,ddis(x,y)表示{ddis(x,y)}中坐標位置為(x,y)的像素點的像素值。②采用現(xiàn)有的Gabor濾波方法對{Ldis(x,y)}進行操作,得到左視點響應(yīng)圖,記為{GL,dis(x,y)};然后采用現(xiàn)有的LOG(LaplacianofGaussian)濾波方法對{Ldis(x,y)}進行操作,得到左視點視覺特征圖,記為{FL,dis(x,y)};其中,GL,dis(x,y)表示{GL,dis(x,y)}中坐標位置為(x,y)的像素點的像素值,F(xiàn)L,dis(x,y)表示{FL,dis(x,y)}中坐標位置為(x,y)的像素點的像素值。同樣,采用現(xiàn)有的Gabor濾波方法對{Rdis(x,y)}進行操作,得到右視點響應(yīng)圖,記為{GR,dis(x,y)};然后采用現(xiàn)有的LOG(LaplacianofGaussian)濾波方法對{Rdis(x,y)}進行操作,得到右視點視覺特征圖,記為{FR,dis(x,y)};其中,GR,dis(x,y)表示{GR,dis(x,y)}中坐標位置為(x,y)的像素點的像素值,F(xiàn)R,dis(x,y)表示{FR,dis(x,y)}中坐標位置為(x,y)的像素點的像素值。③根據(jù){Ldis(x,y)}和{Rdis(x,y)}、{GL,dis(x,y)}和{GR,dis(x,y)}、{ddis(x,y)},計算Sdis的左右視點融合圖像,記為{RL,R,dis(x,y)},其中,RL,R,dis(x,y)表示{RL,R,dis(x,y)}中坐標位置為(x,y)的像素點的像素值。在此具體實施例中,步驟③中的,其中,Rdis(x+ddis(x,y),y)表示{Rdis(x,y)}中坐標位置為(x+ddis(x,y),y)的像素點的像素值,GR,dis(x+ddis(x,y),y)表示{GR,dis(x,y)}中坐標位置為(x+ddis(x,y),y)的像素點的像素值。④根據(jù){FL,dis(x,y)}和{FR,dis(x,y)}、{GL,dis(x,y)}和{GR,dis(x,y)}、{ddis(x,y)},計算Sdis的左右視點融合視覺特征圖,記為{FL,R,dis(x,y)},其中,F(xiàn)L,R,dis(x,y)表示{FL,R,dis(x,y)}中坐標位置為(x,y)的像素點的像素值。在此具體實施例中,步驟④中的,其中,F(xiàn)R,dis(x+ddis(x,y),y)表示{FR,dis(x,y)}中坐標位置為(x+ddis(x,y),y)的像素點的像素值,GR,dis(x+ddis(x,y),y)表示{GR,dis(x,y)}中坐標位置為(x+ddis(x,y),y)的像素點的像素值。⑤計算{RL,R,dis(x,y)}與{FL,R,dis(x,y)}之間的自相似度圖像,記為{Hdis,sim(x,y)},其中,Hdis,sim(x,y)表示{Hdis,sim(x,y)}中坐標位置為(x,y)的像素點的像素值。在此具體實施例中,步驟⑤中的其中,C為控制參數(shù),在本實施例中取C=0.0001。⑥采用現(xiàn)有的量化方法對{Hdis,sim(x,y)}進行處理,得到{Hdis,sim(x,y)}的量化圖像,記為{Hdis,sim,Q(x,y)};并采用現(xiàn)有的局部二值化模式(LocalBinaryPattern)操作對{Hdis,sim(x,y)}進行處理,得到{Hdis,sim(x,y)}的局部二值化模式圖像,記為{Hdis,sim,lbp(x,y)};其中,Hdis,sim,Q(x,y)表示{Hdis,sim,Q(x,y)}中坐標位置為(x,y)的像素點的像素值,Hdis,sim,lbp(x,y)表示{Hdis,sim,lbp(x,y)}中坐標位置為(x,y)的像素點的像素值。在本實施例中,步驟⑥中的局部二值化模式操作中的領(lǐng)域參數(shù)P取值為8,且局部半徑參數(shù)R取值為1。⑦采用現(xiàn)有的直方圖統(tǒng)計方法對{Hdis,sim,Q(x,y)}進行統(tǒng)計操作,得到{Hdis,sim,Q(x,y)}的直方圖統(tǒng)計特征向量,記為Hdis,sim,Q,hist;同樣,采用現(xiàn)有的直方圖統(tǒng)計方法對{Hdis,sim,lbp(x,y)}進行統(tǒng)計操作,得到{Hdis,sim,lbp(x,y)}的直方圖統(tǒng)計特征向量,記為Hdis,sim,lbp,hist;其中,Hdis,sim,Q,hist的維數(shù)為1×m'維,Hdis,sim,Q,hist中的第m個元素為Hdis,sim,Q,hist(m),Hdis,sim,lbp,hist的維數(shù)為1×m'維,Hdis,sim,lbp,hist中的第m個元素為Hdis,sim,lbp,hist(m),1≤m≤m',m'=P+2,P表示局部二值化模式操作中的領(lǐng)域參數(shù)。⑧采用n”幅原始的無失真立體圖像,建立其在不同失真類型不同失真程度下的失真立體圖像集合,將該失真立體圖像集合作為訓練集,訓練集包括多幅失真立體圖像;然后利用現(xiàn)有的主觀質(zhì)量評價方法評價出訓練集中的每幅失真立體圖像的平均主觀評分值,將訓練集中的第j幅失真立體圖像的平均主觀評分值記為DMOSj;再按照步驟①至步驟⑦的操作,以相同的方式獲取訓練集中的每幅失真立體圖像對應(yīng)的自相似度圖像的量化圖像的直方圖統(tǒng)計特征向量和自相似度圖像的局部二值化模式圖像的直方圖統(tǒng)計特征向量,將訓練集中的第j幅失真立體圖像對應(yīng)的自相似度圖像的量化圖像的直方圖統(tǒng)計特征向量和自相似度圖像的局部二值化模式圖像的直方圖統(tǒng)計特征向量分別記為Hj,sim,Q,hist和Hj,sim,lbp,hist;其中,n”>1,1≤j≤N',N'表示訓練集中包含的失真立體圖像的總幅數(shù),在本實施例中N'≥10,0≤DMOSj≤100,Hj,sim,Q,hist和Hj,sim,lbp,hist的維數(shù)均為1×m'維。在此,Hj,sim,Q,hist和Hj,sim,lbp,hist的獲取過程為:A1、令Sj表示訓練集中的第j幅失真立體圖像,將Sj的左視點圖像記為{Lj(x',y')},將Sj的右視點圖像記為{Rj(x',y')};然后采用現(xiàn)有的塊匹配方法,計算{Lj(x',y')}與{Rj(x',y')}之間的視差圖像,記為{dj(x',y')};其中,1≤x'≤W',1≤y'≤H',W'表示訓練集中的失真立體圖像的寬度,H'表示訓練集中的失真立體圖像的高度,Lj(x',y')表示{Lj(x',y')}中坐標位置為(x',y')的像素點的像素值,Rj(x',y')表示{Rj(x',y')}中坐標位置為(x',y')的像素點的像素值,dj(x',y')表示{dj(x',y')}中坐標位置為(x',y')的像素點的像素值。A2、采用現(xiàn)有的Gabor濾波方法對{Lj(x',y')}進行操作,得到左視點響應(yīng)圖,記為{GL,j(x',y')};然后采用現(xiàn)有的LOG(LaplacianofGaussian)濾波方法對{Lj(x',y')}進行操作,得到左視點視覺特征圖,記為{FL,j(x',y')};其中,GL,j(x',y')表示{GL,j(x',y')}中坐標位置為(x',y')的像素點的像素值,F(xiàn)L,j(x',y')表示{FL,j(x',y')}中坐標位置為(x',y')的像素點的像素值。同樣,采用現(xiàn)有的Gabor濾波方法對{Rj(x',y')}進行操作,得到右視點響應(yīng)圖,記為{GR,j(x',y')};然后采用現(xiàn)有的LOG(LaplacianofGaussian)濾波方法對{Rj(x',y')}進行操作,得到右視點視覺特征圖,記為{FR,j(x',y')};其中,GR,j(x',y')表示{GR,j(x',y')}中坐標位置為(x',y')的像素點的像素值,F(xiàn)R,j(x',y')表示{FR,j(x',y')}中坐標位置為(x',y')的像素點的像素值。A3、根據(jù){Lj(x',y')}和{Rj(x',y')}、{GL,j(x',y')}和{GR,j(x',y')}、{dj(x',y')},計算Sj的左右視點融合圖像,記為{RL,R,j(x',y')},其中,RL,R,j(x',y')表示{RL,R,j(x',y')}中坐標位置為(x',y')的像素點的像素值。在此具體實施例中,步驟A3中的,其中,Rj(x'+dj(x',y'),y')表示{Rj(x',y')}中坐標位置為(x'+dj(x',y'),y')的像素點的像素值,GR,j(x'+dj(x',y'),y')表示{GR,j(x',y')}中坐標位置為(x'+dj(x',y'),y')的像素點的像素值。A4、根據(jù){FL,j(x',y')}和{FR,j(x',y')}、{GL,j(x',y')}和{GR,j(x',y')}、{dj(x',y')},計算Sj的左右視點融合視覺特征圖,記為{FL,R,j(x',y')},其中,F(xiàn)L,R,j(x',y')表示{FL,R,j(x',y')}中坐標位置為(x',y')的像素點的像素值。在此具體實施例中,步驟A4中的,其中,F(xiàn)R,j(x'+dj(x',y'),y')表示{FR,j(x',y')}中坐標位置為(x'+dj(x',y'),y')的像素點的像素值,GR,j(x'+dj(x',y'),y')表示{GR,j(x',y')}中坐標位置為(x'+dj(x',y'),y')的像素點的像素值。A5、計算{RL,R,j(x',y')}與{FL,R,j(x',y')}之間的自相似度圖像,記為{Hj,sim(x',y')},其中,Hj,sim(x,y)表示{Hj,sim(x',y')}中坐標位置為(x',y')的像素點的像素值。在此具體實施例中,步驟A5中的其中,C為控制參數(shù),在本實施例中取C=0.0001。A6、采用現(xiàn)有的量化方法對{Hj,sim(x',y')}進行處理,得到{Hj,sim(x',y')}的量化圖像,記為{Hj,sim,Q(x',y')};并采用現(xiàn)有的局部二值化模式(LocalBinaryPattern)操作對{Hj,sim(x',y')}進行處理,得到{Hj,sim(x',y')}的局部二值化模式圖像,記為{Hj,sim,lbp(x',y')};其中,Hj,sim,Q(x',y')表示{Hj,sim,Q(x',y')}中坐標位置為(x',y')的像素點的像素值,Hj,sim,lbp(x',y')表示{Hj,sim,lbp(x',y')}中坐標位置為(x',y')的像素點的像素值。在本實施例中,步驟A6中的局部二值化模式操作中的領(lǐng)域參數(shù)P取值為8,且局部半徑參數(shù)R取值為1。A7、采用現(xiàn)有的直方圖統(tǒng)計方法對{Hj,sim,Q(x',y')}進行統(tǒng)計操作,得到{Hj,sim,Q(x',y')}的直方圖統(tǒng)計特征向量,記為Hj,sim,Q,hist;同樣,采用現(xiàn)有的直方圖統(tǒng)計方法對{Hj,sim,lbp(x',y')}進行統(tǒng)計操作,得到{Hj,sim,lbp(x',y')}的直方圖統(tǒng)計特征向量,記為Hj,sim,lbp,hist;其中,Hj,sim,Q,hist的維數(shù)為1×m'維,Hj,sim,lbp,hist的維數(shù)為1×m'維,m'=P+2,P表示局部二值化模式操作中的領(lǐng)域參數(shù)。⑨計算Sdis對應(yīng)的直方圖統(tǒng)計特征向量與訓練集中的每幅失真立體圖像對應(yīng)的直方圖統(tǒng)計特征向量之間的距離,將Sdis對應(yīng)的直方圖統(tǒng)計特征向量與訓練集中的第j幅失真立體圖像對應(yīng)的直方圖統(tǒng)計特征向量之間的距離記為Ddis,j,Ddis,j=|Hdis,sim,Q,hist-Hj,sim,Q,hist|+|Hdis,sim,lbp,hist-Hj,sim,lbp,hist|,并將這N'個距離構(gòu)成的集合記為{Ddis,j|1≤j≤N'},其中,符號“||”為取絕對值符號;然后對{Ddis,j|1≤j≤N'}中的所有距離按從小到大的順序排列,將排列后的集合記為{D'dis,j|1≤j≤N'};接著獲取{D'dis,j|1≤j≤N'}中的前K個距離各自對應(yīng)的訓練集中的失真立體圖像的平均主觀評分值,并將這K個平均主觀評分值構(gòu)成的集合記為{DMOS'1,DMOS'2,…,DMOS'K},其中,1≤K≤N',在本實施例中取K=10,DMOS'1,DMOS'2,…,DMOS'K對應(yīng)表示{D'dis,j|1≤j≤N'}中的第1個距離對應(yīng)的訓練集中的失真立體圖像的平均主觀評分值、第2個距離對應(yīng)的訓練集中的失真立體圖像的平均主觀評分值、…、第K個距離對應(yīng)的訓練集中的失真立體圖像的平均主觀評分值。⑩計算Sdis的客觀質(zhì)量評價預測值,記為Qdis,其中,D'dis,k表示{D'dis,j|1≤j≤N'}中的第k個距離,DMOS'k表示D'dis,k對應(yīng)的訓練集中的失真立體圖像的平均主觀評分值。為了進一步驗證本發(fā)明方法的可行性和有效性,進行實驗。在此,采用LIVE立體圖像失真庫來分析利用本發(fā)明方法得到的失真立體圖像的客觀質(zhì)量評價預測值與平均主觀評分值之間的相關(guān)性。這里,利用評估圖像質(zhì)量評價方法的3個常用客觀參量作為評價指標,即非線性回歸條件下的Pearson相關(guān)系數(shù)(Pearsonlinearcorrelationcoefficient,PLCC)、Spearman相關(guān)系數(shù)(Spearmanrankordercorrelationcoefficient,SROCC)、均方誤差(rootmeansquarederror,RMSE),PLCC和RMSE反映失真立體圖像的客觀質(zhì)量評價預測值的準確性,SROCC反映其單調(diào)性。利用本發(fā)明方法計算LIVE立體圖像失真庫中的每幅失真立體圖像的客觀質(zhì)量評價預測值,再利用現(xiàn)有的主觀質(zhì)量評價方法獲得LIVE立體圖像失真庫中的每幅失真立體圖像的平均主觀評分值。將按本發(fā)明方法計算得到的失真立體圖像的客觀質(zhì)量評價預測值做五參數(shù)Logistic函數(shù)非線性擬合,PLCC和SROCC值越高,RMSE值越低說明客觀評價方法的客觀評價結(jié)果與平均主觀評分值之間的相關(guān)性越好。反映本發(fā)明方法的質(zhì)量評價性能的PLCC、SROCC和RMSE相關(guān)系數(shù)如表1所列。從表1所列的數(shù)據(jù)可知,按本發(fā)明方法得到的失真立體圖像的客觀質(zhì)量評價預測值與平均主觀評分值之間的相關(guān)性是很好的,表明客觀評價結(jié)果與人眼主觀感知的結(jié)果較為一致,足以說明本發(fā)明方法的可行性和有效性。表1利用本發(fā)明方法得到的LIVE立體圖像失真庫中的失真立體圖像的客觀質(zhì)量評價預測值與平均主觀評分值之間的相關(guān)性
當前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1