亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

互補色小波域圖像質(zhì)量盲評價方法與流程

文檔序號:11288418閱讀:300來源:國知局
互補色小波域圖像質(zhì)量盲評價方法與流程
本發(fā)明屬于彩色圖像信號處理
技術(shù)領(lǐng)域
,具體涉及彩色圖像質(zhì)量盲評價方法。
背景技術(shù)
:隨著計算機、移動通信與互聯(lián)網(wǎng)技術(shù)的興起,圖像的產(chǎn)生量和傳輸量都呈現(xiàn)出了爆炸性的增長。圖像數(shù)量和質(zhì)量的快速增長,與通信帶寬和存儲容量的緩慢增長之間就產(chǎn)生了深刻的矛盾,這樣在圖像的傳輸與存儲過程中,人們不得不有意(如壓縮圖像)和/或無意(如傳輸數(shù)據(jù)丟包)降低圖像的質(zhì)量??扇绾我钥陀^標準評價一幅圖像的質(zhì)量,并為以最小的資源傳輸與存儲最好質(zhì)量的圖像,和/或讓機器和網(wǎng)絡(luò)智能地調(diào)節(jié)這些資源的分配,就成了一個很有意義的研究課題。文獻中報道的圖像質(zhì)量評價方法,可據(jù)是否需要原始圖像作為參考而分為:全參考(非盲),部分參考(半盲),以及無參考(盲)圖像質(zhì)量評價等三類。全參考是指通過對比失真圖像與原始圖像的某些特征參數(shù)來評價圖像的質(zhì)量。這類方法包括通過對比圖像信噪比(snr)、峰值信噪比(psnr)、均方誤差(mse)等參數(shù),以及考慮圖像結(jié)構(gòu)相似性(ssim)[1]和人眼視覺信息保真度(vif)[2]等方法。全參考方法的主要缺點是需要完整的無失真原始圖像,而在一些實際應(yīng)用中,如遠距離圖像接收終端,其原始圖像往往難以獲得,因而全參考方法不能用于未知原始圖像的場景。部分參考質(zhì)量評價不需要獲得完整的原始圖像,但需要傳遞據(jù)原始圖像提取的某些特征參數(shù)。它們是通過計算失真圖像的參數(shù),并比照原始圖像的特征參數(shù)來進行失真圖像質(zhì)量的評價。其經(jīng)典方法是基于小波分解系數(shù)的分布參數(shù)方法[3]。無參考方法也稱為圖像質(zhì)量盲評價方法,不要求提供原始無失真圖像的任何信息,僅根據(jù)失真圖像自身的特征來判斷圖像質(zhì)量,因而最具有應(yīng)用價值,也是發(fā)明想要研究的方法。眾所周知,圖像隨場景與內(nèi)容的不同,使得其自身特點千差萬別,這樣為了實現(xiàn)對其進行無參考評價,就必須排除圖像場景與內(nèi)容對評價的干擾。當前主流的無參考評價方法,通常是通過提取出與圖像中場景及內(nèi)容無關(guān)的統(tǒng)一特征,這里我們將其統(tǒng)稱為圖像質(zhì)量特征,再通過機器訓(xùn)練學(xué)習的方法,建立起這些特征與失真程度相對應(yīng)的關(guān)系,并用這個關(guān)系來實現(xiàn)對圖像質(zhì)量的評價。這意味著所提取的圖像質(zhì)量特征的好壞,就最大程度決定了圖像質(zhì)量評價的準確性。在變換域提取圖像質(zhì)量特征是目前認為效果最好的一類方法,這類方法首先將圖像映射到空/頻域,如離散余弦(dct)域[7]、小波域[8]、曲波域[9]等,然后再單獨或綜合利用空域和頻域的信息[10][11]來提取圖像失真的特征。此外,自然場景的統(tǒng)計模型(nss)考慮了不同圖像場景與內(nèi)容統(tǒng)一的統(tǒng)計不變特征,也為圖像質(zhì)量特征的提取提供了一條有效途徑。如果將自然場景統(tǒng)計模型與變換域方法結(jié)合起來[8][9],綜合利用兩者的優(yōu)勢,來提取變換域中自然場景統(tǒng)計建模、方向性能量分布、以及層級間能量分布等參數(shù)與圖像質(zhì)量的密切關(guān)系,并排除圖像自身場景與內(nèi)容等干擾,則有可能取得接近全參考圖像質(zhì)量評價相似的性能[2][8][9]。然而在報道的文獻中,不論是變換域或其他無參考圖像質(zhì)量評價的方法,都是基于灰度圖像的,當需要對彩色圖像進行質(zhì)量評價時,都直接將目標圖像轉(zhuǎn)化為灰度圖像、或分別對彩色圖像的各個色彩通道單獨處理后再進行某種相加處理。這樣的預(yù)處理過程或直接丟棄圖像重要的色彩信息、或忽略了色彩之間的相互關(guān)系,這樣必然導(dǎo)致某些有用信息的丟失,而最終影響圖像質(zhì)量的評價。最近,我們在文獻[20]中,提出了一類稱為互補色小波(complementarycolorwavelettransform,ccwt)的多尺度變換,其變換基是根據(jù)人眼視覺感知中重要的互補色理論而設(shè)計的,因此它可將彩色圖像的各個顏色通道映射到不同小波基的基礎(chǔ)上,得到彩色圖像中存在的主要互補色信息,這些互補色信息不僅覆蓋傳統(tǒng)小波所能提供的所有灰度信息,還為各色彩通道之間的色彩信息提供了多尺度多方向描述和處理方法,為克服傳統(tǒng)小波因忽略色彩通道之間關(guān)系所造成信息丟失的缺點而提供了彌補手段。本發(fā)明旨在利用互補色小波這些特點與優(yōu)勢,提出并分析互補色多尺度層級和方向性能量的分布特征;結(jié)合自然場景統(tǒng)計模型,提出并分析自然色彩場景互補色統(tǒng)計模型和特征。綜合所有分析結(jié)果來得到一組高效的圖像質(zhì)量特征。通過對特征的學(xué)習分類來取得優(yōu)于文獻報道的圖像質(zhì)量盲評價結(jié)果。在與人眼主觀視覺評價結(jié)果保持一致性的同時取得可與全參考圖像質(zhì)量相比擬的評價結(jié)果。技術(shù)實現(xiàn)要素:本發(fā)明的目的在于提供互補色小波域圖像質(zhì)量盲評價方法,以克服現(xiàn)有彩色圖像質(zhì)量盲評價方法的不足。本發(fā)明提出的互補色小波域圖像質(zhì)量盲評價方法,采用符合人眼視覺生理機制的互補色小波分解建模自然場景統(tǒng)計、多尺度和方向性能量分布等模型,高效提取表征圖像質(zhì)量的特征,從而取得優(yōu)于現(xiàn)有方法的圖像質(zhì)量盲評價結(jié)果,具體步驟為:(1)將圖像進行二維互補色小波分解。文獻[20]根據(jù)互補色理論的定義,r、g、b三色在色環(huán)上對應(yīng)于相位0、2π/3、4π/3,設(shè)計出了一組近似八個方向n=kπ/8,k=1,2...,8和三種相位θ=0,2π/3,4π/3的二維小波組[20],其如圖1所示。從圖中我們可以看出,二維互補色小波的八個子帶,分別近似指向nπ/8,n=12,...,8等方向,因此它提供了比傳統(tǒng)小波更多的二維方向性。將互補色小波層級j方向n的2π/3相位差小波和分別表示為和當利用它們分別對彩色圖像各個色彩通道分別進行小波分解時,就可得到層級j方向n的互補色小波系數(shù)矢量和其中r、g和b是彩色圖像的通道矢量,*代表卷積;在文獻[20]中,定義了強度算子:oi(d)=|dr|+|dg|+|db|,黑-白互補色算子:oc(d)=dr+dg+db,紅-青互補色算子:or(d)=dr-dg-db,綠-品紅互補色算子:og(d)=dg-dr-db,藍-黃互補色算子:ob(d)=db-dr-dg。利用這些算子,可求得各個方向的紅-青、綠-品紅、藍-黃和黑-白等互補色小波特征子帶[20]。圖2展示了采用文獻[20]中互補色小波分解圖像并求解互補色子帶的示例。(2)互補色小波域自然場景統(tǒng)計特征建模。場景與內(nèi)容的不同使得不同圖像千差萬別,但這樣的差別又與圖像失真造成的質(zhì)量差異有著本質(zhì)的區(qū)別。自然場景統(tǒng)計(naturalscenestatistic,nss)模型由于不受內(nèi)容與場景影響,只對失真造成的差異有所響應(yīng),因此它是圖像質(zhì)量很好的一種表征,而廣泛應(yīng)用于圖像質(zhì)量評價方法中[7][8][9][11][12][13][14]。根據(jù)nss模型的統(tǒng)計特性,自然圖像小波變換系數(shù)的統(tǒng)計分布,可以通過高斯尺度混合模型(gsm)來描述[23]。即:自然圖像的小波系數(shù)可以表示為其中y為小波系數(shù)矢量,z為系數(shù)方差乘數(shù),u是均值為0且協(xié)方差為cu的高斯隨機變量。也就是說,y可以表示為無限個高斯矢量u以密度pz(z)進行混合的結(jié)果,其分布為[23]上式表示小波系數(shù)y是關(guān)于z服從協(xié)方差為zcu的高斯分布,也就是說其在每一個鄰域內(nèi)都符合下面的高斯分布[23][24]:而混合尺度z則可由小波系數(shù)鄰域矢量y和協(xié)方差矩陣cu估計出來。其在每一個鄰域內(nèi)的最大似然估計為[23]將每一個鄰域內(nèi)的系數(shù)y對乘數(shù)z做歸一化,可以得到歸一化的高斯分布[23]如果每一個鄰域矢量y的中心點yc對其乘數(shù)做歸一化,并定義它為分區(qū)歸一化變換(divisivenormalizationtransformation,dnt)。當將視歸一化因子時,系數(shù)則稱為歸一化后的系數(shù),由式(1)可知,系數(shù)d符合歸一化的高斯分布[8]。我們知道失真圖像并非自然圖像,因而它也將不滿足上面描述的統(tǒng)計規(guī)律,隨著失真的種類和失真大小的不同,d的統(tǒng)計分布也將有所變化[8]。圖3給出了live數(shù)據(jù)庫[15]中caps圖像的5種失真類型(jpeg2000壓縮jp2k、jpeg壓縮jpeg、白噪聲wn、高斯核模糊blur、快速信道瑞利衰減ff)呈現(xiàn)最大程度失真時,細節(jié)層級系數(shù)d的分布與原始圖像(org)分布的比較。從圖3可以看出,失真的不同類型會導(dǎo)致歸一化后系數(shù)統(tǒng)計分布的明顯不同,這說明dnt歸一化后系數(shù)d是圖像失真的一種有效表征。盡管不同失真圖像其小波系數(shù)鄰域內(nèi)歸一化系數(shù)的統(tǒng)計分布顯著不同,但這些統(tǒng)計分布都可以用廣義高斯分布(generalizedgaussiandistribution,ggd)來很好地表征[23]。廣義高斯分布可以表示為其中模型中的參數(shù)α控制了分布的形狀,而σ2則控制了分布的方差。提取這兩個參數(shù)可以完整描述系數(shù)的分布規(guī)律。(3)互補色小波域?qū)蛹壞芰糠植继卣鹘?。圖像的壓縮、部分數(shù)據(jù)丟失、噪聲干擾等失真,不可避免造成圖像有規(guī)律的改變,如細節(jié)的模糊、結(jié)構(gòu)的扭曲等。小波等多分辨率空頻域分析工具能很容易捕獲這些改變,具體表現(xiàn)在其不同分辨率層級上能量分布的改變。變換域類的方法,大多將層級能量分布的改變來作為圖像質(zhì)量評價的一個重要特征量[7][8][9]。互補色小波已經(jīng)證明其有比傳統(tǒng)小波類具有更好的層級能量集中特性[20],因此能期待它可更精確建模層級能量分布特性。作為一個例子,圖4給出了live數(shù)據(jù)庫[15]caps原始圖像及其6幅不同程度jpeg失真圖像的歸一化層級能量分布對比。從圖4可以看出,隨著失真程度增加(人眼打分dmos值的增加),互補色小波系數(shù)的能量逐漸由細節(jié)層級(層級1)向尺度層級(層級4)擴散轉(zhuǎn)移,它表明了圖像質(zhì)量下降是由于其細節(jié)的逐步丟失。提取層級能量特征可以很好地描述圖像失真程度。取互補色小波m個層級能量的兩兩之差,總共組作為該互補色層級能量分布特征的定義。對于某一互補色層級j的能量分別求其在各個方向子帶的能量而后再求8個方向能量和式中||·||1的1范數(shù)表示求取子帶系數(shù)絕對值。m個層級能量兩兩之差,就可以定義mm-1/2個互補色層級能量分布特征:式中的·表示可分別選取的強度或紅-青、綠-品紅、藍-黃、黑-白互補色共5個子帶。(4)互補色小波域方向性能量分布特征建模。各種失真會對圖像方向性特征造成影響。我們知道清晰圖像的邊緣具有較強的方向性;噪聲和模糊等失真干擾會弱化這樣的方向性,使得系數(shù)方向性能量分布趨于平均;而jpeg壓縮舍棄能量較小的成分,使系數(shù)能量集中,客觀上造成方向性能量分布趨于集中。不同的失真類型和失真程度會引起圖像方向性分布的不同改變。通過觀察這樣的改變就能獲取圖像質(zhì)量信息。自然界的場景與物體較多沿著水平和垂直方向規(guī)律分布,因而水平方向與垂直方向的邊緣與細節(jié)等較為豐富,這意味著對應(yīng)于自然圖像水平子帶能量與垂直子帶能量會有突起的峰值并在其他方向形成谷值。圖像的不同失真會改變子帶能量的方向性分布,在各個方向子帶上引入能量,從而會導(dǎo)致這些方向性能量分布呈現(xiàn)峰-谷般規(guī)律的變化。以live數(shù)據(jù)庫[15]caps圖像為例,將其原始圖像和各失真圖像的子帶能量,依方向順序羅列表示成如圖5所示。從圖5中可以看出,原始自然圖像的互補色小波系數(shù)在水平方向0和垂直方向π/2形成兩個峰(org曲線);噪聲和模糊失真在各個方向子帶上引入了大致相同的能量,所以削弱了這樣的峰值分布(wn曲線和blur曲線);而jpeg壓縮舍棄圖像中能量較小的成分,保留較大的成分,這些較大成分多數(shù)分布在能量較為集中的水平或垂直方向上,因而增強了系數(shù)分布峰值(jpeg曲線)。顯然提取這樣的變化特征,就能輔助判斷圖像質(zhì)量的改變。將互補色小波子帶能量隨方向變化的谷-峰-谷周期進行統(tǒng)計建模,這樣的周期在8個方向上有兩組,分別是以水平峰為中心的-π/4到π/4的變化周期,以及以垂直峰為中心的π/4到3π/4的變化周期(如圖5所示的左半周期和右半周期)。求取這兩個變換周期的kurtosis峰度系數(shù)k=μ4/4,并將這兩個周期的峰度系數(shù)進行平均,來表征峰值處能量集中的程度,其中μ4是樣本的4階矩,σ4是樣本方差的平方;求取去除峰值后剩余系數(shù)的熵c=σ/μ,并將兩個周期的熵進行平均以用來表征剩余系數(shù)的分散程度,其中σ是除去峰值后系數(shù)的標準差,μ是除去峰值后系數(shù)的均值。這樣我們就可以定義互補色小波子帶能量方向性分布的2個特征和式中的·表示分別選取的強度或紅-青、綠-品紅、藍-黃、黑-白互補色等共5個子帶。(5)圖像特征與圖像質(zhì)量評價。在獲取有關(guān)描述圖像質(zhì)量的特征之后,需要將這些特征量映射到圖像質(zhì)量評價的得分預(yù)測上。一般采用回歸預(yù)測模型來進行這樣的工作。為公正與方便比較,我們采用和現(xiàn)有方法[8][9][12]相同的支持向量機(svm)的回歸器svr來進行預(yù)測。由于失真種類多種多樣[15],一些方法所提取圖像特征的代表性不足以在所有失真種類上取得良好的回歸性[8][9],需用2步回歸的框架,首先從特征向量回歸預(yù)測出該圖像可能的失真類型,其次根據(jù)可能的失真類型再次回歸預(yù)測該種失真類型下圖像質(zhì)量評價的得分。而圖像特征代表性較好的方法[12],則只需1步回歸,直接從特征向量回歸預(yù)測得到圖像質(zhì)量評價得分。本發(fā)明給出的圖像質(zhì)量特征向量由于其代表性較好,采用1步回歸即可取得良好效果。通過對所提取的互補色小波域各特征進行1步回歸預(yù)測,可以得到與人眼主觀評價結(jié)果保持高度一致的圖像質(zhì)量盲評價性能。結(jié)果表明本發(fā)明方法顯著優(yōu)于現(xiàn)有方法的盲評價結(jié)果,并取得了可與非盲(全參考)相比擬的評價結(jié)果。附圖說明圖1是互補色小波不同的子帶。圖2是互補色小波135°子帶分解彩色圖像并提取各互補色子帶的示例。圖3是不同失真類型下互補色小波系數(shù)gsm模型dnt歸一化后系數(shù)分布。圖4是caps圖與其6幅jpeg失真圖層級能量分布變化。圖5是不同失真下互補色小波系數(shù)在不同方向子帶上的能量分布。具體實施方式1、將圖像進行二維互補色小波分解為了有效應(yīng)用互補色小波,對互補色小波層級j方向n的互補色小波和分解圖像所得的系數(shù)矢量和采用二維互補色變換/算子來求得黑-白、紅-青、綠-品紅、藍-黃四組互補色互補色小波特征子帶[20]。其中分解的層級數(shù)j為1到5,方向n為1到8,即每種互補色算子有5個層級、每層級8個方向,共40個子帶。2、互補色小波域自然場景統(tǒng)計特征建模在分解得到互補色小波各個層級方向的子帶后,對式(1)的dnt系數(shù)進行式(2)的廣義高斯分布建模。將互補色小波最細節(jié)的8個方向子帶系數(shù),分別擬合并表示成ggd的參數(shù)α和σ2,那么我們就可定義自然色彩場景統(tǒng)計特征為:其中,的表示j=1時所分別對應(yīng)的強度或紅-青、綠-品紅、藍-黃、黑-白等互補色子帶。3、互補色小波域?qū)蛹壞芰糠植继卣鹘榱顺浞址从硤D4所示的各個層級能量分布特征,取互補色小波5個層級能量的兩兩之差,總共組作為該互補色層級能量分布特征的定義。5個層級能量兩兩之差,共10組作為該互補色層級能量分布特征。其中的·表示實際應(yīng)用所選取的紅-青、綠-品紅、藍-黃或黑-白互補色子帶。4、互補色小波域方向性能量分布特征建?;パa色小波良好的方向準確性和精細的分辨力,能完整提取圖像中最重要的8個方向(nπ/8,n=1,2,...,8)的信息并對其建模。取互補色小波最細節(jié)(層級1)的8個方向子帶,來分別求取各個方向子帶系數(shù)的絕對值之和,得到的各個方向子帶能量其等式右邊的1范數(shù)表示子帶系數(shù)的絕對值之和,定義為圖像方向性能量的特征。將互補色小波子帶能量隨方向變化的谷-峰-谷周期做統(tǒng)計建模,這樣的周期在8個方向上有兩組,分別是以水平峰為中心的-π/4到π/4的變化周期,以及以垂直峰為中心的π/4到3π/4的變化周期(如圖5所示的左半周期和右半周期)。我們求取這兩個變換周期的kurtosis峰度系數(shù)k=μ4/4,并將這兩個周期的峰度系數(shù)進行平均,來表征峰值處能量集中的程度,其中μ4是樣本的4階矩,σ4是樣本方差的平方;并求取去除峰值后剩余系數(shù)的熵c=σ/μ,將兩個周期的熵求平均來表征剩余系數(shù)的分散程度,其中σ是除去峰值后系數(shù)的標準差,μ是除去峰值后系數(shù)的均值。從而就得到互補色小波子帶能量方向性分布的2個特征:5、圖像特征與圖像質(zhì)量評價人眼視覺和顏色感知方面的4組互補色關(guān)系紅-青、綠-品紅、藍-黃和黑-白都具有重要作用[21][22]。我們已定義出了單一互補色通道的自然場景統(tǒng)計特征f1~f16、層級能量分布特征f17~f26、以及方向性能量分布特征f27~f28。為完整模型人眼視覺中的互補色關(guān)系,將在4組互補色子帶上均提取如上28個特征值,這樣就總共形成122維特征向量。也就是對于式(3)至(7)的·處分取為紅-青、綠-品紅、藍-黃和黑-白等4個互補色子帶,從而得到4組互補色條件下的自然場景統(tǒng)計特征、層級能量特征與方向性能量特征。這樣自然色彩場景互補色統(tǒng)計的圖像質(zhì)量盲評價所有特征如表1描述。表1自然色彩場景互補色統(tǒng)計的圖像質(zhì)量盲評價特征及描述至此,我們提取了與圖像失真程度相關(guān)的一系列特征值。提取圖像質(zhì)量相關(guān)的特征之后,需要將這些特征量映射到圖像質(zhì)量評價的得分預(yù)測上。為公正與方便比較,采用和現(xiàn)有方法[8][9][12]相同的支持向量機(svm)的回歸器svr來進行預(yù)測。實施采用libsvm工具包[25]來建立svr分類與回歸模型,其中的核函數(shù)選用徑向基函數(shù)(rbf)。用最廣泛使用的美國德克薩斯大學(xué)奧斯汀分校的live數(shù)據(jù)庫[15],來測試與對比本發(fā)明的圖像質(zhì)量盲評價方法ccwtqa。數(shù)據(jù)庫包含了29幅參考圖像,進行5種常見失真類型(jpeg2000壓縮、jpeg壓縮、白噪聲、高斯核模糊、快速信道瑞利衰減)不同程度的失真降質(zhì)所得到的779幅失真圖像,每幅圖像均給出了經(jīng)大量測試者主觀打分的平均值dmos值,這些值通常作為圖像質(zhì)量評價的基準得分,該值越大表示失真越嚴重。為公正與方便比較,圖像的特征與質(zhì)量評價得分映射采用上節(jié)所述與主流文獻一致的svr回歸模型,其中80%樣本訓(xùn)練剩余20%樣本測試。采用spearman秩相關(guān)系數(shù)(spearman’srankorderedcorrelationcoefficient,srocc)來衡量算法與人眼主觀打分dmos的一致性,其值越接近于1性能越好。我們與近期幾種無參考圖像質(zhì)量評價算法的性能進行比較,表2列出不同算法與人眼主觀打分dmos的srocc值,這幾種算法分別為盲圖像質(zhì)量指數(shù)(biqi)[13],無參考圖像空域質(zhì)量評價(brisque)[12],基于失真辨識的圖像真實性和完整性評價(diivine)[8],曲波域無參考圖像質(zhì)量評價(curveletqa)[9]。從表中我們可以看出我們的算法具有更高的人眼視覺一致性。表2live圖像質(zhì)量評價數(shù)據(jù)庫各種無參考評價算法訓(xùn)練測試得到的srocc值jp2kjpegwnblurffallbiqi0.85510.77670.97640.92580.76950.7599diivine0.93520.89210.98280.95510.90960.9174curveletqa0.93760.91170.98760.96500.90050.9303brisque0.93600.91560.98680.97010.90870.9398ccwtqa0.95070.90890.98790.97340.90760.9442為了探究本發(fā)明所選取的自然彩色場景互補色統(tǒng)計特征、層級能量分布特征、方向性能量分布特征的效率,采用互補色小波域單獨特征進行訓(xùn)練和測試得到的srocc值,并與同樣提供各單項特征測試的curveletqa方法所提供的結(jié)果進行比較。從表3可以看出,本發(fā)明的各項特征效率均高于curveletqa方法。說明互補色小波色彩通道相關(guān)信息的引入,可以很大程度提升各特征的區(qū)分度,提升其效率。表3live圖像質(zhì)量評價數(shù)據(jù)庫采用單一特征進行訓(xùn)練測試得到的srocc值與主流全參考(非盲)圖像質(zhì)量評價方法的srocc比較如表4所示。我們的無參考(盲)圖像質(zhì)量評價方法領(lǐng)先于傳統(tǒng)非盲的psnr和ssim[1]方法,并已十分接近目前最好的非盲vif[2]方法,顯示我們的方法具有非常好的性能。表4本發(fā)明方法與live圖像質(zhì)量評價數(shù)據(jù)庫全參考圖像質(zhì)量評價方法srocc值比較psnrssimvifccwtqa0.82930.89960.95210.9442參考文獻[1]zhouwang,alanc.bovik,hamidr.sheikh,eerop.simonceli,“imagequalityassessment:fromerrormeasurementtostructuralsimilarity”,ieeetransactionsonimageprocessing,vol.13,no.4,april2004.[2]sheikhhr,bovikac.imageinformationandvisualquality.ieeetransactionsonimageprocessing,2006,15(2):430-444[3]liq,wangz.reduced-referenceimagequalityassessmentusingdivisivenormalization-basedimagerepresentation[j].ieeejournalofselectedtopicsinsignalprocessing,2009,3(2):202-211.[4]choimg,jungjh,jeonjw.no-referenceimagequalityassessmentusingblurandnoise.worldacademyofscience,engineeringandtechnology,2009,50:163-167[5]ferzlir,karamlj.ano-referenceobjectiveimagesharpnessmetricbasedonthenotionofjustnoticeableblur(jnb).ieeetransactionsonimageprocessing,2009,18(4):717-728[6]narvekarnd,karamlj.ano-referenceimageblurmetricbasedonthecumulativeprobabilityofblurdetection(cpbd).ieeetransactionsonimageprocessing,2011,20(9):2678-2683[7]saadma,bovikac,charrierc.blindimagequalityassessment:anaturalscenestatisticsapproachinthedctdomain.ieeetransactionsonimageprocessing,2012,21(8):3339-3352[8]moorthyak,bovikac.blindimagequalityassessment:fromnaturalscenestatisticstoperceptualquality[j].ieeetransactionsonimageprocessing,2011,20(12):3350-3364.[9]liul,dongh,huangh,etal.no-referenceimagequalityassessmentincurveletdomain[j].signalprocessing:imagecommunication,2014,29(4):494-505.[10]chenmj,bovikac.no-referenceimageblurassessmentusingmultiscalegradient.eurasipjournalonimageandvideoprocessing,2011,3:1-11[11]liul,liub,huangh,etal.no-referenceimagequalityassessmentbasedonspatialandspectralentropies[j].signalprocessing:imagecommunication,2014,29(8):856-863.[12]mittala,moorthyak,bovikac.no-referenceimagequalityassessmentinthespatialdomain[j].ieeetransactionsonimageprocessing,2012,21(12):4695-4708.[13]moorthyak,bovikac.atwo-stepframeworkforconstructingblindimagequalityindices.ieeesignalprocessingletters,2010,17(2):513-516[14]mittala,soundararajanr,bovikac.makinga“completelyblind”imagequalityanalyzer[j].ieeesignalprocessingletters,2013,20(3):209-212.[15]h.r.sheikh,z.wang,l.cormackanda.c.bovik,"liveimagequalityassessmentdatabaserelease2",http://live.ece.utexas.edu/research/quality.[16]n.-x.lian,v.zagorodnov,andy.-p.tan,“edge-preservingimagedenoisingviaoptimalcolorspaceprojection,”imageprocessing,ieeetransactionson,vol.15,no.9,pp.2575–2587,2006.[17]i.w.selesnick,r.g.baraniuk,andn.g.kingsbury,“thedualtreecomplexwavelettransform,”signalprocessingmagazine,ieee,vol.22,no.6,pp.123–151,2005.[18]y.xu,l.yu,h.xu,h.zhang,andt.nguyen,“vectorsparserepresentationofcolorimageusingquaternionmatrixanalysis,”imageprocessing,ieeetransactionson,vol.24,no.4,pp.1315–1329,2015.[19]r.soulard,p.carr′e,andc.fernandez-maloigne,“vectorextensionofmonogenicwaveletsforgeometricrepresentationofcolorimages,”imageprocessing,ieeetransactionson,vol.22,no.3,pp.1070–1083,2013.[20]陳揚,張建秋,“互補色小波彩色圖像處理方法,”專利申請?zhí)?2016109376480.[21]r.w.pridmore,“complementarycolorstheoryofcolorvision:physiology,colormixture,colorconstancyandcolorperception,”colorresearch&application,vol.36,no.6,pp.394–412,2011.[22]r.w.pridmore,“complementarycolors:thestructureofwavelengthdiscrimination,uniformhue,spectralsensitivity,saturation,chromaticadaptation,andchromaticinduction,”colorresearch&application,vol.34,no.3,pp.233–252,2009.[23]wainwrightmj,simoncelliep.scalemixturesofgaussiansandthestatisticsofnaturalimages[j].advancesinneuralinformationprocessingsystems,2000,12(1):855-861.[24]liq,wangz.reduced-referenceimagequalityassessmentusingdivisivenormalization-basedimagerepresentation[j].ieeejournalofselectedtopicsinsignalprocessing,2009,3(2):202-211.[25]c.c.changandc.j.lin.(2001).libsvm:alibraryforsupportvectormachines[online].available:http://www.csie.ntu.edu.tw/~cjlin/libsvm/。當前第1頁12
當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1