基于魯棒光流和Zernike不變矩的視頻時空超分辨率重建方法
【專利摘要】本發(fā)明公開了一種基于魯棒光流和Zernike不變矩的視頻時空超分辨率重建方法,包括:對視頻序列在時空域進行運動分析,構(gòu)建所述視頻序列魯棒性的光流運動估計模型,得到運動向量;根據(jù)所述運動向量,對所述視頻序列進行雙向時空運動補償,得到補償后的視頻序列;采用基于Zernike不變矩的快速非局部模糊配準(zhǔn)機制的跨尺度融合策略,對所述補償后的視頻序列進行時空超分辨率重建,得到高時空分辨率的視頻序列。本發(fā)明不依賴于精確的亞像素運動估計,可適用于各種復(fù)雜的運動模式,如角度旋轉(zhuǎn)和局部運動等,能為運動目標(biāo)的精確識別和跟蹤提供更加清晰流暢的視頻信息,具有很強的實際應(yīng)用價值。
【專利說明】
基于魯棒光流和Zern i ke不變矩的視頻時空超分辨率重建 方法
技術(shù)領(lǐng)域
[0001]本發(fā)明涉及圖像/視頻增強技術(shù)領(lǐng)域,特別是指一種基于魯棒光流和Zernike不變 矩的視頻時空超分辨率重建方法。
【背景技術(shù)】
[0002] 分辨率是空間運動圖像質(zhì)量的重要指標(biāo),分辨率越高,從運動圖像序列中所獲取 到的關(guān)于空間運動目標(biāo)的細(xì)節(jié)信息就越豐富,從而更有利于對空間運動目標(biāo)進行精確識別 和跟蹤。由于運動或光學(xué)模糊、欠采樣及噪聲干擾等因素,使得運動圖像序列的視覺效果較 差。
[0003] 傳統(tǒng)的超分辨率重建方法依賴于精確的亞像素運動估計,因此僅局限于一些全局 平移等簡單的運動模式。視頻序列中存在著一些較為復(fù)雜的運動模式,當(dāng)視頻序列中存在 不同角度的旋轉(zhuǎn)時,幀間的時空相似性變得十分微弱,幀間信息很難得到有效地利用,進而 影響到超分辨率重建的質(zhì)量。傳統(tǒng)的基于運動向量的幀插值技術(shù)由于不可避免的受到運動 估計誤差的影響,會使得插值幀中出現(xiàn)視覺上的塊效應(yīng)或空洞效應(yīng)。
[0004] 迭代反投影法、最大后驗估計MAP、凸集投影法POCS等往往依賴于精確的亞像素運 動估計,僅在一些全局平移等簡單的運動模式,以及單一的運動目標(biāo)場景下能取得較好的 效果,無法有效處理一些復(fù)雜的運動場景,難以實現(xiàn)精確的運動估計,嚴(yán)重影響到超分辨率 重建的質(zhì)量。
【發(fā)明內(nèi)容】
[0005] 有鑒于此,本發(fā)明的目的在于提出一種基于魯棒光流和Zernike不變矩的視頻時 空超分辨率重建方法,不再依賴于精確的亞像素運動估計,以適應(yīng)各種復(fù)雜的運動模式。
[0006] 基于上述目的本發(fā)明提供的基于魯棒光流和Zernike不變矩的視頻時空超分辨率 重建方法,包括:
[0007] 對視頻序列在時空域進行運動分析,構(gòu)建所述視頻序列魯棒性的光流運動估計模 型,得到運動向量;
[0008] 根據(jù)所述運動向量,對所述視頻序列進行雙向時空運動補償,得到補償后的視頻 序列;
[0009] 采用基于Zernike不變矩的快速非局部模糊配準(zhǔn)機制的跨尺度融合策略,對所述 補償后的視頻序列進行時空超分辨率重建,得到高時空分辨率的視頻序列。
[0010] 在可選的實施例中,所述對視頻序列在時空域進行運動分析,構(gòu)建所述視頻序列 魯棒性的光流運動估計模型,得到運動向量,包括:
[0011]計算得到亮度守恒約束和梯度守恒約束聯(lián)合驅(qū)動的數(shù)據(jù)項;
[0012]在光流目標(biāo)能量函數(shù)的運動平滑約束中,引入運動結(jié)構(gòu)自適應(yīng)策略,計算得到正 則項;
[0013]根據(jù)自適應(yīng)加權(quán)中值濾波,計算得至排局部項;
[0014] 建立包含所述數(shù)據(jù)項、正則項、非局部項的光流估計模型目標(biāo)能量函數(shù),通過最小 化所述光流估計模型目標(biāo)能量函數(shù)計算得到所述運動向量。
[0015] 在可選的實施例中,所述根據(jù)所述運動向量,對所述視頻序列進行雙向時空運動 補償,包括:
[0016] 第η幀中,坐標(biāo)為(x,y)的像素能量值的計算式為:
[0017] Ιη(χ,γ)=λιΧ In-i(x+0.5Xu,y+0.5Xv)+A2X In+i(x-〇.5Xu,y-〇.5Xv),
[0018] 其中,In(x,y)表示第η幀中,坐標(biāo)為(x,y)的像素能量值,(u,v)為所述運動向量。
[0019] 在可選的實施例中,所述采用基于Zernike不變矩的快速非局部模糊配準(zhǔn)機制的 跨尺度融合策略,對所述補償后的視頻序列進行時空超分辨率重建,得到高時空分辨率的 視頻序列,包括:
[0020] 使用基于迭代曲率的插值機制對所述補償后的視頻序列進行處理,得到初始估計 序列;
[0021] 使用基于Zernike不變矩的快速非局部模糊配準(zhǔn)機制對所述初始估計序列進行處 理,對不同時空尺度的連續(xù)視頻幀進行跨尺度融合,得到融合估計序列;
[0022]使用模糊處理和迭代更新機制對所述融合估計序列進行處理,得到所述高時空分 辨率的視頻序列。
[0023]從上面所述可以看出,本發(fā)明提供的基于魯棒光流和Zernike不變矩的視頻時空 超分辨率重建方法,不依賴于精確的亞像素運動估計,可適用于各種復(fù)雜的運動模式,如角 度旋轉(zhuǎn)和局部運動等,且具有較好的噪聲魯棒性和旋轉(zhuǎn)不變性。本發(fā)明提升了時空超分辨 率重建的整體性能,能為運動目標(biāo)的精確識別和跟蹤提供更加清晰流暢的視頻信息,具有 很強的實際應(yīng)用價值。
【附圖說明】
[0024] 圖1為本發(fā)明提供的基于魯棒光流和Zernike不變矩的視頻時空超分辨率重建方 法的實施例的流程示意圖;
[0025] 圖2為本發(fā)明提供的基于魯棒光流和Zernike不變矩的視頻時空超分辨率重建方 法的一個可選實施例的流程示意圖;
[0026] 圖3為本發(fā)明提供的基于魯棒光流和Zernike不變矩的視頻時空超分辨率重建方 法的一個可選實施例的實現(xiàn)流程示意圖;
[0027] 圖4為本發(fā)明提供的基于魯棒光流和Zernike不變矩的視頻時空超分辨率重建方 法的另一可選實施例的流程示意圖;
[0028] 圖5為本發(fā)明提供的基于魯棒光流和Zernike不變矩的視頻時空超分辨率重建方 法的另一可選實施例的實現(xiàn)流程示意圖。
【具體實施方式】
[0029] 為使本發(fā)明的目的、技術(shù)方案和優(yōu)點更加清楚明白,以下結(jié)合具體實施例,并參照 附圖,對本發(fā)明進一步詳細(xì)說明。
[0030] 需要說明的是,本發(fā)明實施例中所有使用"第一"和"第二"的表述均是為了區(qū)分兩 個相同名稱非相同的實體或者非相同的參量,可見"第一" "第二"僅為了表述的方便,不應(yīng) 理解為對本發(fā)明實施例的限定,后續(xù)實施例對此不再一一說明。
[0031] 為使本發(fā)明的目的、技術(shù)方案及優(yōu)點更加清楚明白,以下參照附圖并舉實例對本 發(fā)明做進一步詳細(xì)地說明。
[0032] 在本發(fā)明的一個方面,提供基于魯棒光流和Zernike不變矩的視頻時空超分辨率 重建方法的一個可選的實施例。
[0033] 圖1為本發(fā)明提供的基于魯棒光流和Zernike不變矩的視頻時空超分辨率重建方 法的實施例的流程示意圖。如圖所示,在本實施例中,包括:
[0034] S10,對視頻序列在時空域進行運動分析,構(gòu)建所述視頻序列魯棒性的光流運動估 計模型,得到運動向量。
[0035] SI 1,根據(jù)所述運動向量,對所述視頻序列進行雙向時空運動補償,得到補償后的 視頻序列。
[0036] S12,采用基于Zernike不變矩的快速非局部模糊配準(zhǔn)機制的跨尺度融合策略,對 所述補償后的視頻序列進行時空超分辨率重建,得到高時空分辨率的視頻序列。
[0037] 本發(fā)明提供的基于魯棒光流和Zernike不變矩的視頻時空超分辨率重建方法,不 依賴于精確的亞像素運動估計,可適用于各種復(fù)雜的運動模式,如角度旋轉(zhuǎn)和局部運動等, 且具有較好的噪聲魯棒性和旋轉(zhuǎn)不變性。本發(fā)明提升了時空超分辨率重建的整體性能,能 為運動目標(biāo)的精確識別和跟蹤提供更加清晰流暢的視頻信息,具有很強的實際應(yīng)用價值。
[0038] 圖2為本發(fā)明提供的基于魯棒光流和Zernike不變矩的視頻時空超分辨率重建方 法的一個可選實施例的流程示意圖;圖3為本發(fā)明提供的基于魯棒光流和Zernike不變矩的 視頻時空超分辨率重建方法的一個可選實施例的實現(xiàn)流程示意圖。如圖所示,在本發(fā)明的 一些可選的實施例中,步驟S10,對視頻序列在時空域進行運動分析,構(gòu)建所述視頻序列魯 棒性的光流運動估計模型,得到運動向量,具體包括:
[0039] S20,計算得到亮度守恒約束和梯度守恒約束聯(lián)合驅(qū)動的數(shù)據(jù)項。
[0040] S21,在光流目標(biāo)能量函數(shù)的運動平滑約束中,引入運動結(jié)構(gòu)自適應(yīng)策略,計算得 到正則項。
[0041 ] S22,根據(jù)自適應(yīng)加權(quán)中值濾波,計算得到非局部項。
[0042] S23,建立包含所述數(shù)據(jù)項、正則項、非局部項的光流估計模型目標(biāo)能量函數(shù),通過 最小化所述光流估計模型目標(biāo)能量函數(shù)計算得到所述運動向量。
[0043] 本實施例對光流運動估計模型進行了改進和優(yōu)化,進一步提升模型的魯棒性和運 動估計精度。具體表現(xiàn)在如下三個方面:
[0044] 為了增強模型對于光照噪聲等因素的魯棒性,本實施例對光流運動估計模型的數(shù) 據(jù)項進行優(yōu)化,構(gòu)建亮度守恒約束和梯度守恒約束聯(lián)合驅(qū)動的數(shù)據(jù)項,計算方法如下:
[0045]
[0046] 其中參數(shù)ζ是兩種約束之間的權(quán)重調(diào)節(jié)因子,I(x,y,t)表示像素點(x,y)在時間點 t的亮度值,Ix,I y,It為I(x,y,t)關(guān)于x,y,t的偏導(dǎo)數(shù),(ux,vy)為光流估計獲取的運動矢量。
[0047] 為保護運動間斷處和邊緣細(xì)節(jié),實施例在光流目標(biāo)能量函數(shù)的運動平滑約束的正 則項中,引入運動結(jié)構(gòu)自適應(yīng)策略,改進后的正則項定義如下:
[0048]
[0049] 其中,I Vux| +I Vvy I是傳統(tǒng)的TV正則化操作。c〇(x,y)是保護運動細(xì)節(jié)的自適應(yīng)性 權(quán)重,其計算方法如下:
[0050] ω (x,y) = exp( -1 VIi |k)
[0051 ] 根據(jù)理論計算和實驗驗證,當(dāng)參數(shù)k取0.8時,運動估計性能最好。
[0052] 本實施例在光流目標(biāo)能量方程中引入一個啟發(fā)式非局部項,通過采用自適應(yīng)加權(quán) 中值濾波對各層的光流運動估計結(jié)果進行優(yōu)化,進一步提升方法的精度和魯棒性。對該過 程進行數(shù)學(xué)建模,并可求解如下問題:
[0053]
[0054] 其中,ωχ,γ,^是自適應(yīng)性權(quán)重因子。權(quán)重的計算由空間距離,顏色色差距離以及 閉塞狀態(tài)三個因素共同確定,計算公式如下:
[0055]
[0056] 其中I(i,j)和I(i'J')表示Lab顏色空間中的顏色向量,o(i,j)和o(i'J')表示 閉塞變量。式中,〇1 = 7,〇2 = 7。
[0057] 通過綜合考慮光流差異和像素投影差異兩個因素,采用如下公式進行閉塞區(qū)域檢 測,進而求解閉塞變量〇(i,j)。
[0058]
[0059]
[0060] - i^x,y
[0061] 其中N( ·)服從零均值非正態(tài)高斯先驗假設(shè),d(x,y)表示光流差異因素,e(x,y)表 示像素投影差異因素。取Gd = 0 · 3,Oe = 20。
[0062] 構(gòu)建如下式所示的光流估計模型目標(biāo)能量函數(shù),并通過最小化該目標(biāo)函數(shù)來獲取 高精度的光流運動向量(u,v):
[0063] E(u,v) =Ed(u,v)+aEr(u,v)+PEwNL
[0064] 其中參數(shù)a和β是Ed (u,v),Er (u,v)和Etol三項之間的權(quán)重調(diào)節(jié)因子。
[0065] 對于通過運動估計獲取的光流運動向量,只對流邊界區(qū)域的運動向量,在15 X 15 的非局部窗口內(nèi)采用自適應(yīng)加權(quán)中值濾波對其進行優(yōu)化。對非運動邊界區(qū)域的運動向量, 在5X5的鄰域窗口內(nèi)采用等值加權(quán)的中值濾波對其進行優(yōu)化。對流邊界區(qū)域的提取,采用 Canny邊緣檢測算子來獲取檢測到運動邊界,通過采用5 X 5的掩模方法來對檢測出的運動 邊界進行膨脹,從而獲取流邊界區(qū)域。
[0066] 在本發(fā)明的一些可選的實施例中,為保證獲取更好的補償效果的同時,進一步提 升方法的時間效率,引入一種雙向加權(quán)融合策略來進行時空運動補償。具體的,步驟Sl 1,根 據(jù)所述運動向量,對所述視頻序列進行雙向時空運動補償,得到補償后的視頻序列中,計算 第η幀中,坐標(biāo)為(x,y)的像素能量值的計算式為:
[0067] Ιη(χ,γ)=λι XIn-I (x+0.5 X u, y+0.5 X v) +λ2 X Ιη+ι (χ-〇 .5Xu,y-〇.5Xv)
[0068] 其中,In(x,y)表示第η幀中,坐標(biāo)為(x,y)的像素能量值,(u,v)為所述運動向量。
[0069] 圖4為本發(fā)明提供的基于魯棒光流和Zernike不變矩的視頻時空超分辨率重建方 法的另一可選實施例的流程示意圖;圖5為本發(fā)明提供的基于魯棒光流和Zernike不變矩的 視頻時空超分辨率重建方法的另一可選實施例的實現(xiàn)流程示意圖。如圖所示,在本發(fā)明的 一些可選的實施例中,提出一種基于Zernike不變矩的快速非局部模糊配準(zhǔn)機制,通過多幀 信息的跨尺度融合策略實現(xiàn)快速高效的時空超分辨率重建,對補償后的視頻序列進行重建 和優(yōu)化,以獲取高質(zhì)量的補償視頻幀,進一步提升視頻序列的時間分辨率。該機制實現(xiàn)對原 低分辨率視頻序列空間分辨率的超分辨率重建,最終獲取高時空分辨率的視頻序列。本實 施例中,步驟S12,采用基于Zernike不變矩的快速非局部模糊配準(zhǔn)機制的跨尺度融合策略, 對所述補償后的視頻序列進行時空超分辨率重建,得到高時空分辨率的視頻序列,具體包 括:
[0070] S30,使用基于迭代曲率的插值機制對所述補償后的視頻序列進行處理,得到初始 估計序列。在本實施例中,引入一種新穎高效的基于迭代曲率的插值機制來獲取運動補償 后視頻序3
〃的高分辨率初始估計,即
[0071] S31,使用基于Zernike不變矩的快速非局部模糊配準(zhǔn)機制對所述初始估計序列進 行處理,對不同時空尺度的連續(xù)視頻幀進行跨尺度融合,得到融合估計序列。在本實施例 中,在初始估計序]
S礎(chǔ)上,采用基于Zernike不變矩的快速非局部模糊配 準(zhǔn)機制,對不同時空尺度的連續(xù)視頻幀進行跨尺度融合,實現(xiàn)超分辨率重建。
[0072] S32,使用模糊處理和迭代更新機制對所述融合估計序列進行處理,得到所述高時 空分辨率的視頻序列。在本實施例中,采用模糊處理和迭代更新機制,對融合重建后的結(jié)果 進行進一步優(yōu)化處理,提升重建質(zhì)量,獲取重建后的高時空分辨率的視頻序列
[0073] 在本實施例的可選實施方式中,實現(xiàn)所述步驟S30的過程中,引入一種快速而高效 的基于迭代曲率的插值(ICBI)機制,為后續(xù)步驟的融合重建過程提供效果較好的高分辨率 初始估計。每個插值像素K2u+l,2v+l)的初始能量估計值通過如下計算方法來確定:
[0074]
[0075]
[0076]
[0077]
[0078]
[0079] 其中^(211+1,2計1)和^(211+1,2計1)分別表示八個鄰域像素能量值沿兩個對角線 方向的二階導(dǎo)數(shù)。以上獲取的粗糙估計,需要不斷地進行迭代更新,以獲取更高質(zhì)量的插值 效果。所獲取的粗糙估計值I(2u+l,2v+l)需要經(jīng)過如下公式進行修正。
[0080] E(2x+1,2y+l) =aEc(2u+l, 2v+l )+0Ee(2u+l, 2v+l)+ γ Ei(2u+1,2v+l)
[0081] 其中EhEe3和Ei分別表示曲率連續(xù)能量,曲率增強能量和曲率平滑能量,參數(shù)a,β和 γ分別表示控制三個能量比例的權(quán)重調(diào)節(jié)因子。
[0082] 在本實施例的可選實施方式中,在獲取初始估計序列后,繼續(xù)執(zhí)行步驟S31,使用 基于Zernike不變矩的快速非局部模糊配準(zhǔn)機制對所述初始估計序列進行處理,對不同時 空尺度的連續(xù)視頻幀進行跨尺度融合,得到融合估計序列。
[0083] 可選的,在提出的所述快速非局部模糊配準(zhǔn)機制中,引入了基于區(qū)域平均能量的 自適應(yīng)性區(qū)域相關(guān)性判斷策略。對待重建像素(k,l)的非局部搜索區(qū)域內(nèi)的所有像素(i,j) 對應(yīng)的鄰域區(qū)域進行相關(guān)性判斷,分為相關(guān)區(qū)域和不相關(guān)區(qū)域,只選擇相關(guān)的區(qū)域參與權(quán) 值計算,進一步提升方法的時間效率。在相關(guān)性判斷過程中,引入自適應(yīng)閾值S adap策略,若 兩區(qū)域相關(guān),則計算公式如下:
[0084]
[0085] 閾值的大
小是通過待重建像素(k,l)對應(yīng)的鄰域區(qū)域的平均能量來自適應(yīng) 地確定的,可對區(qū)域間的相關(guān)性進行判定,自適應(yīng)性閾值計算如下:
[0086]
[0087]其中,λ為控制Sadap的調(diào)節(jié)因子,λ取〇 . 08時,重建的效果最好。
[0088]構(gòu)建基于Zernike不變矩特征相似性計算的權(quán)重計算公式如下:
[0089]
[0090]
[0091] 其中(k,l)表示待重建的像素點,(i,j)表示待重建像素非局部區(qū)域Nncinlcic;(k,l)R 的像素點,參數(shù)ε控制指數(shù)函數(shù)的衰減率和權(quán)值的衰減率,C(k, 1)表示歸一化常數(shù)。
[0092] 當(dāng)權(quán)重ω ezer[k,I,i,j,t]確定之后,待重建視頻幀各像素的高分辨率估計可以通 過對其相鄰連續(xù)多幀間的非局部區(qū)域內(nèi)像素加權(quán)平均進行跨尺度融合而獲得,假設(shè)Z = HX, H為模糊因子,則Z的高分辨率估計可以通過最小化如下能量函數(shù)來獲取:
[0093]
[0094] 從而得到融合估計序歹!
〇
[0095] 在本實施例的可選實施方式中,在獲取初始估計序列后,繼續(xù)執(zhí)行步驟S32,使用 模糊處理和迭代更新機制對所述融合估計序列進行處理,得到所述高時空分辨率的視頻序 列。在本可選實施方式中,引入一種高效的自適應(yīng)性正則化機制來對融合獲取的重建結(jié)果 進行去模糊處理,高時空分辨率的視頻序列X可以通過最小化如下目標(biāo)能量函數(shù)來獲取。
[0096]
[0097]其中λ是自適應(yīng)正則化去模糊過程AREG(X)的權(quán)重參數(shù)。
[0098] 在另一可選的實施方式中,為了進一步提升重建質(zhì)量,對重建的結(jié)果進行不斷地 迭代更新和優(yōu)化。每次迭代過程的結(jié)果將為下一次迭代過程提供更精確的相似度權(quán)重計 算,從而提升最終得到的視頻序列的分辨率。
[0099] 所屬領(lǐng)域的普通技術(shù)人員應(yīng)當(dāng)理解:以上任何實施例的討論僅為示例性的,并非 旨在暗示本公開的范圍(包括權(quán)利要求)被限于這些例子;在本發(fā)明的思路下,以上實施例 或者不同實施例中的技術(shù)特征之間也可以進行組合,步驟可以以任意順序?qū)崿F(xiàn),并存在如 上所述的本發(fā)明的不同方面的許多其它變化,為了簡明它們沒有在細(xì)節(jié)中提供。因此,凡在 本發(fā)明的精神和原則之內(nèi),所做的任何省略、修改、等同替換、改進等,均應(yīng)包含在本發(fā)明的 保護范圍之內(nèi)。
【主權(quán)項】
1. 一種基于魯棒光流和Zernike不變矩的視頻時空超分辨率重建方法,其特征在于,包 括: 對視頻序列在時空域進行運動分析,構(gòu)建所述視頻序列魯棒性的光流運動估計模型, 得到運動向量; 根據(jù)所述運動向量,對所述視頻序列進行雙向時空運動補償,得到補償后的視頻序列; 采用基于Zernike不變矩的快速非局部模糊配準(zhǔn)機制的跨尺度融合策略,對所述補償 后的視頻序列進行時空超分辨率重建,得到高時空分辨率的視頻序列。2. 根據(jù)權(quán)利要求1所述的方法,其特征在于,所述對視頻序列在時空域進行運動分析, 構(gòu)建所述視頻序列魯棒性的光流運動估計模型,得到運動向量,包括: 計算得到亮度守恒約束和梯度守恒約束聯(lián)合驅(qū)動的數(shù)據(jù)項; 在光流目標(biāo)能量函數(shù)的運動平滑約束中,引入運動結(jié)構(gòu)自適應(yīng)策略,計算得到正則項; 根據(jù)自適應(yīng)加權(quán)中值濾波,計算得到非局部項; 建立包含所述數(shù)據(jù)項、正則項、非局部項的光流估計模型目標(biāo)能量函數(shù),通過最小化所 述光流估計模型目標(biāo)能量函數(shù)計算得到所述運動向量。3. 根據(jù)權(quán)利要求1所述的方法,其特征在于,所述根據(jù)所述運動向量,對所述視頻序列 進行雙向時空運動補償,包括: 第η幀中,坐標(biāo)為(X,y)的像素能量值的計算式為: In(x,y) = λι X In-i(x+0· 5 Xu,y+0· 5 X ν)+λ2 X Ιη+ι(χ-〇 ·5 Xu,y-〇 ·5 X v), 其中,In(x,y)表示第η幀中,坐標(biāo)為(x,y)的像素能量值,(u,v)為所述運動向量。4. 根據(jù)權(quán)利要求1所述的方法,其特征在于,所述采用基于Zernike不變矩的快速非局 部模糊配準(zhǔn)機制的跨尺度融合策略,對所述補償后的視頻序列進行時空超分辨率重建,得 到高時空分辨率的視頻序列,包括: 使用基于迭代曲率的插值機制對所述補償后的視頻序列進行處理,得到初始估計序 列; 使用基于Zernike不變矩的快速非局部模糊配準(zhǔn)機制對所述初始估計序列進行處理, 對不同時空尺度的連續(xù)視頻幀進行跨尺度融合,得到融合估計序列; 使用模糊處理和迭代更新機制對所述融合估計序列進行處理,得到所述高時空分辨率 的視頻序列。
【文檔編號】G06T5/00GK106056540SQ201610538641
【公開日】2016年10月26日
【申請日】2016年7月8日
【發(fā)明人】杜軍平, 梁美玉, 劉紅剛, 曹守鑫, 李玲慧
【申請人】北京郵電大學(xué)