專利名稱::基于同一場景散亂照片集的三維重構(gòu)方法
技術(shù)領(lǐng)域:
:本發(fā)明屬于虛擬現(xiàn)實技術(shù)與計算機視覺領(lǐng)域,具體地說是由同一場景的散亂照片進行三維重構(gòu),包括恢復相機的拍攝位置、方向和視域,以及稠密的3D場景點云模型,主要用于對PC或Internet上數(shù)碼照片資源進行三維組織、以及基于圖像的繪制與瀏覽等。技術(shù)背景計算機視覺中,多視圖幾何的三維重建理論和算法在過去的二十幾年里已經(jīng)得到了較成熟的發(fā)展,文獻1—R.Hartley,andA.Zisserman,MultipleViewGeometryinComputerVision,CambridgeUniversityPress,2000.全面深入地推導并總結(jié)了相關(guān)理論和算法。針對相機已標定或未標定的不同情況,由一組特征對應(yīng)同時恢復未知的三維場景結(jié)構(gòu)和相機位置的方法(StructurefromMotion,SfM)都已得到成功應(yīng)用。但是傳統(tǒng)的三維重構(gòu)通常針對的是序列圖像,可由相機拍攝或從視頻中提取序列圖像幀,序列圖像具備進行三維重構(gòu)至關(guān)重要的良好性質(zhì)l)相繼圖像間的相機中心距離(基線)小,小基線能保證較好的特征匹配;2)圖像有序,非常有利于特征匹配、特征點跟蹤串聯(lián)的質(zhì)量和效率,尤其是它們保證了相機較均勻規(guī)則的運動,這對三維重構(gòu)計算和相機運動參數(shù)的恢復有著決定性影響。然而隨著數(shù)字攝像技術(shù)與Internet的迅速發(fā)展,有不可計數(shù)的圖像資源在傳播與共享,這些圖像的復雜性對基于圖像的三維重構(gòu)技術(shù)在Internet上的發(fā)展和應(yīng)用提出了巨大挑戰(zhàn),這些無組織、未定標的圖像可能拍攝年代不同,且具有不同光照、不同分辨率、不同圖像質(zhì)量,傳統(tǒng)的三維重建方法已經(jīng)遠遠不能滿足這樣的需求。文獻2—M.BrownandD.Lowe,Unsupervised3dObjectRecognitionandReconstructioninUnorderedDataset,Proc.InternationalConf.on3DDigitalImagingandModeling,pp.56-63,2005.提出了一種無監(jiān)督的基于無序圖像庫的三維物體識別與重建方法,首先利用SIFT特征算子在所有圖像中尋找匹配,用RANSAC算法尋找滿足基礎(chǔ)矩陣約束的一致匹配,將每個匹配子集看作一個三維物體的構(gòu)成,然后分別用SfM(StructurefromMotion)方法同時恢復相機運動和三維物體幾何信息。但該方法存在缺陷有l(wèi))假設(shè)匹配錯誤率非常高,經(jīng)過RANSAC算法剔除的錯誤匹配很少,計算的基礎(chǔ)矩陣不可靠;2)以最佳匹配對作為SfM初始相機對,而不考慮退化情況極易導致病態(tài)估計;3)恢復的幾何信息是稀疏三維特征點,遠不能滿足視覺需求。文獻3~N.Snavely,S.Seitz,andR.Szeliski,PhotoTourism:ExploringPhotoCollectionsin3D,Proc.ACMTransactionsonGraphics,25(3):835-846,2006.利用特征匹配和SfM方法自動恢復相機姿態(tài)和場景的稀疏三維點,并結(jié)合視圖變形、非真實感渲染等基于圖像會制技術(shù),開發(fā)了一個端到端3D照片瀏覽系統(tǒng),即為微軟公司產(chǎn)品Photosynth的前身。其三維重建方法類似文獻2,主要改善了文獻2方法的前兩點缺陷1)提高了初始匹配特征域約束的比率與RANSAC估計中的錯誤概率,提高了計算可靠性;2)進行初始相機姿態(tài)估計,更合理地選擇SfM過程的初始相機對,增加了對退化情況的檢查,并利用EXIF數(shù)據(jù)中的焦距信息估計初始相機內(nèi)參。但重建結(jié)果仍然是稀疏的三維場景點,通過增加圖像的辦法可以獲得更多的三維特征點,但隨著圖像的增加,SfM過程的速度變的非常慢,根據(jù)文獻3的實驗數(shù)據(jù),需要花幾天的時間處理1千張照片。文獻4—M.Lhuillier,andL.Quan,Aquasi-denseApproachtoSurfaceReconstructionfromUncalibratedImages,IEEETransonPatternAnalysisandMachineIntelligence,27(3》418-433,2005.提出了一種由未定標圖像獲取三維表面模型的準密方法。首先,通過由視差梯度和ZNCC置信約束的最佳匹配傳播,獲得準密對應(yīng)像素;其次,通過局部單應(yīng)約束重采樣,獲得子像素級別(8X8區(qū)域)的準密對應(yīng)點;再次,利用RANSAC算法估計基礎(chǔ)矩陣F,重新進行增加F約束的最佳匹配傳播和重采樣,獲得準密對應(yīng)點;最后,再利用RANSAC估計基礎(chǔ)矩陣,并剔除異常準密對應(yīng)點。該方法彌補了稀疏方法與稠密方法之間的空白,且增大了良好匹配的基線寬度,但同樣不適用于復雜情況,僅在相機內(nèi)參變化較小時,對較大基線的兩幅視圖能獲得較好的準密匹配結(jié)果;當相機內(nèi)參變換較大時,反而可能得到比稀疏匹配更糟糕的結(jié)果;此外,該方法時間開銷較大。文獻1中方法是針對序列圖像的稀疏重建;文獻2研究了基于無序圖像的稀疏重建方法,得到的點模型不具有視覺表現(xiàn)力,且恢復的相機姿態(tài)可靠性差;文獻3對文獻2的方法進行了改進,獲得了較好的稀疏場景模型,但為此復出了巨大的時間開銷;文獻4中方法能夠重建出高密度的場景模型,但適用于序列圖像的情況。上述各種方法均不能從同一場景的無序散亂照片重建出高密度的3D場景點云模型,能夠有效地降低時間開銷,同時保證相機姿態(tài)的可靠性。
發(fā)明內(nèi)容本發(fā)明的技術(shù)解決問題克服現(xiàn)有技術(shù)的不足,提供一種基于同一場景散亂照片集的三維重構(gòu)方法,該方法既能獲得可靠的相機姿態(tài)估計,又能得到高密度的場景幾何信息,且大大縮短了重構(gòu)時間,降低時間開銷,具有較高的重構(gòu)效率,適合處理數(shù)據(jù)量較大的散亂照片集。本發(fā)明的技術(shù)解決方案基于同一場景散亂照片集的三維重構(gòu)方法,分為3個階段第1階段,兩兩圖像特征匹配與相對相機運動估計,該階段分為4個步驟(1)對每兩幅圖像進行雙向最近鄰搜索與特征域約束,得到候選對應(yīng);(2)對候選對應(yīng)進行視差域?qū)?yīng)約束,得到假設(shè)對應(yīng);G)對假設(shè)對應(yīng)進行圖像坐標標準化,以本質(zhì)矩陣作為參數(shù)模型,求假設(shè)對應(yīng)的參數(shù)模型估計;再利用本質(zhì)矩陣反約束假設(shè)對應(yīng),得到初步匹配;(4)分解本質(zhì)矩陣得到相機運動的4組可能解,進行可容錯正向深度約束,確定最終解;再利用相機運動反約束初步匹配,得到最終匹配;第2階段,基于第1階段的結(jié)果進行初始重構(gòu)相機對量化選擇,然后再使用標準的稀疏重構(gòu)方法,同時恢復相機姿態(tài)和場景的稀疏幾何信息;第3階段,基于第2階段的結(jié)果進行選擇性準密匹配,再使用三角測量方法重建準密的3D場景點云模型。所述第1階段的步驟(l)中雙向最近鄰搜索與特征域約束的方法為對于兩幅圖像(//,/》,首先,由用戶設(shè)置正、逆向特征域約束比率巾,A;其次,對圖像/7上的每個特征點p,在圖像/2上尋找4個最近鄰作為潛在匹配;然后,進行正向特征域約束將第.5個最近鄰視為距離Q的誤配,若潛在匹配距離與e/比值小于rt/,則為該潛在匹配在//上尋找1個最近鄰;最后,進行逆向特征域約束:將第2個最近鄰視為距離e2的誤配,若最近鄰距離與Q比值小于rt2,且此最近鄰即為p,則接受該潛在匹配為候選對應(yīng)。所述第l階段的步驟(2)中視差域約束的方法為首先,為候選對應(yīng)計算x,y兩個方向上的視差;其次,將圖像寬度、長度等分為量化區(qū)間,累計視差落在每個區(qū)間的對應(yīng)數(shù)量,分別建立x,y方向上的視差直方圖;然后,將峰值區(qū)間以及數(shù)量不少于峰值50%的次峰值區(qū)間視為正常視差范圍,剔除x或y方向視差落在正常范圍之外的候選對應(yīng);最后,剔除所有非單射對應(yīng),獲得假設(shè)對應(yīng)。所述第l階段的步驟(3)中圖像坐標標準化的方法為首先,從數(shù)碼照片的可交換圖像文件標記,即EXIF標記中直接讀出相機拍攝焦距a,圖像尺寸寬Wimg和高Himg,并根據(jù)讀出的相機制造商和型號,對照工業(yè)標準得到CCD尺寸寬Wecd,和Hccd;然后,近似估計相機內(nèi)參,將假設(shè)對應(yīng)點坐標左乘以內(nèi)參矩陣的逆矩陣,實現(xiàn)圖像坐標的標準化。所述第l階段的步驟(4)中可容錯正向深度約束的方法為分解本質(zhì)矩陣得到相機運動的4組可能解中,如果存在1組對所有對應(yīng)點均滿足正向深度約束,則該組運動即為所求;否則設(shè)置允許誤差率,如果存在1組相機運動滿足正向深度約束的對應(yīng)點數(shù)為4組中最大,且與對應(yīng)點總數(shù)的比值不超過允許誤差率,則接受該組解,為最終解;否則宣布運動估計失敗。所述第2階段中初始重構(gòu)相機對的量化選擇方法為基于兩兩匹配和相機運動估計結(jié)果,得到基線寬度b和最終匹配數(shù)量n,按照公式Sr=(n-Nmin)x(Nmax-n)xb計算重構(gòu)優(yōu)先值Sr,其中Nmin、Nmax為最佳匹配范圍的下限與上限;選擇Sr最大^]一對作為初始重構(gòu)相機對。所述第3階段中選擇性準密匹配的方法為基于稀疏重構(gòu)過程中已恢復的相機內(nèi)參和相機運動,評估每幅圖像與基準圖像之間的準密重構(gòu)配置,得到焦距差J/^l和基線寬度b,按照公式D^(b-BmJx(B^-b)Xl/lf-f。l計算準密重構(gòu)值Dr,其中Bmin、Bm狀為最佳基線范圍的下限與上限;選擇Dr大于準密重構(gòu)閥值Dth的圖像對進行準密匹配。本發(fā)明與現(xiàn)有技術(shù)相比的優(yōu)點在于(1)本發(fā)明的相機姿態(tài)重構(gòu)結(jié)果的穩(wěn)定性與準確性獲得較大提高,由于提高了圖像匹配以及對極約束關(guān)系模型估計方法的準確性,增加了對退化情況的避免、檢測和處理方法,保證了最佳初始相機對和特征序列的可靠性,從而極大地減少了同時恢復相機運動和場景幾何的三維重構(gòu)方法,即SfM方法的累計誤差和病態(tài)估計可能。(2)本發(fā)明的場景幾何重構(gòu)結(jié)果突破了稀疏的局限,獲得了高密度的場景幾何信息,具體為準密的3D場景點云模型,能夠更形象直觀的表示場景幾何,從而更好地滿足虛擬現(xiàn)實與可視化應(yīng)用的需求。(3)本發(fā)明的重構(gòu)思想打破了一次性獲得場景幾何和相機運動的思路,進行兩次三維重構(gòu),每次以不同的重構(gòu)目標為中心。第一次重構(gòu)以相機恢復為中心,同時恢復稀疏的場景幾何信息;第二次重構(gòu)目標是恢復稠密的場景幾何信息,具體為準密的3D場景點云模型。極大地克服了由于相機運動和場景幾何重構(gòu)結(jié)果相互影響而造成的累積誤差,從而保證既能獲得更加可靠的相機姿態(tài)估計,又能得到高密度的場景幾何信息。(4)本發(fā)明的重構(gòu)效率取得了明顯進步,雖然有兩次重構(gòu)過程,但第一次重構(gòu)利用SfM方法以準確、少量的特征點序列為輸入,且每次恢復相機個數(shù)l<Cnew<4;第二次重構(gòu)利用第一次重構(gòu)恢復的枏機運動,有選釋性地進行準密特征匹配,保證了最佳匹配效率,且不采用SfM方法,直接利用三角測量法進行重構(gòu)計算,使得本發(fā)明具有較高的計算效率和穩(wěn)定性??傊?,本發(fā)明既能獲得可靠的相機姿態(tài)估計,又能得到高密度的場景幾何信息,且大大縮短了重構(gòu)時間,具有較高的重構(gòu)效率,適合處理數(shù)據(jù)量較大的散亂照片集。圖1為本發(fā)明基于同一場景散亂照片集的三維重構(gòu)方法流程圖;圖2為采用本發(fā)明對128張北京天安門個人數(shù)碼照片收藏進行的三維重建效果圖。具體實施方式如圖1所示,本發(fā)明的具體步驟如下(虛線框內(nèi)步驟為已有技術(shù))1、對每兩幅圖像進行雙向最近鄰搜索與特征域約束,得到候選對應(yīng)。雙向最近鄰搜索與特征域約束的優(yōu)點在于兩兩圖像特征匹配時,在正向搜索更多潛在匹配,在逆向加強約束,既能獲得較多的候選對應(yīng),又提高了正確率,其方法為對于兩幅圖像(/7,/2),對//上的每個特征點/,,求其在A上的候選對應(yīng)點,步驟如下第一步,用戶設(shè)置正、逆向特征域約束比率分別為,rt2;第二步,在/2上尋找;,的1<=5個最近鄰;7,7-/^,與;,距離為《-A,對于/^=7,...,",若滿足《站〈W/;第三步,在//上尋找&的k=2個最近鄰a,;^,與距離為《7,&,若滿足《7",.2<W2且P(/尸P第四步,接受<^,^>為候選對應(yīng)。2、對候選對應(yīng)進行視差域?qū)?yīng)約束,得到假設(shè)對應(yīng)。-視差域?qū)?yīng)約束有優(yōu)點在于利用運動一致性約束篩選候選對應(yīng),得到假設(shè)對應(yīng),彌補了特征域約束的不足,有效剔除異常匹配,其方法如下對于兩幅圖像/》的候選對應(yīng)集(〈;,';V,/V^,;V〉l(Xi〈n,;(Kj〈5):第一步,分別計算x,y方向上的視差l;c,-;c&l和|乂-力|;第二步,將圖像寬度W和長度h等分為W和bh個量化區(qū)間,累計視差落在每個區(qū)間的對應(yīng)數(shù)量,分別建立x,y方向上的視差直方圖;第三步,認為峰值區(qū)間以及數(shù)量不少于峰值50%的次峰值區(qū)間范圍為正常視差范圍,剔除x或y方向視差落在正常范圍之外的候選對應(yīng);第四步,剔除所有非單射對應(yīng),輸出(/7,/2)的假設(shè)對應(yīng)集。3、對假設(shè)對應(yīng)進行圖像坐標標準化,以本質(zhì)矩陣作為參數(shù)模型,求假設(shè)對應(yīng)的參數(shù)模型估計;再利用本質(zhì)矩陣反約束假設(shè)對應(yīng),得到初步匹配。圖像坐標標準化不同于坐標歸一化,能夠直接求得標準化的圖像坐標,極大地提高了本質(zhì)矩陣估計的可靠性。對數(shù)碼照片進行近似內(nèi)參估計,通過消除不同相機內(nèi)參的影響,達到圖像坐標標準化的目標,且通過ransac參數(shù)模型估計直接求得本質(zhì)矩陣,可直接進行下一步運動提取,步驟如下第一步,利用數(shù)碼照片exif標記信息進行近似內(nèi)參估計,計算方法為<formula>formulaseeoriginaldocumentpage9</formula>其中,fl(mm)相機拍攝焦距,J^g(pixel),/^g(pixel)分別為圖像寬、高,均可直接從EXIF數(shù)據(jù)中讀出;『c"mm),//caKmm)分別為數(shù)碼相機CCD的寬、高,可從EXIF數(shù)據(jù)中獲得相機制造商和型號,然后按照工業(yè)標準找到對應(yīng)的CCD尺寸;第二步,設(shè)圖像/;,/2的近似內(nèi)參估計為KpK2,進行圖像坐標標準化,轉(zhuǎn)換公式為/7,4廠V,;々喝、;第三步,標準化坐標下的基礎(chǔ)矩陣F稱為本質(zhì)矩陣E,根據(jù)對極幾何約束關(guān)系p/五/產(chǎn)0,利用RANSAC方法進行參數(shù)模型估計求E;第四步,同時用E約束假設(shè)對應(yīng),剔除異常匹配,獲得精確對應(yīng)。4.分解本質(zhì)矩陣得到相機運動的4組可能解,進行可容錯正向深度約束,確定最終解;再利用相機運動反約束初步匹配,得到最終匹配。輸入包含n對標準化坐標下的精確對應(yīng)點集合,以及本質(zhì)矩陣E,SVD分解五-t/fi^g(7,/,^^,得到4組可能的相機運動[RIt];第一步,對所有對應(yīng)點進行正向深度約束。設(shè)<table>tableseeoriginaldocumentpage9</column></row><table>每組相機,對每對對應(yīng)點進行深度計算力Wr廣/凡K7,,如果存在一組相機運動對所有對應(yīng)點均滿足Z戶O且Z2>0,則該組運動即為所求;否則,第二步,設(shè)置rtneg為允許誤差率,如果一組相機運動滿足ZPK)且Z2X)的對應(yīng)點數(shù)Tneg為4組中最大,且Tneg/lKrtneg,則接受該組運動,為最終解;否則執(zhí)行第三步;第三步,宣布運動提取失敗。5.基于第1階段的結(jié)果進行初始重構(gòu)相機對量化選擇,然后再使用標準的稀疏重構(gòu)方法,同時恢復相機姿態(tài)和場景的稀疏幾何信息。同時恢復相機姿態(tài)和場幾何的方法,即SfM方法,需要基于一個良好的初始重建結(jié)果,所以需要選擇一對最佳初始相機來決定參考坐標系第一個相機作為世界坐標系,該相機可以由用戶選擇,因為選擇一幅正面中央的場景照片作為世界坐標系是符合用戶愿望的,而由算法選擇出的可能是邊角側(cè)面。第二個相機的選擇基于兩兩匹配與相對運動估計的結(jié)果。初始相機對需要具備的兩個條件'條件l:較多的特征匹配;條件2:寬基線(兩個相機中心的直線距離)。本發(fā)明給出的方法是計算重構(gòu)優(yōu)先值,選擇優(yōu)先值最大的一對。設(shè)b為基線寬度,n為最終匹配數(shù)量,Nmin、Nmax為最佳匹配范圍的下限與上限,具體計算公式為Sr=("-Nmin)x(Nmax-")xb6.基于第2階段的結(jié)果進行選擇性準密匹配,再使用三角測量方法重建準密的3D場景點云模型。根據(jù)稀疏重構(gòu)的結(jié)果計算每幅圖像與基準圖像之間的準密重構(gòu)值,對達到準密重構(gòu)閾值的圖像對進行準密匹配,既發(fā)揮了準密匹配擴大基線的優(yōu)勢,又極大地避免了耗時的退化情況。本發(fā)明給出的方法是將文獻4提出的準密方法有選擇地應(yīng)用于輸A^的散亂照片集中。由于該方法可增大良好匹配的基線寬度,但僅在相機內(nèi)參變化較小時有效;當相機內(nèi)參變換較大時,反而可能得到比稀疏匹配更糟糕的結(jié)果;且該方法時間開銷較大,需要根據(jù)相機內(nèi)參和相機運動情況選擇合適的圖像對進行準密匹配,圖像對需要滿足的兩個條件條件l:相機內(nèi)參變化"較小";條件2:相機運動"適中"。本發(fā)明給出的方法是計算準密重構(gòu)值,選擇達到準密重構(gòu)閾值的圖像對進行準密匹配。設(shè)J/^I為每幅圖像與基準圖像之間焦距差,b為基線寬度,Bmin、Bm雙為最佳基線范圍的下限與上限,具體計算公式為Dr=(b-Bmin)x(Bmax-b)x]/|f-fJ;圖2是使用128張北京天安門的數(shù)碼照片個人收藏作為輸入,用本發(fā)明方法進行三維重構(gòu)的例子。重構(gòu)總時間約75分鐘,有85張照片的相機姿態(tài)得到恢復并注冊到場景中,其中18對被選擇進行準密匹配,并通過三角測量方法進行重構(gòu)計算得到最終的準密的三維場景點云模型。圖中的相機被渲染成棱臺,可跟據(jù)當前視點以不同分辨率和不透明度進行渲染,可應(yīng)用與照片的空間組織與瀏覽。權(quán)利要求1、基于同一場景散亂照片集的三維重構(gòu)方法,其特征在于所述的重構(gòu)方法分為3個階段,具體如下第1階段,兩兩圖像特征匹配與相對相機運動估計,該階段分為4個步驟(1)對每兩幅圖像進行雙向最近鄰搜索與特征域約束,得到候選對應(yīng);(2)對候選對應(yīng)進行視差域?qū)?yīng)約束,得到假設(shè)對應(yīng);(3)對假設(shè)對應(yīng)進行圖像坐標標準化,求假設(shè)對應(yīng)的參數(shù)模型估計,得到本質(zhì)矩陣;再利用本質(zhì)矩陣反約束假設(shè)對應(yīng),得到初步匹配;(4)分解本質(zhì)矩陣得到相機運動的4組可能解,進行可容錯正向深度約束,確定最終解;再利用相機運動反約束初步匹配,得到最終匹配;第2階段,基于第1階段的結(jié)果進行初始重構(gòu)相機對量化選擇,然后再使用標準的稀疏重構(gòu)方法,同時恢復相機姿態(tài)和場景的稀疏幾何信息;第3階段,基于第2階段的結(jié)果進行選擇性準密匹配,再使用三角測量方法重建準密的3D場景點云模型。2、根據(jù)權(quán)利要求1所述基于同一場景散亂照片集的三維重構(gòu)方法,其特征在于所述第l階段的步驟(1)中雙向最近鄰搜索與特征域約束的方法為對于兩幅圖像//,/2,首先,由用戶設(shè)置正、逆向特征域約束比率m,其次,對圖像7/上的每個特征點;,在圖像/2上尋找4個最近鄰作為潛在匹配;然后,進行正向特征域約束將第5個最近鄰視為距離q的誤配,若潛在匹配距離與。比值小于W/,則為該潛在匹配在力上尋找1個最近鄰;最后,進行逆向特征域約束將第2個最近鄰視為距離^的誤配,若最近鄰距離與^比值小于Wj,且此最近鄰即為/,則接受該潛在匹配為候選對應(yīng)。3、根據(jù)權(quán)利要求1所述基于同一場景散亂照片集的三維重構(gòu)方法,其特征在于所述第l階段的步驟(2)中視差域約束的方法為首先,為候選對應(yīng)計算X,y兩個方向上的視差;其次,將圖像寬長等分為量化區(qū)間,累計視差落在每個區(qū)間的對應(yīng)數(shù)量,分別建立x,y方向上的視差直方圖;然后,將峰值區(qū)間以及大于峰值50%的次峰值區(qū)間視為正常視差范圍,剔除x或y方向視差落在正常范圍之外的候選對應(yīng);最后,剔除所有非單射對應(yīng),獲得假設(shè)對應(yīng)。4、根據(jù)權(quán)利要求1所述基于同一場景散亂照片集的三維重構(gòu)方法,其特征在于所述第l階段的步驟(3)中圖像坐標標準化的方法為首先,從數(shù)碼照片的可交換圖像文件標記,即EXIF標記中直接讀出相機拍攝焦距a,圖像尺寸寬Wimg和高Himg,并根據(jù)讀出的相機制造商和型號,對照工業(yè)標準得到CCD尺寸寬Wecd,和Hccd;然后,近似估計相機內(nèi)參,將假設(shè)對應(yīng)點坐標左乘以內(nèi)參矩陣的逆矩陣,實現(xiàn)圖像坐標的標準化。5、根據(jù)權(quán)利要求l所述基于同一場景散亂照片集的三維重構(gòu)方法,其特征在于所述第l階段的步驟(4)中可容錯正向深度約束的方法為分解本質(zhì)矩陣得到相機運動的4組可能解中,如果存在1組對所有對應(yīng)點均滿足正向深度約束,則該組運動即為所求;否則設(shè)置允許誤差率,如果存在1組相機運動滿足正向深度約束的對應(yīng)點數(shù)為4組中最大,且與對應(yīng)點總數(shù)的比值不超過允許誤差率,則接受該組解,獲得最終解;否則宣布運動估計失敗。6、根據(jù)權(quán)利要求1所述基于同一場景散亂照片集的三維重構(gòu)方法,其特征在于所述第2階段中初始重構(gòu)相機對的量化選擇方法為基于兩兩匹配和相機運動估計結(jié)果,得到基線寬度b和最終匹配數(shù)量n,按照公式Sr=(n畫Nmin)x(Nmax-n)xb計算重構(gòu)優(yōu)先值Sr,其中Nmin、Nm雙為最佳匹配范圍的下限與上限;選擇Sr最大的一對作為初始重構(gòu)相機對。7、根據(jù)權(quán)利要求1所述基于同一場景散亂照片集的三維重構(gòu)方法,其特征在于所述第3階段中選擇性準密匹配的方法為基于稀疏重構(gòu)過程中己恢復的相機內(nèi)參和相機運動,評估每幅圖像與基準圖像之間的準密重構(gòu)配置,得到焦距差l/^l和基線寬度b,按照公式Dr-(b-B^)X(B^-b)Xl/lf-f。l計算準密重構(gòu)值Dr,其中B^、Bmax為最佳基線范圍的下限與上限;選擇Dr大于準密重構(gòu)閥值Dth的圖像對進行準密匹配。全文摘要基于同一場景散亂照片集的三維重構(gòu)方法,分為3個階段第1階段,兩兩圖像特征匹配與相對相機運動估計;該階段分為4個步驟(1)對每兩幅圖像進行雙向最近鄰搜索與特征域約束,得到候選對應(yīng);(2)對候選對應(yīng)進行視差域?qū)?yīng)約束,得到假設(shè)對應(yīng);(3)對假設(shè)對應(yīng)進行圖像坐標標準化,求滿足假設(shè)對應(yīng)的本質(zhì)矩陣估計;(4)分解本質(zhì)矩陣得到相機運動的4組可能解,進行可容錯正向深度約束確定最終解;第2階段,基于第1階段的結(jié)果選擇最佳初始重構(gòu)相機對,使用標準的稀疏重構(gòu)方法,同時恢復相機姿態(tài)和場景的稀疏幾何信息;第3階段,基于第2階段的結(jié)果進行選擇性準密匹配,使用三角測量方法重建準密的3D場景點云模型。本發(fā)明既能獲得可靠的相機姿態(tài)估計,又能得到高密度的場景幾何信息,且大大縮短了重構(gòu)時間,具有較高的重構(gòu)效率,適合處理數(shù)據(jù)量較大的散亂照片集。文檔編號G06T11/00GK101398937SQ200810224978公開日2009年4月1日申請日期2008年10月29日優(yōu)先權(quán)日2008年10月29日發(fā)明者爽何,沈旭昆,越齊申請人:北京航空航天大學