亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于兩視圖幾何的分行遞歸式道路重構(gòu)算法的制作方法

文檔序號(hào):11276813閱讀:345來(lái)源:國(guó)知局
一種基于兩視圖幾何的分行遞歸式道路重構(gòu)算法的制造方法與工藝

本發(fā)明屬于計(jì)算機(jī)視覺(jué)的領(lǐng)域,針對(duì)涉及一種基于兩視圖幾何的分行遞歸式道路重構(gòu)算法,用于具有雙相機(jī)系統(tǒng)的智能車輛。



背景技術(shù):

在智能車輛的應(yīng)用中,環(huán)境感知是其中重要的部分,可駕駛道路檢測(cè)是其中的關(guān)鍵性功能,在過(guò)去的十幾年中得到了廣泛的研究。以往的研究中,通常使用距離傳感器(超聲波、激光傳感器等)以及視覺(jué)傳感器。相比之下,視覺(jué)傳感器具有更低的成本并且可以提供更加豐富的環(huán)境信息。然而,開(kāi)發(fā)可靠的道路感知系統(tǒng)并非易事,要求在不同的物理配置、光照條件、道路類型和背景物體下具有較強(qiáng)的靈活性和魯棒性。在以往的研究和應(yīng)用中,通常使用單目和雙目?jī)煞N配置方式。

單目相機(jī)系統(tǒng)的使用更加靈活,并且具有更低的成本。經(jīng)典的方法基于顏色(j.alvarez,t.gevers,y.lecun,a.lopez.roadscenesegmentationfromasingleimage.europeanconferenceoncomputervision,2012,376–389)、紋理(p.wu,c.chang,c.h.lin.lane-markextractionforautomobilesundercomplexconditions.patternrecognition.2014,47(8),2756–2767)等外觀信息?;陬伾姆椒ㄒ话銓⑾袼馗鶕?jù)道路顏色模型進(jìn)行分類,但是由于道路外觀受到各種環(huán)境因素的影響,道路檢測(cè)很大程度上依賴于道路模型的泛化程度。一般的,道路區(qū)域周圍圍繞著特定的紋理信息,如結(jié)構(gòu)化道路上的車道線(x.du,k.k.tan.vision-basedapproachtowardslanelinedetectionandvehiclelocalization.machinevisionandapplications,2015,27(2),175–191)和非結(jié)構(gòu)化道路上的邊緣(p.moghadam,starzyks.,w.s.wijesoma.fastvanishing-pointdetectioninunstructuredenvironments.ieeetransactionsonimageprocessing.2012,21(1),497–500)。另外,可以利用圖像中的透視效應(yīng)來(lái)估計(jì)圖像的消失點(diǎn)來(lái)指示道路的趨勢(shì)。但是,消失點(diǎn)對(duì)于彎曲道路、擁擠的交通以及陰影不夠魯棒。為了降低對(duì)圖像外觀的依賴,另一種方法基于圖像單應(yīng)性來(lái)對(duì)道路點(diǎn)和非道路點(diǎn)進(jìn)行分類(c.lin,s.jiang,y.pu,k.song.robustgroundplanedetectionforobstacleavoidanceofmobilerobotsusingamonocularcamera.ieee/rsjinternationalconferenceonintelligentrobotsandsystems,2010,3706–3711)。假設(shè)道路是平面的,其在兩個(gè)位姿下拍攝的圖像可以用單應(yīng)性關(guān)聯(lián)起來(lái)。以往的工作中一般基于兩個(gè)圖像的像素變換誤差(j.arrospide,l.salgado,m.nieto,r.mohedano.homography-basedgroundplanedetectionusingasingleon-boardcamera.ietintelligenttransportsystems,2010,4(2),149–160)、特征點(diǎn)的變換誤差(d.conrad,g.n.desouza.homography-basedgroundplanedetectionformobilerobotnavigationusingamodifiedemalgorithm.ieeeinternationalconferenceonroboticsandautomation,2010,910–915)、以及二者的綜合(s.qu,c.meng.statisticalclassificationbasedfastdrivableregiondetectionforindoormobilerobot.internationaljournalofhumanoidrobotics,2014,11(1)),從而可以識(shí)別出期望平面上的圖像點(diǎn)。但是,基于單應(yīng)性的方法只針對(duì)平面道路可用,但是大部分室外道路都不是嚴(yán)格平面的。另外,室外道路的紋理一般較弱或者重復(fù),從而難以魯棒地匹配特征點(diǎn),并且圖像的像素誤差同樣會(huì)存在多義性。

相比之下,雙目相機(jī)系統(tǒng)除了外觀信息還提供了更多信息,典型的方法基于雙目立體匹配得到的視差圖,從而對(duì)外觀變化更加魯棒。一種常用的方法是基于u視差和v視差圖來(lái)分割道路區(qū)域,從而道路區(qū)域可以方便地在不連續(xù)位置被分割出來(lái)(r.labayrade,d.aubert,j.p.tarel.realtimeobstacledetectioninstereovisiononnonflatroadgeometrythrough“v-disparity”representation.ieeeintelligentvehiclesymposium,2002,646–651)。在(m.wu,s.k.lam,t.srikanthan.nonparametrictechniquebasedhigh-speedroadsurfacedetection.ieeetransactionsonintelligenttransportationsystems,2015,16(2),874–884)中,基于u視差和v視差圖提出了針對(duì)平面和非平面道路的分割算法。在(f.oniga,s.nedevschi.processingdensestereodatausingelevationmaps:roadsurface,trafficisle,andobstacledetection.ieeetransactionsonvehiculartechnology,2010,59(3),1172–1182)中,圖像被分割成了方格,并且每個(gè)方格使用其中最大的高度值來(lái)表示。然后根據(jù)高度的分布將其分類成道路和非道路區(qū)域。但是,這些方法的效果依賴于立體匹配的質(zhì)量,而實(shí)時(shí)地生成精確、稠密的視差圖是比較困難的,尤其是對(duì)于弱紋理和重復(fù)紋理的區(qū)域。在實(shí)際中,立體視覺(jué)系統(tǒng)需要精確的校正從而保證兩個(gè)相機(jī)是平行的并且只具有水平方向的距離,從而相應(yīng)的圖像點(diǎn)在兩個(gè)圖像的同一行以縮小搜索區(qū)域。為了提高測(cè)量精度,往往需要更長(zhǎng)的基線,但是此時(shí)就需要搜索更大的空間來(lái)找到對(duì)應(yīng)點(diǎn),并且存在更多的誤匹配,限制了系統(tǒng)的靈活性。



技術(shù)實(shí)現(xiàn)要素:

為了克服以往技術(shù)的不足,本發(fā)明一種基于兩視圖幾何的分行遞歸式道路重構(gòu)算法。

本發(fā)明采用的技術(shù)方案是:

針對(duì)安裝在車輛上的雙相機(jī)視覺(jué)系統(tǒng),構(gòu)建兩視圖幾何模型,對(duì)雙相機(jī)所采集圖像的每一行進(jìn)行遞歸地三維重構(gòu)和道路檢測(cè),從而得到圖像中的道路區(qū)域。

本發(fā)明的兩視圖幾何模型針對(duì)道路場(chǎng)景,建立了參考平面,用參考平面描述了空間點(diǎn)在兩個(gè)相機(jī)視圖圖像中對(duì)應(yīng)的圖像點(diǎn)的映射關(guān)系。該映射關(guān)系稱為投影視差,反映了空間點(diǎn)離參考平面的高度信息。

本發(fā)明的三維重構(gòu)算法,構(gòu)建了包含圖像相似度和平滑因子的目標(biāo)函數(shù),并對(duì)目標(biāo)函數(shù)進(jìn)行迭代優(yōu)化獲得高度信息。

本發(fā)明的道路檢測(cè)算法,用三維重構(gòu)得到的高度信息和圖像行的圖像值信息分布情況,對(duì)道路邊緣進(jìn)行識(shí)別。

所述算法具體為:

1)構(gòu)建兩視圖幾何模型;

2)對(duì)每一行進(jìn)行三維重構(gòu)和迭代計(jì)算獲得像素點(diǎn)的高度信息;

3)對(duì)每一行,用三維重構(gòu)得到的高度信息和圖像行的圖像值信息進(jìn)行道路檢測(cè);

4)針對(duì)圖像的每一行分行處理,重復(fù)上述步驟2)和3)從圖像最底行開(kāi)始向上依次對(duì)每一行進(jìn)行三維重構(gòu)和道路檢測(cè),得到圖像中的道路區(qū)域。

本發(fā)明的遞歸過(guò)程,從圖像最底行開(kāi)始,分行進(jìn)行三維重構(gòu)和道路檢測(cè),利用上一行的道路檢測(cè)結(jié)果構(gòu)造下一行道路邊緣的概率模型和感興趣區(qū)域,引導(dǎo)下一行的三維重構(gòu)和道路檢測(cè)過(guò)程。

所述步驟1)具體為:

1.1)如圖2所示,雙相機(jī)視覺(jué)系統(tǒng)由相機(jī)和相機(jī)組成,定義r和xf分別為在相機(jī)下從相機(jī)到相機(jī)的旋轉(zhuǎn)矩陣和平移矩陣,定義a,a′分別為相機(jī)和相機(jī)的內(nèi)參矩陣,根據(jù)針孔相機(jī)模型,內(nèi)參矩陣a和內(nèi)參矩陣a′表示為:

其中,αu,αv分別為相機(jī)在橫縱像素尺度下的焦距長(zhǎng)度,(u0,v0)為相機(jī)主點(diǎn)坐標(biāo),θ為相機(jī)圖像坐標(biāo)軸的夾角;α′u,α′v分別為相機(jī)在橫縱像素尺度下的焦距長(zhǎng)度,(u′0,v′0)為相機(jī)主點(diǎn)坐標(biāo),θ′為雙相機(jī)所采集的兩個(gè)圖像坐標(biāo)軸的夾角;

1.2)相機(jī)拍攝得到的圖像i,相機(jī)拍攝得到的圖像i′,圖像i和圖像i′尺寸相同:兩幅圖像的列數(shù)為n,圖像i中的一行像素點(diǎn)定義為p=[p1…pi…pn],其中pi=[uivi1]t;圖像i′中相同行位置的一行像素點(diǎn)定義為p′=[p′1…p′i…p′n],其中p′i=[u′iv′i1]t,ui和vi分別表示圖像點(diǎn)pi沿自身所在圖像橫縱方向的坐標(biāo),u′i和v′i分別表示圖像點(diǎn)p′i沿自身所在圖像橫縱方向的坐標(biāo),t表示矩陣轉(zhuǎn)置;

1.3)兩個(gè)相機(jī)前方任意建立一個(gè)參考平面π,獲得參考平面π在相機(jī)下的法向量n和相機(jī)光心離參考平面π的距離d;

1.4)如圖3所示,對(duì)于兩個(gè)相機(jī)前方空間中的任意一點(diǎn)oi,oi在圖像i和圖像i′上對(duì)應(yīng)位置分別為圖像點(diǎn)pi到圖像點(diǎn)p′i圖像點(diǎn)pi到圖像點(diǎn)p′i在各自圖像中的坐標(biāo)位置分別為pi=[uivi1]t和p′i=[u′iv′i1]t;

從圖像點(diǎn)pi到圖像點(diǎn)p′i利用以下公式進(jìn)行坐標(biāo)變換:

其中,g為投影單應(yīng)性矩陣,βi為圖像點(diǎn)pi處的投影視差信息,zi表示點(diǎn)oi沿相機(jī)光軸方向的坐標(biāo),z′i表示點(diǎn)oi沿相機(jī)光軸方向的坐標(biāo),a′表示相機(jī)的內(nèi)參矩陣,xf表示在相機(jī)下從相機(jī)的平移矩陣;

投影單應(yīng)性矩陣g采用以下公式計(jì)算獲得:

其中,a表示相機(jī)的內(nèi)參矩陣,r為在相機(jī)下從相機(jī)的旋轉(zhuǎn)矩陣。

所述步驟2)具體為:

對(duì)每一行進(jìn)行三維重構(gòu)獲得像素點(diǎn)的高度信息;

2.1)對(duì)步驟1.4)的坐標(biāo)變換關(guān)系利用變換函數(shù)[u′iv′i]t表達(dá):

其中,gkl為投影單應(yīng)性矩陣g的第k行第l列,其中k,l=1,2,3表示矩陣行和列的序號(hào);

建立函數(shù)關(guān)系[ui′vi′]t=w(βi,pi)計(jì)算得到相機(jī)拍攝的圖像點(diǎn)pi在相機(jī)拍攝的圖像中對(duì)應(yīng)的點(diǎn)pi′=[ui′vi′1]t

2.2)對(duì)于每個(gè)圖像行,使用三次b樣條曲線的函數(shù)對(duì)投影視差信息βi進(jìn)行參數(shù)化,將圖像點(diǎn)pi處的投影視差信息βi用擬合函數(shù)β=f·φ表示獲得各個(gè)圖像點(diǎn)的投影視差信息fφ,從而獲得圖像i中圖像點(diǎn)pi所在行在圖像i′中對(duì)應(yīng)點(diǎn)的坐標(biāo)w(fφ,p);

所述步驟2.2)中的擬合函數(shù)采用以下公式表示:

β=f·φ

其中,β=[β1…βn]t,n表示圖像i的總列數(shù);φ表示三次b樣條曲線中控制點(diǎn)取值集合,φ=[φ-1…φm-2]t,m表示三次b樣條曲線中控制點(diǎn)的總個(gè)數(shù),φ-1表示序號(hào)-1的控制點(diǎn)的取值;f為n×m的矩陣,矩陣f的第i行表示為:

fi=[0…0f0(ti)f1(ti)f2(ti)f3(ti)0…0]

其中,矩陣f第i行的前部分0元素的數(shù)量為表示向下取整,后部分0元素的數(shù)量為fl(t)為三次b樣條曲線的基函數(shù),k表示兩個(gè)相鄰控制點(diǎn)的距離,i表示控制點(diǎn)在圖像中的列序號(hào),

2.3)將步驟2.2)的行坐標(biāo)w(fφ,p)描述為以下公式所表示的目標(biāo)函數(shù)的最大化問(wèn)題:

e(φ)=c(s,w(fφ,p))-λ1r1(φ)-λ2r2(φ)

其中,λ1,λ2分別為第一、第二權(quán)重因子,λ1,λ2>0,c為互相關(guān)系數(shù),r1表示當(dāng)前行的平滑程度,r2表示當(dāng)前行與上一行的接近程度,i′(w(fφ,p))表示圖像i′在行坐標(biāo)w(fφ,p)處的像素值集合,s表示圖像i中與行坐標(biāo)w(fφ,p)對(duì)應(yīng)的當(dāng)前行的圖像點(diǎn)像素值集合;

所述步驟2.3)中:

互相關(guān)系數(shù)c用于描述兩組圖像點(diǎn)的相似度,互相關(guān)系數(shù)c采用以下公式計(jì)算如下:

其中,s′=[s1…sn]t為圖像i中一行圖像點(diǎn)的像素值集合,s′=[s1′…s′n]t為圖像i′中與行坐標(biāo)w(fφ,p)對(duì)應(yīng)的當(dāng)前行的圖像點(diǎn)像素值集合,通過(guò)i′(w(fφ,p))=[i′(w(β1,p1))…i′(w(β1,pn))]t計(jì)算,為圖像i′中w(βi,pi)所在行的圖像點(diǎn)像素值集合;δi為第i個(gè)圖像點(diǎn)的權(quán)重因子,如果pi超出圖像邊界則δi=0,如果pi不超出圖像邊界則δi=1;

平滑程度r1和接近程度r2分別采用以下公式計(jì)算:

其中,為考慮到圖像邊緣處不連續(xù)性的權(quán)重項(xiàng),λ3為尺度因子,為圖像i在點(diǎn)pi處的圖像梯度大小,ηi為基于上一行道路識(shí)別結(jié)果的概率分布;在r2(φ)中,β-為上一行的視差值;

對(duì)于圖像最底行進(jìn)行檢測(cè)時(shí)忽略r2(φ)項(xiàng)。

基于上一行道路識(shí)別結(jié)果的概率分布ηi采用以下公式計(jì)算:

其中,h為上一行檢測(cè)后獲得的道路邊緣點(diǎn)集合,h為道路邊緣點(diǎn)集合h中的點(diǎn),σ為已知標(biāo)準(zhǔn)差,ε為考慮到非連續(xù)的道路邊緣的因子,ui表示第i個(gè)圖像點(diǎn)的橫坐標(biāo)值。

基于上一行道路識(shí)別結(jié)果的概率分布ηi初始值為1。

2.4)針對(duì)步驟2.3)的目標(biāo)函數(shù),利用levenberg-marquardt方法進(jìn)行迭代優(yōu)化使得計(jì)算結(jié)果收斂,獲得每一行的圖像點(diǎn)pi處的投影視差信息βi的最優(yōu)解;

由于迭代優(yōu)化算法的收斂域有限,使用以下方式每一行檢測(cè)計(jì)算時(shí)的初始值在最優(yōu)解附近:

初始計(jì)算時(shí),將最底行的樣條曲線的控制點(diǎn)集合φ初始化為0。

由于認(rèn)為道路平面是連續(xù)的,并且在重復(fù)步驟2)和3)過(guò)程中,使用上一行的最優(yōu)解作為下一行的初始值。

2.5)最后采用以下公式計(jì)算獲得點(diǎn)oi到參考平面的距離,作為高度信息:

di=ziβi

其中,di為點(diǎn)oi到參考平面的距離,zi表示點(diǎn)oi沿相機(jī)光軸方向的坐標(biāo)。

所述步驟3)具體為:

3.1)如圖5所示,由步驟2)計(jì)算得到的作為高度信息的點(diǎn)oi到參考平面的距離di結(jié)合圖像行的圖像值信息采用以下公式計(jì)算獲得像素點(diǎn)分別沿圖像橫縱向的邊緣強(qiáng)度:

其中,分別表示沿著u,v方向上的偏導(dǎo),表示點(diǎn)oi到參考平面的距離di沿著u方向上的偏導(dǎo),表示點(diǎn)oi到參考平面的距離di沿著v方向上的偏導(dǎo),表示圖像i中點(diǎn)oi對(duì)應(yīng)的像素點(diǎn)像素值沿著u方向上的偏導(dǎo),表示圖像i中點(diǎn)oi對(duì)應(yīng)的像素點(diǎn)像素值沿著v方向上的偏導(dǎo);cu表示圖像i中點(diǎn)oi對(duì)應(yīng)的像素點(diǎn)沿圖像橫向(即u坐標(biāo)方向)的邊緣強(qiáng)度,cv表示圖像i中點(diǎn)oi對(duì)應(yīng)的像素點(diǎn)沿圖像縱向(即v坐標(biāo)方向)的邊緣強(qiáng)度;

3.2)初始設(shè)定圖像i中的最底行中心點(diǎn)屬于道路點(diǎn),道路點(diǎn)表示位于道路區(qū)域的像素點(diǎn),然后采用特定方式進(jìn)行向相鄰點(diǎn)進(jìn)行處理判斷獲得每個(gè)像素點(diǎn)為道路點(diǎn)或者非道路點(diǎn)的判斷結(jié)果。

所述步驟3.2)具體為:

3.2.1)先在圖像i的最底行,從最底行的中心點(diǎn)開(kāi)始作為臨界點(diǎn)向兩側(cè)采用以下方式擴(kuò)散,依次對(duì)每個(gè)像素點(diǎn)進(jìn)行判斷:

對(duì)于每一個(gè)臨界點(diǎn),臨界點(diǎn)為與非道路點(diǎn)或者未判斷點(diǎn)相鄰的道路點(diǎn),如果臨界點(diǎn)的邊緣強(qiáng)度cu<τu,τu表示橫向擴(kuò)散的閾值,則判斷臨界點(diǎn)相鄰兩側(cè)的點(diǎn)均為道路點(diǎn),否則判斷臨界點(diǎn)相鄰兩側(cè)的點(diǎn)均為非道路點(diǎn);

3.2.2)然后從圖像i的最底行向上,依次對(duì)每一行采用以下方式判斷:

對(duì)于當(dāng)前行的每一個(gè)像素點(diǎn),如果上一行中與該像素點(diǎn)對(duì)應(yīng)位于同一列位置的點(diǎn)為道路點(diǎn)且當(dāng)前行的該像素點(diǎn)的邊緣強(qiáng)度cv<τv,τv表示縱向擴(kuò)散的閾值,則判斷當(dāng)前行的該像素點(diǎn)為道路點(diǎn),否則不作處理再采用步驟3.2.1)判斷;

3.2.3)重復(fù)上述步驟直到圖像i的每個(gè)像素點(diǎn)均完成判斷。

在實(shí)際環(huán)境中,道路邊緣一般是連續(xù)的,在分行遞歸的道路檢測(cè)中引入基于上一行檢測(cè)結(jié)果的感興趣區(qū)域,從而不需要處理完整的圖像行的信息,大大減小計(jì)算量。

所述步驟3.2)中,在對(duì)除圖像最底行以外的其他行進(jìn)行實(shí)時(shí)判斷時(shí),根據(jù)上一行檢測(cè)結(jié)果中的道路邊緣點(diǎn)集合h設(shè)定感興趣區(qū)域ω,然后在感興趣區(qū)域ω范圍內(nèi)對(duì)當(dāng)前行進(jìn)行判斷:

ω=[max(min(h)-μ,1),min(max(h)+μ,n)]

其中,μ為松弛因子。

對(duì)最底行進(jìn)行實(shí)時(shí)判斷時(shí),設(shè)置為整行均為感興趣區(qū)域ω。

但是,對(duì)于一些例外情況,如道路邊緣不連續(xù)等,如果檢測(cè)到的道路邊緣與感興趣區(qū)域的邊緣重合,則將感興趣區(qū)域擴(kuò)大到整個(gè)圖像行,并重新進(jìn)行這一行的道路重構(gòu)。

針對(duì)如圖3中的雙相機(jī)系統(tǒng),基于兩視圖幾何對(duì)圖像場(chǎng)景進(jìn)行分行的三維重構(gòu),并將車輛的接地平面選擇為參考平面。在道路場(chǎng)景中,由于大部分感興趣區(qū)域是離參考平面較近的路面區(qū)域,因此這種三維重構(gòu)方法具有較高的效率。然后,場(chǎng)景中點(diǎn)的幾何信息可以利用相對(duì)于參考平面的投影視差來(lái)描述,再根據(jù)車輛配置信息可以轉(zhuǎn)化為相對(duì)于參考平面的高度信息。

相比于現(xiàn)有技術(shù)中基于立體視覺(jué)的方法中需要先完成整個(gè)圖像的三維重構(gòu)再進(jìn)行道路分割,本發(fā)明中提出的道路重構(gòu)方法是分行遞歸的,其中包括幾何重構(gòu)和道路識(shí)別等過(guò)程。

對(duì)于每一行,首先基于兩視圖幾何模型重構(gòu)出每個(gè)像素點(diǎn)相對(duì)于參考平面的高度信息,然后道路區(qū)域可以利用高度信息和灰度信息的分布分割出來(lái)。這一過(guò)程從圖像的最下行開(kāi)始遞歸地執(zhí)行直到當(dāng)前行中的道路寬度小于閾值,從而得到了完整的道路區(qū)域。另外,幾何三維重構(gòu)和道路檢測(cè)是相互影響的,道路區(qū)域是基于幾何信息的分布進(jìn)行分割,而基于道路分割結(jié)果可以確定下一行的感興趣區(qū)域以及道路邊緣的先驗(yàn)概率分布。具體過(guò)程如圖1所示。

本發(fā)明的有益效果是:

本發(fā)明提出了一般性的兩視圖幾何模型,基于參考平面描述道路場(chǎng)景的幾何信息,從而可以對(duì)道路區(qū)域進(jìn)行幾何重構(gòu),準(zhǔn)確度高,運(yùn)算量小,并且對(duì)顏色特征更加魯棒。

附圖說(shuō)明

圖1是分行遞歸道路重構(gòu)算法的流程圖。

圖2是車輛視覺(jué)系統(tǒng)的配置。

圖3是兩視圖幾何模型示意圖。

圖4是道路場(chǎng)景三維重構(gòu)的過(guò)程。

圖5是道路分割的結(jié)果。

圖6是另一場(chǎng)景下道路分割的結(jié)果。

具體實(shí)施方式

以下結(jié)合具體實(shí)施方式對(duì)本發(fā)明加以詳細(xì)說(shuō)明。

如圖1所示,所提出的基于兩視圖幾何的分行遞歸式道路重構(gòu)算法由以下幾個(gè)過(guò)程迭代完成:三維重構(gòu)、道路檢測(cè)、感興趣區(qū)域的確定、概率模型的構(gòu)造。

本發(fā)明的實(shí)施例如下:

本發(fā)明的實(shí)施分行遞歸地進(jìn)行,每一步包括三維重構(gòu)、道路檢測(cè)、感興趣區(qū)域的確定、概率模型的構(gòu)造。

如圖4為針對(duì)圖像一行的處理過(guò)程,基于上一行的道路分割結(jié)果,可以得到當(dāng)前行的感興趣區(qū)域和概率模型,再通過(guò)三維重構(gòu)得到最佳的投影視差值β使兩幅圖像中的對(duì)應(yīng)點(diǎn)最匹配,從而基于三維信息和圖像信息對(duì)道路區(qū)域進(jìn)行分割。

針對(duì)該圖像的道路分割結(jié)果如圖5,其中白色區(qū)域?yàn)榉指畹牡缆穮^(qū)域。如圖6為針對(duì)另一個(gè)場(chǎng)景的道路分割結(jié)果。從結(jié)果可以看出,道路邊緣在恰當(dāng)?shù)膮^(qū)域進(jìn)行了有效的分割。

當(dāng)前第1頁(yè)1 2 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1