本發(fā)明涉及道路導(dǎo)航領(lǐng)域,尤其涉及一種基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)方法及系統(tǒng)。
背景技術(shù):
基于視覺的導(dǎo)航系統(tǒng)是模式識(shí)別、人工智能領(lǐng)域的研究重點(diǎn),其可應(yīng)用于無(wú)人駕駛智能車。道路檢測(cè)技術(shù)是輔助駕駛、無(wú)人駕駛技術(shù)中的關(guān)鍵技術(shù),能夠?yàn)闊o(wú)人駕駛智能車決策模塊提供必要的環(huán)境信息。由于導(dǎo)航設(shè)備具有局限性,視覺傳感器相對(duì)價(jià)廉且具有更大的應(yīng)用潛力,然而所述視覺傳感器受環(huán)境影響較大。
非結(jié)構(gòu)化道路是指結(jié)構(gòu)化程度低的道路,一般沒有車道線和清洗的道路邊緣;由于受陰影、水漬等的影響,非結(jié)構(gòu)化道路檢測(cè)相對(duì)困難,目前尚處于研究階段。非結(jié)構(gòu)化道路檢測(cè)方法可以大致分為基于道路特征的檢測(cè)、基于道路模型的檢測(cè)和基于機(jī)器學(xué)習(xí)的道路檢測(cè)等三大類。
基于道路特征的檢測(cè)方法主要通過提取道路的某些特征來(lái)檢測(cè)道路,這些特征可以是道路的顏色、灰度、紋理、邊緣或頻域特征等,主要優(yōu)點(diǎn)是對(duì)道路形狀不敏感,計(jì)算速度快、能夠保證實(shí)時(shí)性;缺點(diǎn)是對(duì)光影、裂痕和水跡較為敏感;基于slic超像素的k-means聚類算法,需要先驗(yàn)知識(shí),通過調(diào)整參數(shù)將道路信息分成兩大類:可行駛區(qū)域和非行駛區(qū)域;然而由于圖像信息受光照和外界環(huán)境影響比較大,單純對(duì)圖像進(jìn)行預(yù)處理獲取道路邊緣或者通過分割獲取可行駛區(qū)域都不能得到穩(wěn)定、精確可靠的圖像數(shù)據(jù)。
因此,現(xiàn)有技術(shù)還有待于改進(jìn)和發(fā)展。
技術(shù)實(shí)現(xiàn)要素:
鑒于上述現(xiàn)有技術(shù)的不足,本發(fā)明的目的在于提供一種基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)方法及系統(tǒng),旨在解決現(xiàn)有非結(jié)構(gòu)化道路檢測(cè)方法無(wú)法得到穩(wěn)定、精確可靠的圖像數(shù)據(jù)的問題。
本發(fā)明的技術(shù)方案如下:
一種基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)方法,其中,包括步驟:
a、通過攝像機(jī)實(shí)時(shí)獲取道路視頻圖像,并對(duì)所述道路視頻圖像進(jìn)行校正;
b、采用非結(jié)構(gòu)化道路邊緣檢測(cè)算法對(duì)校正后的道路視頻圖像進(jìn)行處理,獲得第一預(yù)瞄點(diǎn);
c、采用非結(jié)構(gòu)化道路分割算法對(duì)校正后的道路視頻圖像進(jìn)行處理,獲得第二預(yù)瞄點(diǎn);
d、采用最小二乘法對(duì)所述第一預(yù)瞄點(diǎn)和第二預(yù)瞄點(diǎn)進(jìn)行擬合,得到道路虛擬中心線。
所述的基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)方法,其中,所述步驟b具體包括:
b1、對(duì)所述道路視頻圖像進(jìn)行灰度化和去噪預(yù)處理;
b2、采用canny算法檢測(cè)道路視頻圖像邊緣并進(jìn)行形態(tài)學(xué)修正;
b3、采用霍夫變換提取道路視頻圖像邊緣并計(jì)算得出第一預(yù)瞄點(diǎn)。
所述的基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)方法,其中,所述步驟c具體包括:
c1、預(yù)先提取道路視頻圖像的顏色特征和空間特征;
c2、采用slic算法對(duì)道路視頻圖像進(jìn)行分割獲得超像素?cái)?shù)據(jù);
c3、采用k-means聚類算法對(duì)道路視頻圖像進(jìn)行聚類并計(jì)算得出第二預(yù)瞄點(diǎn)。
所述的基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)方法,其中,所述步驟c2具體包括:
c21、對(duì)道路視頻圖像中的像素點(diǎn)進(jìn)行初始化聚類處理獲得若干初始種子點(diǎn);
c22、在道路視頻圖像3*3領(lǐng)域內(nèi)重新選擇種子點(diǎn);
c23、在2s*2s的范圍內(nèi)搜索距離所述重新選擇的種子點(diǎn)最近的若干像素點(diǎn),并對(duì)搜索到的像素點(diǎn)設(shè)置標(biāo)簽且歸為一類;
c24、當(dāng)同一個(gè)像素點(diǎn)同時(shí)被歸類到多個(gè)種子點(diǎn)時(shí),則計(jì)算所述像素點(diǎn)與多個(gè)種子點(diǎn)之間的距離,將距離最小值對(duì)應(yīng)的種子點(diǎn)作為所述像素點(diǎn)的聚類中心;
c25、對(duì)所述聚類中心進(jìn)行步驟c22-c24的迭代處理,直到誤差收斂,得到最后分割的超像素?cái)?shù)據(jù)。
所述的基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)方法,其中,所述步驟c3具體包括:
c31、隨機(jī)從所述超像素?cái)?shù)據(jù)中選取若干個(gè)聚類質(zhì)心點(diǎn);
c32、遍歷所述超像素?cái)?shù)據(jù),將每一個(gè)超像素?cái)?shù)據(jù)劃分到與其距離最近的質(zhì)心點(diǎn),形成聚類;
c33、計(jì)算每個(gè)聚類的平均值并作為新的質(zhì)心點(diǎn);
c34、重復(fù)所述步驟c32-c33,直到質(zhì)心點(diǎn)收斂,從而獲得第二預(yù)瞄點(diǎn)。
所述的基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)方法,其中,所述步驟d中最小二乘法的公式為:
所述的基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)方法,其中,所述步驟b1中的灰度化處理公式為:
一種基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)系統(tǒng),其中,包括:
校正模塊,用于通過攝像機(jī)實(shí)時(shí)獲取道路視頻圖像,并對(duì)所述道路視頻圖像進(jìn)行校正;
第一計(jì)算模塊,用于采用非結(jié)構(gòu)化道路邊緣檢測(cè)算法對(duì)校正后的道路視頻圖像進(jìn)行處理,獲得第一預(yù)瞄點(diǎn);
第二計(jì)算模塊,用于采用非結(jié)構(gòu)化道路分割算法對(duì)校正后的道路視頻圖像進(jìn)行處理,獲得第二預(yù)瞄點(diǎn);
擬合模塊,用于采用最小二乘法對(duì)所述第一預(yù)瞄點(diǎn)和第二預(yù)瞄點(diǎn)進(jìn)行擬合,得到道路虛擬中心線。
所述的基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)系統(tǒng),其中,所述第一計(jì)算模塊具體包括:
預(yù)處理單元,用于對(duì)所述道路視頻圖像進(jìn)行灰度化和去噪預(yù)處理;
修正單元,用于采用canny算法檢測(cè)道路視頻圖像邊緣并進(jìn)行形態(tài)學(xué)修正;
第一計(jì)算單元,用于采用霍夫變換提取道路視頻圖像邊緣并計(jì)算得出第一預(yù)瞄點(diǎn)。
所述的基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)系統(tǒng),其中,所述第二計(jì)算模塊具體包括:
提取單元,用于預(yù)先提取道路視頻圖像的顏色特征和空間特征;
分割單元,用于采用slic算法對(duì)道路視頻圖像進(jìn)行分割獲得超像素?cái)?shù)據(jù);
第二計(jì)算單元,用于采用k-means聚類算法對(duì)道路視頻圖像進(jìn)行聚類并計(jì)算得出第二預(yù)瞄點(diǎn)。
有益效果:本發(fā)明首先通過非結(jié)構(gòu)道路邊緣檢測(cè)算法和非結(jié)構(gòu)化道路分割算法分別計(jì)算出道路視頻圖像的第一預(yù)瞄點(diǎn)和第二預(yù)瞄點(diǎn),然后通過信息融合技術(shù)對(duì)所述第一預(yù)瞄點(diǎn)和第二預(yù)瞄點(diǎn)進(jìn)行擬合得到道路視頻圖像的虛擬中心線;本發(fā)明通過上述計(jì)算處理可得到穩(wěn)定、精確可靠的圖像數(shù)據(jù)。
附圖說(shuō)明
圖1為本發(fā)明一種基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)方法較佳實(shí)施例的流程圖;
圖2為本發(fā)明中對(duì)單目攝像機(jī)進(jìn)行標(biāo)定使用的棋盤示意圖;
圖3為本發(fā)明采用霍夫變換提取道路視頻圖像邊緣結(jié)果示意圖;
圖4為本發(fā)明采用基于slic的k-means聚類道路視頻圖像的結(jié)果示意圖;
圖5為本發(fā)明具體實(shí)施例中方向盤角度圖;
圖6為本發(fā)明具體實(shí)施例中外側(cè)道路gps坐標(biāo)示意圖;
圖7為本發(fā)明具體實(shí)施例中內(nèi)側(cè)道路gps坐標(biāo)示意圖;
圖8為本發(fā)明具體實(shí)施例中外側(cè)道路打角示意圖;
圖9為本發(fā)明具體實(shí)施例中內(nèi)側(cè)道路打角示意圖;
圖10為本發(fā)明具體實(shí)施例中道路外側(cè)導(dǎo)航行駛軌跡和圖像行駛軌跡對(duì)比示意圖;
圖11為本發(fā)明具體實(shí)施例中道路內(nèi)側(cè)導(dǎo)航行駛軌跡和圖像行駛軌跡對(duì)比示意圖;
圖12為本發(fā)明具體實(shí)施例中道路內(nèi)側(cè)導(dǎo)航軌跡偏差圖;
圖13為本發(fā)明具體實(shí)施例中道路外側(cè)導(dǎo)航軌跡偏差圖;
圖14為本發(fā)明一種基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)系統(tǒng)較佳實(shí)施例的結(jié)構(gòu)框圖。
具體實(shí)施方式
本發(fā)明提供一種基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)方法及系統(tǒng),為使本發(fā)明的目的、技術(shù)方案及效果更加清楚、明確,以下對(duì)本發(fā)明進(jìn)一步詳細(xì)說(shuō)明。應(yīng)當(dāng)理解,此處所描述的具體實(shí)施例僅僅用以解釋本發(fā)明,并不用于限定本發(fā)明。
請(qǐng)參閱圖1,圖1為本發(fā)明一種基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)方法較佳實(shí)施例的流程圖,如圖所示,其中,包括步驟:
s100、通過攝像機(jī)實(shí)時(shí)獲取道路視頻圖像,并對(duì)所述道路視頻圖像進(jìn)行校正;
s200、采用非結(jié)構(gòu)化道路邊緣檢測(cè)算法對(duì)校正后的道路視頻圖像進(jìn)行處理,獲得第一預(yù)瞄點(diǎn);
s300、采用非結(jié)構(gòu)化道路分割算法對(duì)校正后的道路視頻圖像進(jìn)行處理,獲得第二預(yù)瞄點(diǎn);
s400、采用最小二乘法對(duì)所述第一預(yù)瞄點(diǎn)和第二預(yù)瞄點(diǎn)進(jìn)行擬合,得到道路虛擬中心線。
具體地,本發(fā)明提供的基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)方法是在windows系統(tǒng)下的vs2010平臺(tái)上開發(fā)的;首先通過攝像機(jī)獲取道路視頻圖像,然后對(duì)所述道路視頻圖像進(jìn)行校正,并通過非結(jié)構(gòu)道路邊緣檢測(cè)算法和非結(jié)構(gòu)化道路分割算法分別計(jì)算出道路視頻圖像的第一預(yù)瞄點(diǎn)和第二預(yù)瞄點(diǎn),最后通過信息融合技術(shù)對(duì)所述第一預(yù)瞄點(diǎn)和第二預(yù)瞄點(diǎn)進(jìn)行擬合得到道路視頻圖像的虛擬中心線,通過上述計(jì)算處理可得到穩(wěn)定、精確可靠的道路圖像數(shù)據(jù);將所述道路圖像數(shù)據(jù)發(fā)送給無(wú)人巡邏車的決策模塊可完成視覺導(dǎo)航功能,從而實(shí)現(xiàn)無(wú)人巡邏車的自主駕駛。
在目前的智能駕駛領(lǐng)域中,所應(yīng)用到的攝像頭主要有單目攝像頭和雙目攝像頭兩類,這兩種攝像頭的測(cè)距原理完全不同,單目攝像頭需要對(duì)目標(biāo)先進(jìn)行識(shí)別,也就是說(shuō)單目攝像頭在測(cè)距前需要先識(shí)別障礙物是車、是人還是其他物體;雙目攝像頭則是直接通過兩幅圖像的視差計(jì)算來(lái)確定距離,其并不需要知道障礙物是什么,雙目攝像頭的難點(diǎn)在于計(jì)量量巨大,處理緩慢且成本高。
基于上述區(qū)別,本發(fā)明優(yōu)選單目攝像機(jī)去實(shí)時(shí)獲取道路視頻圖像,采用單目攝像頭可以提前判斷出障礙物,然后再測(cè)距,可增加智能駕駛的安全性能。
進(jìn)一步,在所述步驟s100中,本發(fā)明采用張正友相機(jī)標(biāo)定發(fā)對(duì)所述單目攝像機(jī)進(jìn)行標(biāo)定,如圖2所示,將所述單目攝像機(jī)對(duì)準(zhǔn)格式為10*10、邊長(zhǎng)為0.05m的黑白相見的平面棋盤,固定單目攝像機(jī),手持棋盤以各種方向轉(zhuǎn)動(dòng)得到18張棋盤圖像,使用matlab工具箱獲得單目攝像機(jī)的內(nèi)外參數(shù)和畸變參數(shù),根據(jù)所獲得的參數(shù)實(shí)現(xiàn)對(duì)單目攝像機(jī)進(jìn)行標(biāo)定;
具體來(lái)說(shuō),攝像機(jī)通過小孔成像模型生成圖像平面,世界坐標(biāo)系下每一個(gè)坐標(biāo)點(diǎn)在圖像像素坐標(biāo)系下都有與之對(duì)應(yīng)的像素點(diǎn),攝像機(jī)標(biāo)定的過程即為攝像機(jī)幾何模型參數(shù)求解的過程,通過算法的優(yōu)化可以提高相機(jī)矯正的精確度。相機(jī)參數(shù)分為相機(jī)外部參數(shù)、相機(jī)內(nèi)部參數(shù)以及相機(jī)畸變參數(shù),由于徑向畸變對(duì)相機(jī)影響比較大其他畸變可以忽略不計(jì)。因此在matlab工具箱中僅僅計(jì)算了相機(jī)的徑向畸變參數(shù)。
設(shè)三維坐標(biāo)點(diǎn)為
三維坐標(biāo)點(diǎn)和圖像像素坐標(biāo)點(diǎn)已知,根據(jù)矩陣求解方法,當(dāng)圖像數(shù)目大于等于3時(shí)k可以求出唯一解,根據(jù)公式可以求出相機(jī)外參,利用徑向畸變估計(jì)可以得出相機(jī)徑向畸變系數(shù)。
進(jìn)一步,當(dāng)所述單目攝像機(jī)獲得道路視頻圖像后,可通過幾何校正法對(duì)圖像進(jìn)行校正,例如:可以預(yù)先建立圖像像點(diǎn)坐標(biāo)(行、列號(hào))和物方(或參考圖)對(duì)應(yīng)點(diǎn)坐標(biāo)間的映射關(guān)系,解求映射關(guān)系中的未知參數(shù),然后根據(jù)映射關(guān)系對(duì)圖像各個(gè)像素坐標(biāo)進(jìn)行校正;最后確定各像素的灰度值。
進(jìn)一步,在所述步驟s200中,當(dāng)?shù)缆芬曨l圖像校正后,采用非結(jié)構(gòu)化道路邊緣檢測(cè)算法對(duì)其進(jìn)行處理,獲得第一預(yù)瞄點(diǎn),其具體包括步驟:
s210、對(duì)所述道路視頻圖像進(jìn)行灰度化和去噪預(yù)處理;
具體地,首先將所述道路視頻的彩色圖像轉(zhuǎn)變?yōu)榛叶葓D像,具體可采用加權(quán)平均法進(jìn)行轉(zhuǎn)換,轉(zhuǎn)換公式為:
s220、采用canny算法檢測(cè)道路視頻圖像邊緣并進(jìn)行形態(tài)學(xué)修正;
具體來(lái)說(shuō),圖像邊緣檢測(cè)算法有sobel、prewitt、laplace和canny等多種,本發(fā)明優(yōu)選canny算法檢測(cè)道路視頻圖像邊緣并進(jìn)行形態(tài)學(xué)修正的,具體地,先對(duì)圖像進(jìn)行膨脹處理得到連續(xù)的道路邊緣,然后通過腐蝕處理去除圖像中的噪點(diǎn)。
s230、采用霍夫變換提取道路視頻圖像邊緣并計(jì)算得出第一預(yù)瞄點(diǎn)。
具體來(lái)說(shuō),可通過霍夫變換提取道路視頻圖像的邊緣并計(jì)算得出第一預(yù)瞄點(diǎn),繼而求出道路中心線,如圖3所示。
進(jìn)一步,在本發(fā)明中,所述步驟s300、采用非結(jié)構(gòu)化道路分割算法對(duì)校正后的道路視頻圖像進(jìn)行處理,獲得第二預(yù)瞄點(diǎn),具體包括步驟:
s310、預(yù)先提取道路視頻圖像的顏色特征和空間特征;
具體來(lái)說(shuō),顏色特征是一種全局特征,描述了圖像或圖像區(qū)域所對(duì)應(yīng)的景物的表面性質(zhì),采用顏色直方圖去提取圖像的顏色特征;空間特征是指圖像中分割出來(lái)的多個(gè)目標(biāo)之間的互相的空間位置或相對(duì)方向關(guān)系,這些關(guān)系可分為連接/鄰接關(guān)系,交疊/重疊關(guān)系和包含/包容關(guān)系等,本發(fā)明首先通過對(duì)圖像進(jìn)行自動(dòng)分割,劃分出圖像中所包含的對(duì)象或顏色區(qū)域,然后根據(jù)這些區(qū)域提取圖像特征。
s320、采用slic算法對(duì)道路視頻圖像進(jìn)行分割獲得超像素?cái)?shù)據(jù);
具體來(lái)說(shuō),所述步驟s320包括:
s321、對(duì)道路視頻圖像中的像素點(diǎn)進(jìn)行初始化聚類處理獲得若干初始種子點(diǎn);
s322、在道路視頻圖像3*3領(lǐng)域內(nèi)重新選擇種子點(diǎn);
s323、在2s*2s的范圍內(nèi)搜索距離所述重新選擇的種子點(diǎn)最近的若干像素點(diǎn),并對(duì)搜索到的像素點(diǎn)設(shè)置標(biāo)簽且歸為一類;
s324、當(dāng)同一個(gè)像素點(diǎn)同時(shí)被歸類到多個(gè)種子點(diǎn)時(shí),則計(jì)算所述像素點(diǎn)與多個(gè)種子點(diǎn)之間的距離,將距離最小值對(duì)應(yīng)的種子點(diǎn)作為所述像素點(diǎn)的聚類中心;
s325、對(duì)所述聚類中心進(jìn)行步驟s222-s224的迭代處理,直到誤差收斂,得到最后分割的超像素?cái)?shù)據(jù)。
具體來(lái)說(shuō),將圖像從rgb顏色空間轉(zhuǎn)換到cie-lab顏色空間,對(duì)應(yīng)每個(gè)像素的(l,a,b)顏色值和(x,y)坐標(biāo)組成一個(gè)五維向量v[l,a,b,x,y],兩個(gè)像素的相似性即可由它們的向量距離來(lái)測(cè)量,距離越大,相似度越小;
本發(fā)明預(yù)先對(duì)道路視頻圖像中的像素點(diǎn)進(jìn)行初始化聚類處理獲得若干初始種子點(diǎn),然后在道路視頻圖像3*3像素領(lǐng)域內(nèi)重新選擇種子點(diǎn),然后在每個(gè)重新選擇的種子點(diǎn)周圍空間里搜索距離所述重新選擇的種子點(diǎn)最近的若干像素點(diǎn),將搜索到的像素點(diǎn)設(shè)置標(biāo)簽并歸為一類,直到所有的像素點(diǎn)都?xì)w類完畢;具體地,可設(shè)定一個(gè)距離閾值,當(dāng)搜索到一個(gè)像素點(diǎn)與當(dāng)前重新選擇的種子點(diǎn)之間的距離小于所述距離閾值時(shí),則將所述像素點(diǎn)歸為所述種子點(diǎn)一類;假設(shè)重新選擇的種子點(diǎn)有k個(gè),道路視頻圖像有n個(gè)像素點(diǎn),則每個(gè)種子點(diǎn)形成的聚類可包含n/k個(gè)像素點(diǎn),每個(gè)聚類的邊長(zhǎng)大致為s=[n/k]*0.5;較佳地,在重新選擇的種子點(diǎn)周圍2s*2s的范圍內(nèi)搜索與其距離最近的像素點(diǎn);
進(jìn)一步,當(dāng)同一個(gè)像素點(diǎn)同時(shí)被歸類到多個(gè)種子點(diǎn)時(shí),則計(jì)算所述像素點(diǎn)與多個(gè)種子點(diǎn)之間的距離,將距離最小值對(duì)應(yīng)的種子點(diǎn)作為所述像素點(diǎn)的聚類中心;同時(shí)對(duì)所述聚類中心進(jìn)行迭代處理,直到誤差收斂,得到最后的聚類,即超像素?cái)?shù)據(jù)。
s330、采用k-means聚類算法對(duì)道路視頻圖像進(jìn)行聚類并計(jì)算得出第二預(yù)瞄點(diǎn);具體地,所述步驟s330包括:
s331、隨機(jī)從所述超像素?cái)?shù)據(jù)中選取若干個(gè)聚類質(zhì)心點(diǎn);
s332、遍歷所述超像素?cái)?shù)據(jù),將每一個(gè)超像素?cái)?shù)據(jù)劃分到與其距離最近的質(zhì)心點(diǎn),形成聚類;
具體來(lái)說(shuō),設(shè)置另一個(gè)距離閾值,計(jì)算所述質(zhì)心點(diǎn)與各個(gè)超像素?cái)?shù)據(jù)之間的距離,當(dāng)該距離值小于距離閾值時(shí),則將所述超像素?cái)?shù)據(jù)劃分到該質(zhì)心點(diǎn)形成聚類。
s333、計(jì)算每個(gè)聚類的平均值并作為新的質(zhì)心點(diǎn);
具體來(lái)說(shuō),計(jì)算每個(gè)聚類中所有像素點(diǎn)的平均向量值,重新獲得新的質(zhì)心點(diǎn)。
s334、重復(fù)進(jìn)行步驟s332-s333的迭代處理,直到質(zhì)心點(diǎn)收斂,從而獲得第二預(yù)瞄點(diǎn)。
具體地說(shuō),通過基于slic的k-means聚類算法對(duì)道路圖像進(jìn)行聚類,可將道路圖像數(shù)據(jù)分為可行駛區(qū)域和非行駛區(qū)域,如圖4所示。
更進(jìn)一步,在所述步驟s400中,設(shè)
通過采用所述最小二乘法對(duì)所述第一預(yù)瞄點(diǎn)和第二預(yù)瞄點(diǎn)進(jìn)行擬合處理,便可得到道路圖像的虛擬中心線。
進(jìn)一步,本發(fā)明通過一具體實(shí)施例對(duì)處理后的道路圖像數(shù)據(jù)進(jìn)行驗(yàn)證;將所述虛擬中心線角度信息發(fā)送至無(wú)人巡邏車下位機(jī)的決策模塊中,規(guī)定所述無(wú)人巡邏車的方向盤角度如圖5所示,所述無(wú)人巡邏車在行駛過程中,路段位置如圖6和圖7所示,發(fā)送下位機(jī)決策模塊的打角數(shù)據(jù)如圖8和圖9所示,圖10和圖11分別表示在路段圖6和圖7所示位置的導(dǎo)航行駛軌跡和使用圖像傳感器獲得的行駛軌跡的對(duì)比圖;圖12和圖13是分別對(duì)路段外側(cè)和路段內(nèi)側(cè)使用圖像傳感器和導(dǎo)航行駛對(duì)比軌跡偏差圖。
通過對(duì)比發(fā)現(xiàn),本發(fā)明單純利用單目攝像頭,在較小的誤差范圍內(nèi)實(shí)現(xiàn)了道路導(dǎo)航,且相比于使用圖像傳感器,本發(fā)明的導(dǎo)航方式更加精確,因此本發(fā)明具有巨大的應(yīng)用價(jià)值。
進(jìn)一步,本發(fā)明還提供一種基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)系統(tǒng),其中,如圖14所示,包括:
校正模塊100,用于通過攝像機(jī)實(shí)時(shí)獲取道路視頻圖像,并對(duì)所述道路視頻圖像進(jìn)行校正;
第一計(jì)算模塊200,用于采用非結(jié)構(gòu)化道路邊緣檢測(cè)算法對(duì)校正后的道路視頻圖像進(jìn)行處理,獲得第一預(yù)瞄點(diǎn);
第二計(jì)算模塊300,用于采用非結(jié)構(gòu)化道路分割算法對(duì)校正后的道路視頻圖像進(jìn)行處理,獲得第二預(yù)瞄點(diǎn);
擬合模塊400,用于采用最小二乘法對(duì)所述第一預(yù)瞄點(diǎn)和第二預(yù)瞄點(diǎn)進(jìn)行擬合,得到道路虛擬中心線。
所述的基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)系統(tǒng),其中,所述第一計(jì)算模塊200具體包括:
預(yù)處理單元,用于對(duì)所述道路視頻圖像進(jìn)行灰度化和去噪預(yù)處理;
修正單元,用于采用canny算法檢測(cè)道路視頻圖像邊緣并進(jìn)行形態(tài)學(xué)修正;
第一計(jì)算單元,用于采用霍夫變換提取道路視頻圖像邊緣并計(jì)算得出第一預(yù)瞄點(diǎn)。
所述的基于圖像信息融合的非結(jié)構(gòu)化道路檢測(cè)系統(tǒng),其中,所述第二計(jì)算模塊300具體包括:
提取單元,用于預(yù)先提取道路視頻圖像的顏色特征和空間特征;
分割單元,用于采用slic算法對(duì)道路視頻圖像進(jìn)行分割獲得超像素?cái)?shù)據(jù);
第二計(jì)算單元,用于采用k-means聚類算法對(duì)道路視頻圖像進(jìn)行聚類并計(jì)算得出第二預(yù)瞄點(diǎn)。
綜上所述,本發(fā)明首先通過非結(jié)構(gòu)道路邊緣檢測(cè)算法和非結(jié)構(gòu)化道路分割算法分別計(jì)算出道路視頻圖像的第一預(yù)瞄點(diǎn)和第二預(yù)瞄點(diǎn),然后通過信息融合技術(shù)對(duì)所述第一預(yù)瞄點(diǎn)和第二預(yù)瞄點(diǎn)進(jìn)行擬合得到道路視頻圖像的虛擬中心線;本發(fā)明通過上述計(jì)算處理可得到穩(wěn)定、精確可靠的圖像數(shù)據(jù);進(jìn)一步,可將所述圖像數(shù)據(jù)應(yīng)用于無(wú)人巡邏車進(jìn)行導(dǎo)航,可降低研究成本,具有巨大的應(yīng)用價(jià)值。
應(yīng)當(dāng)理解的是,本發(fā)明的應(yīng)用不限于上述的舉例,對(duì)本領(lǐng)域普通技術(shù)人員來(lái)說(shuō),可以根據(jù)上述說(shuō)明加以改進(jìn)或變換,所有這些改進(jìn)和變換都應(yīng)屬于本發(fā)明所附權(quán)利要求的保護(hù)范圍。