類地重力場(chǎng)環(huán)境下單目視覺空間識(shí)別方法
【專利摘要】一種類地重力場(chǎng)環(huán)境下單目視覺空間識(shí)別方法,其特征是它包括以下步驟:首先,對(duì)圖像進(jìn)行基于像素的CIELAB色彩空間值L,a,b和x,y坐標(biāo)值的超像素分割,以產(chǎn)生超像素圖像;其次,采用基于超像素顏色特性、紋理特征向量距離及鄰接關(guān)系的普聚類算法,將分割形成的超像素圖像降維并生成大圖塊;第三,將代表天空、地面及立面物體的重力場(chǎng)模糊分布密度函數(shù)分別與所得的大圖塊像素相乘,并求出大圖塊的期望值,從而完成天空、地面及立面物體的初步分類;第四,通過單層小波采樣和曼哈頓方向特征提取出天空、地面及立面物體的分類圖;最后,基于小孔成像模型及地面線性透視信息生成空間深度感知圖。本發(fā)明簡(jiǎn)單易行,分辨率高,應(yīng)用范圍廣。
【專利說明】類地重力場(chǎng)環(huán)境下單目視覺空間識(shí)別方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明涉及一種圖像處理方法,尤其是一種可以廣泛應(yīng)用于如機(jī)器人視覺導(dǎo)航、大空間的目標(biāo)測(cè)量、目標(biāo)追蹤與定位等領(lǐng)域的能提高空間識(shí)別的圖像處理方法,具體地說是一種類地重力場(chǎng)環(huán)境下單目視覺空間識(shí)別方法。
【背景技術(shù)】
[0002]理解3D空間結(jié)構(gòu)作為機(jī)器視覺的基本問題,長(zhǎng)期以來被人們關(guān)注并研究著,早期的研究工作關(guān)注于立體視覺或通過視角的運(yùn)動(dòng)來獲得3D的線索。近年來,許多研究人員將關(guān)注點(diǎn)聚焦于從單目視覺圖像中重構(gòu)3D空間結(jié)構(gòu),目前大多數(shù)單目視覺3D空間識(shí)別方法多采用監(jiān)督型機(jī)器學(xué)習(xí)方法,比如:馬爾可夫隨機(jī)場(chǎng)(MRFs)、條件概率隨機(jī)場(chǎng)(CRFs)以及動(dòng)態(tài)貝葉斯網(wǎng)絡(luò)(DBN)等。然而,這些方法常常依賴于其先驗(yàn)知識(shí),即僅能學(xué)習(xí)訓(xùn)練集中所采集的圖像環(huán)境。因此,當(dāng)采樣設(shè)備或采樣環(huán)境發(fā)生變化時(shí),單目視覺3D空間識(shí)別的結(jié)果將產(chǎn)生較大差異。為了解決這個(gè)問題,本發(fā)明提出將重力場(chǎng)因素添加到圖像分析中,構(gòu)建了一種新的非監(jiān)督學(xué)習(xí)單目空間識(shí)別方法。
【發(fā)明內(nèi)容】
[0003]本發(fā)明的目的是針對(duì)現(xiàn)有的圖像識(shí)別方法大都需要通過對(duì)圖像的學(xué)習(xí)才能完成,這些方法存在數(shù)據(jù)處理量大、速度慢,適應(yīng)性差,使用范圍受限較多的問題,發(fā)明一種無需學(xué)習(xí)且能快速識(shí)別、同時(shí)準(zhǔn)確度高、適用性廣的類地重力場(chǎng)環(huán)境下單目視覺空間識(shí)別方法。
[0004]本發(fā)明的技術(shù)方案是:
[0005]一種類地重力場(chǎng)環(huán)境下單目視覺空間識(shí)別方法,其特征是它包括以下步驟:·[0006]首先,對(duì)圖像進(jìn)行基于像素的CIELAB色彩空間值L,a, b和x,y坐標(biāo)值的超像素分害!],以產(chǎn)生具有一定密度的超像素圖像;
[0007]其次,采用基于超像素顏色特性、紋理特征向量距離及鄰接關(guān)系的普聚類算法,將分割形成的超像素圖像降維并生成大圖塊;
[0008]第三,將代表天空、地面及立面物體的重力場(chǎng)模糊分布密度函數(shù)分別與所得的大圖塊像素相乘,并求出大圖塊的期望值,從而完成天空、地面及立面物體的初步分類;
[0009]第四,通過單層小波采樣和曼哈頓方向特征提取出天空、地面及立面物體的分類圖;
[0010]最后,基于小孔成像模型及地面線性透視信息生成空間深度感知圖,從而完成由攝像設(shè)備獲取的平面圖像向立體圖像的轉(zhuǎn)換,實(shí)現(xiàn)類地重力場(chǎng)環(huán)境下單目視覺空間識(shí)別。
[0011]本發(fā)明的有益效果是:
[0012]本發(fā)明首次提出了將重力場(chǎng)因素添加到圖像分析中,構(gòu)建了一種新的非監(jiān)督學(xué)習(xí)單目空間識(shí)別方法,模擬了人類視覺系統(tǒng)對(duì)地面連續(xù)表面集成處理方法,構(gòu)建一個(gè)具有一定普適性類地重力場(chǎng)環(huán)境下單目視覺空間識(shí)別模式,它改變了傳統(tǒng)的單目視覺系統(tǒng)3D重構(gòu)及深度感知的算法模式。[0013]1.本發(fā)明模擬了人類視覺系統(tǒng),構(gòu)建一個(gè)具有一定普適性的類地重力場(chǎng)環(huán)境下單目視覺空間識(shí)別方法,需要指出的是該方法可以應(yīng)用于對(duì)火星表面及月球表面等類地重力場(chǎng)環(huán)境下的視覺空間測(cè)量,如圖15所示。
[0014]2.當(dāng)取消對(duì)圖像中天空亮度的約束條件時(shí),本發(fā)明還可以識(shí)別城市夜景環(huán)境,如圖16所示。
[0015]3.本發(fā)明無需對(duì)計(jì)算機(jī)進(jìn)行先驗(yàn)知識(shí)的學(xué)習(xí)與訓(xùn)練就可以對(duì)類地重力場(chǎng)環(huán)境下的單目視覺圖像進(jìn)行有效識(shí)別與3D重構(gòu)。
[0016]4.本發(fā)明改變了傳統(tǒng)的單目視覺系統(tǒng)3D重構(gòu)及深度感知的算法模式,可以廣泛應(yīng)用于如機(jī)器人視覺導(dǎo)航、大空間的目標(biāo)測(cè)量、目標(biāo)追蹤與定位等領(lǐng)域。
【專利附圖】
【附圖說明】
[0017]圖1是本發(fā)明的流程示意圖。
[0018]圖2是本發(fā)明的基于超像素的普聚類過程及效果示意圖。圖2中:(a)為原圖像、(b)為951個(gè)超像素分割圖像、(c) 145個(gè)譜聚類的圖像、(d) 3次迭代收斂的92個(gè)聚類的圖像。
[0019]圖3是本發(fā)明的利用幾何包含關(guān)系消除圖塊中孤島的過程示意圖。圖3中:(a)為建筑物窗戶聚類算法后留下孤島圖塊、(b)為基于幾何包含關(guān)系聚類算法消除圖塊孤島的結(jié)果。
[0020]圖4是人類重力場(chǎng)視覺認(rèn)知模型示意圖。
[0021]圖5是本發(fā)明的視平線位置的確定示意圖。
[0022]圖6是本發(fā)明的圖像視平線位置確定等效原理圖,圖中=H1為圖像的高度,H1 =hs+hg。
[0023]圖7是經(jīng)過本發(fā)明的基于重力場(chǎng)模糊分布密度函數(shù)所得的地面、天空、立面物體分類過程示意圖。
[0024]圖8是本發(fā)明的立面物體與天空分類算法過程示意圖。
[0025]圖9是本發(fā)明的重力場(chǎng)模糊函數(shù)判斷中出現(xiàn)不符合重力場(chǎng)的結(jié)果示意圖。圖中
(a)為原圖、(b)為經(jīng)過立面物體與地面區(qū)分計(jì)算后的結(jié)果。
[0026]圖10為經(jīng)過本發(fā)明的模糊函數(shù)及立面物體與天空分類后的計(jì)算結(jié)果示意圖。其中(a)為對(duì)不符合重力場(chǎng)圖塊重新歸類、(b)為立面物體與地面區(qū)分后的聚類結(jié)果。
[0027]圖11為經(jīng)過本發(fā)明立面物體與地面進(jìn)一步區(qū)分后輸出的結(jié)果。
[0028]圖12是本發(fā)明的視覺成像系統(tǒng)物理模型示意圖。
[0029]圖13是本發(fā)明的深度投影角在Lab空間中的映射示意圖。
[0030]圖14是對(duì)應(yīng)圖11的深度感知圖。
[0031]圖15是利用本發(fā)明的方法對(duì)NASA火星圖片進(jìn)行空間識(shí)別及深度識(shí)別的結(jié)果示意圖。
[0032]圖16是利用本發(fā)明的方法對(duì)城市夜景圖片的空間識(shí)別及3D重構(gòu)圖。
【具體實(shí)施方式】
[0033]下面結(jié)構(gòu)實(shí)施例和附圖對(duì)本發(fā)明作進(jìn)一步的說明。[0034]如圖1-14所示。
[0035]一種類地重力場(chǎng)環(huán)境下單目視覺空間識(shí)別方法,它包括以下步驟:
[0036](I)首先對(duì)圖像進(jìn)行基于像素色彩及空間位置的超像素圖像分割,形成具有一定密度的超像素圖像;
[0037](2)通過運(yùn)用基于超像素顏色空間距離、紋理特征向量距離及幾何鄰接關(guān)系的普聚類算法將超像素圖像降維到10%以下的大圖塊聚類圖像;
[0038](3)代表天空、地面及立面物體的重力場(chǎng)模糊分布密度函數(shù)分別與這些大圖塊像素相乘,并求出這些大圖塊的期望值,從而產(chǎn)生天空、地面及立面物體的初步分類,通過進(jìn)一步的一層小波采樣、曼哈頓方向提取等特性分類算法,提取出較為準(zhǔn)確的天空、地面和立面物體分類圖;
[0039](4)最后,基于小孔成像模型及地面線性透視信息生成空間深度感知圖。從而完成由單臺(tái)攝像設(shè)備獲取的平面圖像向立體圖像的轉(zhuǎn)換,實(shí)現(xiàn)類地重力場(chǎng)環(huán)境下單目視覺空間識(shí)別。
[0040]詳述如下:
[0041]1.超像素聚類算法。
[0042]可采用Achanta R提出的簡(jiǎn)單線性迭代聚類算法即SLIC (Simple LinearIterative Clustering),該算法以像素的CIELAB色彩空間的L、a、b值及像素的x, y軸坐標(biāo)構(gòu)建5維空間,并定義了規(guī)范化的距離測(cè)量方法Ds,具體定義如下:
【權(quán)利要求】
1.一種類地重力場(chǎng)環(huán)境下單目視覺空間識(shí)別方法,其特征是它包括以下步驟: 首先,對(duì)圖像進(jìn)行基于像素的CIELAB色彩空間值L,a, b和x,y坐標(biāo)值的超像素分割,以產(chǎn)生超像素圖像; 其次,采用基于超像素顏色特性、紋理特征向量距離及鄰接關(guān)系的普聚類算法,將分割形成的超像素圖像降維并生成大圖塊; 第三,將代表天空、地面及立面物體的重力場(chǎng)模糊分布密度函數(shù)分別與所得的大圖塊像素相乘,并求出大圖塊的期望值,從而完成天空、地面及立面物體的初步分類; 第四,通過單層小波采樣和曼哈頓方向特征提取出天空、地面及立面物體的分類圖; 最后,基于小孔成像模型及地面線性透視信息生成空間深度感知圖。
2.根據(jù)權(quán)利要求1所述的方法,其特征是所述的普聚類算法包括超像素聚類方法及在超像素的基礎(chǔ)上的普聚類方法,所述的超像素聚類方法采用Achanta R提出的簡(jiǎn)單線性迭代聚類算法即SLIC (Simple Linear Iterative Clustering),該算法以像素的CIELAB色彩空間的L、a、b值及像素的X,y軸坐標(biāo)構(gòu)建5維空間,并定義了規(guī)范化的距離測(cè)量方法Ds,具體定義如下:
3.根據(jù)權(quán)利要求1所述的方法,其特征是所述的大圖塊生成采用幾何包含關(guān)系聚類方法,以消除孤島圖塊,所謂的孤島圖塊是指一個(gè)或多個(gè)圖塊被一個(gè)大圖塊完全包圍的圖塊,幾何包含關(guān)系的聚類算法可以將孤島圖塊聚類成完全包圍該孤島的大圖塊,從而避免了幾何上下文算法對(duì)孤島圖塊空間分類所產(chǎn)生的奇異;具體方法為: (1)尋找鏤空?qǐng)D塊,其判據(jù)為當(dāng)Nb-nb>0時(shí)則圖塊為鏤空?qǐng)D塊,其中Nb為圖塊所有邊界的像素值,nb為圖塊外邊界的像素值,如果Nb-nb>0則進(jìn)入下一步,否則圖塊不為鏤空?qǐng)D塊; (2)以外邊界為邊界以原圖塊的標(biāo)記值來填充圖塊; (3)以填充圖塊代替原鏤空?qǐng)D塊。
4.根據(jù)權(quán)利要求1所述的方法,其特征是所述的采用單層小波采樣提取天空和立面物體的分類圖時(shí)采用I2范數(shù)計(jì)算各對(duì)象圖塊的平均能量測(cè)度,即
5.根據(jù)權(quán)利要求1所述的方法,其特征是所述的采用單層小波采樣提取地面和立面物體的分類圖時(shí)采用以下判別方法: (1)根據(jù)地面的連續(xù)性及其重力場(chǎng)空間幾何上下性質(zhì),將懸空于立面物體中的地面圖塊歸為立面物體; (2)通過對(duì)圖像中被判別為立面物體圖塊進(jìn)行Hogh變換,并通過基于直線方向角度的統(tǒng)計(jì)直方圖,通過對(duì)其曼哈頓方向信息的強(qiáng)度,來判斷圖中是否存在大型近距離建筑物,如果不存在則結(jié)束對(duì)地面的修正,如果存在則進(jìn)入下一步; (3)以立面物體中建筑物的曼哈頓方向信息修正其與地面圖塊的連接邊界。
6.根據(jù)權(quán)利要求1所述的方法,其特征是所述的天空、地面及立面物體的重力場(chǎng)模糊分布密度函數(shù)分別為: (1)地面重力場(chǎng)模糊分布密度函數(shù)G:
7.根據(jù)權(quán)利要求1所述的方法,其特征是所述的期望值是通過對(duì)大圖塊中各像素在圖像垂直方向上與地面模糊分布密度函數(shù)G、天空模糊分布密度函數(shù)S以及立面物體模糊分布密度函數(shù)V,在(-He,Hs)范圍內(nèi)相乘所得,其計(jì)算公式為:
【文檔編號(hào)】G06K9/62GK103632167SQ201310652422
【公開日】2014年3月12日 申請(qǐng)日期:2013年12月5日 優(yōu)先權(quán)日:2013年11月29日
【發(fā)明者】鄭李明, 崔兵兵 申請(qǐng)人:金陵科技學(xué)院