亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于灰度特征提取和稠密光流法的室內(nèi)定位方法與流程

文檔序號:12173172閱讀:534來源:國知局
一種基于灰度特征提取和稠密光流法的室內(nèi)定位方法與流程

本發(fā)明涉及基于灰度特征提取和稠密光流法的室內(nèi)定位方法。



背景技術(shù):

近年來,由于相應(yīng)設(shè)備和技術(shù)廣泛的進步以及實際應(yīng)用場景中對基于位置服務(wù)的無縫解決方案的必要性,室內(nèi)定位系統(tǒng)獲得了廣泛的關(guān)注和研究,這些系統(tǒng)開辟了一種全自動目標定位檢測的新技術(shù)領(lǐng)域。在室外環(huán)境下,傳統(tǒng)全球衛(wèi)星導(dǎo)航系統(tǒng)(Global Navigation Satellite System,GNSS)的定位結(jié)果是對用戶位置進行精確估計的最可靠來源之一。然而在室內(nèi)或封閉的環(huán)境中,由于衛(wèi)星信號會受到嚴重的衰減導(dǎo)致定位精度的嚴重損失,GNSS是不可行的。

目前,室內(nèi)定位系統(tǒng)技術(shù)的研究熱點主要包括WiFi定位技術(shù)和藍牙定位技術(shù)。其中,WiFi定位技術(shù)具有無線接入點已部署范圍廣和可擴散繁殖的特點,利用用戶智能手機檢測到的各無線接入點的信號強度完成對用戶位置的估計。然而,該技術(shù)嚴重依賴無線接入點的個數(shù),并且在商場等實際環(huán)境的進口和出口等周邊區(qū)域的定位精度急劇下降。藍牙定位技術(shù)通過利用用戶接收的藍牙信號的強度完成對用戶位置的估計,并且可實現(xiàn)1米的定位精度,然而該技術(shù)在探尋藍牙信號階段存在的高延遲現(xiàn)象限制了它實際中的應(yīng)用。綜合已經(jīng)以上室內(nèi)定位技術(shù)的優(yōu)缺點,需要一種可擴展性強,部署成本低,所需時延小,定位精度高且穩(wěn)定的定位系統(tǒng)。由于圖像中包含了豐富的信息,帶有圖像傳感器的智能手機的高普及性和可擴展移植性,以及計算機處理技術(shù)大大增強等優(yōu)勢,使得基于視覺的室內(nèi)定位技術(shù)成為新的研究熱點。

視覺室內(nèi)定位技術(shù)無需額外的部署,只需通過用戶終端拍攝的室內(nèi)場景圖片,配合已建立的室內(nèi)場景數(shù)據(jù)庫,即可完成對用戶位置更為準確且魯棒性更強的估計結(jié)果。并且由于圖像包含豐富的場景信息,視覺室內(nèi)定位還可以為用戶提供更好的可視化服務(wù),這是其他定位方式無法比擬的。目前已經(jīng)提出的視覺室內(nèi)定位技術(shù)主要采用位置指紋算法,通過將終端拍攝的場景圖像與用戶位置共同建立數(shù)據(jù)庫,然后采用快速檢索算法得出數(shù)據(jù)庫中最匹配的場景圖像及對應(yīng)位置,完成定位服務(wù)。

然而主流的室內(nèi)視覺定位算法研究,是提前建立圖像數(shù)據(jù)庫,在數(shù)據(jù)庫中加入位置距離等信息。然后在線階段,通過終端獲取圖片,通過特征匹配等方法與數(shù)據(jù)庫中的圖片進行匹配,然后進行相應(yīng)的計算得到用戶當(dāng)前的位置。建立數(shù)據(jù)庫的過程屬于離線過程,數(shù)據(jù)獲取會耗費大量的時間,而得到的數(shù)據(jù)又需要占一定的存儲空間,于此同時,獲取的數(shù)據(jù)也必然存在著一定的誤差。因此,本文采用基于光流法的室內(nèi)視覺定位算法進行室內(nèi)定位,這種算法不需要離線建立數(shù)據(jù)庫,因此節(jié)省了大量的時間,大幅度降低了了對存儲設(shè)備的需求,而且避免了離線建立數(shù)據(jù)庫產(chǎn)生的誤差對定位的影響。

在進行光流法進行室內(nèi)視覺定位的時候,由于受光照、障礙、圖片中的特征是否明顯等因素的影響,光流法的定位會產(chǎn)生一定的誤差,因此通過對圖片進行特征提取、特征選擇與特征匹配的方法,對圖片進行處理,從而從整幅圖片的光流中選取置信區(qū)間。雖然算法復(fù)雜度上升了,但是定位精度提高了。雖然算法復(fù)雜度上升了,但是位所花費的總時間相對主流定位方法仍然是大幅度減小了。



技術(shù)實現(xiàn)要素:

本發(fā)明是為了解決現(xiàn)有室內(nèi)定位技術(shù)成本高、所需時間較長、工序復(fù)雜以及傳統(tǒng)光流法精度低的問題,而提出的一種基于灰度特征提取和稠密光流法的室內(nèi)定位方法。

一種基于灰度特征提取和稠密光流法的室內(nèi)定位方法按以下步驟實現(xiàn):

步驟一:人在室內(nèi)行走或車在行進過程中,使用相機傳感器進行固定方向和視角的視頻采集,并標識出錄像的起點;

步驟二:對步驟一得到的視頻每隔時間T進行一幀圖像的截取;

步驟三:對每兩幅相鄰圖像利用稠密型光流法進行計算,得到這兩幅圖像運動過程的水平和垂直速度(u,v);

步驟四:對圖像進行灰度變換,得到灰度圖像后計算圖像的灰度平均值,選取灰度值大于平均灰度值的像素點,記錄每個選取的像素的位置用(ll(m),lv(m))表示,其中m為第m個像素,ll為像素的橫坐標集合,lv為像素的縱坐標集合;

步驟五:根據(jù)(ll(m),lv(m))確定的位置,進行光流的選取得到水平速度un((ll(m),lv(m)))和垂直速度vn((ll(m),lv(m))),根據(jù)得到的所有點的水平速度與垂直速度,計算平均水平速度和平均垂直速度并進行噪點的去除,得到去噪后的平均水平速度和平均垂直速度

步驟六:根據(jù)相機標定原理將步驟五得到的平均水平速度和平均垂直速度,轉(zhuǎn)換為三維空間的平均水平速度和平均垂直速度,并根據(jù)時間間隔T,計算兩幅相鄰圖像運動過程中的水平位移和垂直位移;

步驟七:重復(fù)執(zhí)行步驟一至步驟六,直至全部位移計算完畢,并根據(jù)起點,得到行進路線以及每個時間點的具體位置。

發(fā)明效果:

本發(fā)明考慮了電動汽車出行狀態(tài)對電動汽車動力電池參與電力系統(tǒng)調(diào)頻效果的影響,以及參與電力系統(tǒng)調(diào)頻對電動汽車動力電池壽命的影響,建立了考慮電池壽命的電動汽車動力電池參與電力系統(tǒng)調(diào)頻模型,從系統(tǒng)端和電池端對電動汽車參與電力系統(tǒng)調(diào)頻效果進行評估。按本發(fā)明所述建模方法對電動汽車參與電力系統(tǒng)調(diào)頻策略進行選擇,可以將電池容量損失由0.0158%下降為0.0113%,即最大將電池容量損失降低28.5%。

本發(fā)明考慮了主流室內(nèi)視覺定位算法花費較大前期時間以及人力的投入(主流室內(nèi)視覺定位算法需要提前建立數(shù)據(jù)庫,在走廊中根據(jù)需要每隔一段距離便需要采集一副圖片并且進行相應(yīng)的距離測量如到墻的距離等,而且必須保證該位置附近有明顯的特征不同,且不同地方特征盡可能不同),數(shù)據(jù)庫的建立要求對場景密集踩點,每一個點固定位置照片并且準確測量距離,因此每一個點花費的時間至少3-5秒甚至更多,這在一個如機場大小的室內(nèi),工作量是不可想象的。在建立好數(shù)據(jù)庫后,用戶進行照相并將照片和數(shù)據(jù)庫匹配,如果數(shù)據(jù)庫中場景相似的圖片較多很容易產(chǎn)生誤匹配。因此我提出的一種基于灰度特征提取和稠密光流法的室內(nèi)定位方法,不需要提前簡歷數(shù)據(jù)庫,大大節(jié)省了時間,而且由于定位過程中不需要進行和數(shù)據(jù)庫的匹配,因此完全不存在誤匹配的問題。相對于傳統(tǒng)的室內(nèi)光流法定位算法,由于我考慮到了室內(nèi)光線明暗變化的問題,提取灰度較高的點(灰度較大的點收光影變化較小)進行最終速度的計算,從而提高了傳統(tǒng)光流法的精度,在光線較好的白天誤差由10cm降低到1cm左右。

附圖說明

圖1為本發(fā)明實施例的稠密型光流法的結(jié)合灰度特征提取的室內(nèi)定位算法的流程圖;

圖2為本發(fā)明實施例的30個單步80cm的定位誤差累計分布圖;

圖3為本發(fā)明實施例的30個單步80cm的定位結(jié)果圖。

具體實施方式

具體實施方式一:如圖1所示,一種基于灰度特征提取和稠密光流法的室內(nèi)定位方法包括以下步驟:

步驟一:人在室內(nèi)行走或車在行進過程中,使用相機傳感器進行固定方向和視角的視頻采集,并標識出錄像的起點;

步驟二:對步驟一得到的視頻每隔時間T進行一幀圖像的截?。?/p>

步驟三:對每兩幅相鄰圖像利用稠密型光流法進行計算,得到這兩幅圖像運動過程的水平和垂直速度(u,v);

步驟四:對圖像進行灰度變換,得到灰度圖像后計算圖像的灰度平均值,選取灰度值大于平均灰度值的像素點,記錄每個選取的像素的位置用(ll(m),lv(m))表示,其中m為第m個像素,ll為像素的橫坐標集合,lv為像素的縱坐標集合;

步驟五:根據(jù)(ll(m),lv(m))確定的位置,進行光流的選取得到水平速度un((ll(m),lv(m)))和垂直速度vn((ll(m),lv(m))),根據(jù)得到的所有點的水平速度與垂直速度,計算平均水平速度和平均垂直速度并進行噪點的去除,得到去噪后的平均水平速度和平均垂直速度

步驟六:根據(jù)相機標定原理將步驟五得到的平均水平速度和平均垂直速度,轉(zhuǎn)換為三維空間的平均水平速度和平均垂直速度,并根據(jù)時間間隔T,計算兩幅相鄰圖像運動過程中的水平位移和垂直位移;

步驟七:重復(fù)執(zhí)行步驟一至步驟六,直至全部位移計算完畢,并根據(jù)起點,得到行進路線以及每個時間點的具體位置。

本發(fā)明適用于室內(nèi)定位,例如用戶在沒有數(shù)據(jù)庫的室內(nèi)場景。本發(fā)明的在進行定位之前只需要已知起點,且攝像頭相對于人或車的移動必須是硬鏈接,不需要提取建立數(shù)據(jù)庫,在人行走或者車行進的過程中,以不變的角度和方向錄制視頻。

具體實施方式二:本實施方式與具體實施方式一不同的是:所述步驟三中對每兩幅相鄰圖像利用稠密型光流法進行計算的具體過程為:

步驟三一:對兩幅圖像進行灰度變換,得到兩幅灰度圖像;

步驟三二:計算兩幅圖像的時間梯度矩陣ft、第一幅圖像的水平方向梯度fu以及第一幅圖片的垂直方向梯度fv;

其中所述xi為一幅圖像中水平方向上第i個像素的橫坐標,yj為一幅圖像中垂直方向上第j個像素的縱坐標,tk為第k幅圖像的時間;

步驟三三:計算光流平均分量與

其中為由第k幅圖像的橫坐標為i,縱坐標為j的像素及周圍像素計算得到的水平方向平均速度;為由第k幅圖像的橫坐標為i,縱坐標為j的像素及周圍像素計算得到的垂直方向平均速度;

步驟三四:根據(jù)圖像的拉普拉斯算子,將和帶入公式(6);

其中為根據(jù)圖像的拉普拉斯算子定義計算u的拉普拉斯變換,為根據(jù)圖像的拉普拉斯算子定義計算v的拉普拉斯變換,uxx圖像的水平方向的二階梯度矩陣,uyy為圖像的垂直方向的二階梯度矩陣;根據(jù)拉普拉斯的估計計算(因為u和v是兩個矩陣,按照圖像的拉普拉斯算子算法來計算這個矩陣,本來拉普拉斯算子是對圖像的灰度矩陣進行處理,這里是對速度矩陣進行處理,公式6是光流基本方程得來,為了能夠?qū)⑵渲衭xx與uyy的計算替換成的估計,從而得到三五里面的迭代公式);

步驟三五:設(shè)置光流初始值以及迭代次數(shù),將u0和v0記為光流估計的初始值;u0為迭代開始前設(shè)定的水平方向速度初值,v0為迭代開始前設(shè)定的垂直方向速度初值;

步驟三六:進行光流的迭代計算,得到水平速度和垂直速度;

其中為迭代n次后得到的水平方向速度,為迭代n次后得到的垂直方向速度,a為平滑因子。

其它步驟及參數(shù)與具體實施方式一相同。

具體實施方式三:本實施方式與具體實施方式一或二不同的是:所述步驟四中對圖像進行灰度變換,得到灰度圖像后計算圖像的灰度平均值,選取灰度值大于平均灰度值的像素點的具體過程為:

步驟四一、對圖像進行灰度變換,變換為灰度圖像,并計算整幅圖像的平均灰度,記為

步驟四二、設(shè)置灰度閾值為

步驟四三、建立像素坐標系,相鄰兩個像素的距離為1,原點在圖像的左上角,水平方向坐標記為ll,垂直方向坐標記為lv;從第一行第一個像素開始,每個像素的灰度與閾值相比,若大于等于閾值,則保存坐標;若小于閾值,則不保存。像素坐標系為二維坐標系,即只有橫縱坐標,橫坐標X軸為水平方向,縱坐標Y軸為垂直方向。

其它步驟及參數(shù)與具體實施方式一或二相同。

具體實施方式四:本實施方式與具體實施方式一至三之一不同的是:所述步驟五中得到去噪后的平均水平速度和平均垂直速度的具體過程為:

步驟五一:根據(jù)步驟四三保存的水平坐標ll與垂直坐標lv,得到新的水平速度集un和新的垂直水平速度集vn

步驟五二:用新的水平速度集un和新的垂直速度集vn計算平均水平速度和平均垂直速度

步驟五三:設(shè)定水平速度閾值為和垂直速度閾值為和將un中所有速度值與和比較,若數(shù)值在和之間則保留,否則則剔除,得到新的水平速度集將vn中所有速度值與和比較,若數(shù)值在和之間則保留,否則則剔除,得到新的垂直速度集計算水平平均速度和垂直平均速度

其它步驟及參數(shù)與具體實施方式一至三之一相同。

具體實施方式五:本實施方式與具體實施方式一至四之一不同的是:所述步驟六中計算兩幅相鄰圖像運動過程中的水平位移和垂直位移的具體過程為:

步驟六一:成像平面到攝像機之間的坐標轉(zhuǎn)換,像平面坐標系(像平面坐標系與像素坐標系的區(qū)別在于像平面坐標系中的距離為實際測量距離)的原點O在像素坐標系下的坐標變?yōu)?u0,v0),將單位像素在X軸和Y軸方向上的物理長度記成dx和dy,得到兩個坐標系之間有如下數(shù)學(xué)關(guān)系:

其中所述sx是攝像機成像的傾斜因子,成像平面兩個坐標軸不會是正好成90°此參數(shù)表示成像平面一定的畸變。但是在現(xiàn)代制造工藝下,其值可以近似為零。

u0為像平面坐標系的原點O在像素坐標系下的橫坐標,v0為像平面坐標系的原點O在像素坐標系下的縱坐標,dx為單位像素在X軸方向上的長度,dy為單位像素在Y軸方向上的長度,Xu為像素點在像素平面坐標系下的橫坐標,Yv為像素點在像素平面坐標系下的縱坐標,x為像素點在像平面坐標系下的橫坐標,y為像素點在像平面坐標系下的縱坐標;

步驟六二:成像平面到攝像機之間的坐標轉(zhuǎn)換,得到像平面坐標系和攝像機坐標系之間的如下數(shù)學(xué)關(guān)系:

其中所述xc為該點在攝像機坐標系下的X軸坐標,yc為該點在相機三維坐標系下的Y軸坐標,zc為該點在相機三維坐標系下的Z軸坐標,fc為相機的焦距;

步驟六三:攝像機坐標系到世界坐標系的坐標轉(zhuǎn)換,通過單位正交旋轉(zhuǎn)矩陣R和平移向量t獲得世界坐標系與攝像機坐標系的映射關(guān)系:

其中所述xw為該點在世界三維坐標系下的X軸坐標,yw為該點在世界三維坐標系下的Y軸坐標,zw該點在世界三維坐標系下的Z軸坐標,R為單位正交旋轉(zhuǎn)矩陣,t為平移向量;

攝像機坐標系中,攝像機在原點,x軸向右,z軸向前(朝向屏幕內(nèi)或攝像機方向),y軸向上(不是世界的上方而是攝像機本身的上方)。

步驟六四:由得到的三維世界坐標系的速度,與截取圖像的時間相乘,得到兩幅相鄰圖片運動過程中的水平位移du和垂直位移dv。

本發(fā)明的變量與物理意義列表如下:

其它步驟及參數(shù)與具體實施方式一至四之一相同。

實施例一:

步驟一:人在室內(nèi)行走或車在行進過程中,使用相機傳感器進行固定方向和視角的視頻采集,并標識出錄像的起點;攝像頭相對于人或車的移動必須是硬連接;所處的室內(nèi)必須有豐富的特征(正常室內(nèi)即可),但是不能是整個屋子只有一個顏色且毫無其他特征,比如整個走廊除了白色只有白色,因此選取哈工大科技園2A棟12樓走廊為實驗環(huán)境,在光線充足的白天,并且將走廊中的等全部打開以盡量減少光線變化,實驗人員手持蘋果手機,以大約每秒0.8米的速度行走24米的距離,并錄制一段視頻。

步驟二:根據(jù)需要以及行進的快慢,對步驟一得到的視頻每隔時間t進行一幀圖像的截取,t=0.5s;

步驟三:對每兩幅相鄰圖像利用稠密型光流法進行計算,得到這兩幅圖像運動過程的水平和垂直速度(u,v),其中u和v為和圖像尺寸相同大小的矩陣;

步驟三一:對兩幅圖像進行灰度變換,得到兩幅灰度圖像;

步驟三二:計算兩幅圖像的時間梯度矩陣ft、第一幅圖像的水平方向梯度fu以及第一幅圖片的垂直方向梯度fv;

其中所述xi為一幅圖像中水平方向上第i個像素的橫坐標,yj為一幅圖像中垂直方向上第j個像素的縱坐標,tk為第k幅圖像的時間;

步驟三三:計算光流平均分量與

其中為由第k幅圖像的橫坐標為i,縱坐標為j的像素及周圍像素計算得到的水平方向平均速度;為由第k幅圖像的橫坐標為i,縱坐標為j的像素及周圍像素計算得到的垂直方向平均速度;

步驟三四:根據(jù)圖像的拉普拉斯算子,計算以及將計算得到的數(shù)據(jù)帶入公式(6);

其中為根據(jù)圖像的拉普拉斯算子定義計算u的拉普拉斯變換,為根據(jù)圖像的拉普拉斯算子定義計算v的拉普拉斯變換,uxx圖像的水平方向的二階梯度矩陣,uyy為圖像的垂直方向的二階梯度矩陣;

步驟三五:設(shè)置光流初始值以及迭代次數(shù),將u0和v0記為光流估計的初始值;u0為迭代開始前設(shè)定的水平方向速度初值,v0為迭代開始前設(shè)定的垂直方向速度初值;初始值為0,迭代次數(shù)根據(jù)需要設(shè)置,這里設(shè)置為100;

步驟三六:進行光流的迭代計算,得到水平速度和垂直速度;

其中為迭代n次后得到的水平方向速度,為迭代n次后得到的垂直方向速度,a為平滑因子。

步驟四:對圖像進行灰度變換,得到灰度圖像后計算圖像的灰度平均值,選取灰度值大于平均灰度值的像素點(也可以根據(jù)場景需要提高或降低灰度選取的閾值選擇),記錄每個選取的像素的位置用(ll(m),lv(m))表示,其中m為第m個像素,ll為像素的橫坐標集合,lv為像素的縱坐標集合;

步驟五:根據(jù)(ll(m),lv(m))確定的位置,進行光流的選取得到水平速度un((ll(m),lv(m)))和垂直速度vn((ll(m),lv(m))),根據(jù)得到的所有點的水平速度與垂直速度,計算平均水平速度和平均垂直速度并進行噪點的去除,得到去噪后的平均水平速度和平均垂直速度

步驟六:根據(jù)相機標定原理將步驟五得到的平均水平速度和平均垂直速度,轉(zhuǎn)換為三維空間的平均水平速度和平均垂直速度,并根據(jù)時間間隔t,計算兩幅相鄰圖像運動過程中的水平位移和垂直位移;

步驟七:重復(fù)執(zhí)行步驟一至步驟六,直至全部位移計算完畢,并根據(jù)起點,得到行進路線以及每個時間點的具體位置。

30個單步80cm的定位誤差累計分布圖,如圖2所示;30個單步80cm的定位結(jié)果圖,如圖3所示。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1