本發(fā)明屬于計算機視覺與移動機器人的
技術領域:
:,特別是涉及一種移動機器人同時視覺伺服與自適應深度辨識方法。
背景技術:
::對于移動機器人系統,引入視覺傳感器可大大增強其智能性,靈活性和環(huán)境感知能力[1-3](參見附錄文獻[1-3],以下表述均為附錄中文獻)。利用實時圖像反饋來控制的移動機器人的運動,即視覺伺服技術,能夠廣泛運用于各種領域,如智能交通和環(huán)境勘探。由于這些原因,這項技術受到格外關注并且成為機器人領域的研究熱點。對于視覺傳感器,由于是根據透視投影模型成像的,深度信息的缺失是其主要缺陷。因此,對于單目攝像機視覺系統,難以完整恢復出外部三維場景信息和移動機器人自身運動信。另外,由于移動機器人存在非完整運動約束特點,使得位姿控制器的設計非常具有挑戰(zhàn)性。因此,深度信息的缺失和非完整約束,使移動機器人視覺控制任務變得異常艱巨。然而,現有方法大多在原有視覺伺服控制器的基礎上為未知深度信息設計補償模塊。在這種意義上,在視覺伺服任務完成后依然無法得到場景模型。由于工作空間信息仍無法完全獲得,限制了機器人系統的進一步應用推廣。因此,如何在視覺伺服控制的同時進行深度信息辨識,是機器人和控制領域內一個困難但非常有價值的問題。至今,為了完成移動機器人視覺伺服任務,已有許多處理深度信息缺失問題的解決方法。在文獻[4]中,Zhang等人提出了一種兩階段的控制器利用逆推方法使移動機器人在攝像機外參數未知情況下驅動到目標位姿,其中使用自適應更新律對特征點平面的未知深度信息進行補償。在文獻[5]中,在對單一特征點深度信息進行補償后,為移動機器人設計了一種聯合視覺跟蹤和控制的控制器。Mariottini等人根據視覺伺服過程中的真實值來設定距離參數[6],并且在文獻[7]中使用同樣的方法。在文獻[8]中,Becerra等人在超扭曲控制器中設計了適當的控制增益來合并未知的深度信息,并在文獻[9]和[10]中,根據單應矩陣中的項用控制增益抵消了未知的深度信息。Li等人利用基于視覺的模型預估控制驅動機器人到達期望位姿,并通過距離傳感器,如激光,獲得深度信息[11]。不幸的是,除了裝置距離傳感器,現有的方法無法通過補償方式辨識深度信息。另一方面,雖然增加距離傳感器能夠解決深度辨識問題,其卻無可避免地增加了系統復雜度和成本。為了使實際應用系統使用更加方便,充分利用圖像數據和系統狀態(tài)辨識深度信息仍然是較好的方法。最近,在機器人系統的距離信息辨識方面取得了一些研究成果。Hu等人用非線性觀測器測出了物體的歐式坐標,其中用已知運動參數漸進地辨識出距離信息[12]。Dani等人在全局指數穩(wěn)定下設計了降階非線性觀測器來辨識一個靜止物體和運動相機之間的距離[13]。另外,距離信息和相機運動都可以被非線性觀測器檢測到,如文獻[14]和[15]的研究結果。在機器人操作臂的視覺跟蹤任務方面,設計距離觀測器來測量末段執(zhí)行器的位姿[16],移動物體的位姿[17],和機器人的速度[18]。Spica等人為常見視覺目標的結構提出一種動態(tài)估計方法,其能夠在期望瞬態(tài)響應下運行并提高執(zhí)行視覺伺服任務時的表現[19]。與機器臂相比,驅動移動機器人時應考慮到非完整約束,其為深度辨識帶來更多挑戰(zhàn)。在文獻[20]中,構造了一種適應算法,其利用在視覺軌道跟蹤任務中的目標特征來估計移動機器人位姿。Luca等人設計了非線性觀測器以在移動機器人視覺伺服中漸進地找到特征深度[21]。然而,現有方法普遍要求在持續(xù)激勵條件下并且僅有漸進收斂性質。因而,無法保證控制誤差收斂之前觀測誤差收斂至零,造成無法保證控制器/觀測器組合系統全局穩(wěn)定。因此,如何同時完成控制和深度辨識仍然是一項具有挑戰(zhàn)的任務。為了在與所設計的控制器協調一致的前提下辨識相關系統參數,許多研究人員都已注意到并發(fā)學習結構。Chowdhary等人開發(fā)了一種并發(fā)學習參考模型控制器,他使用當前和已知數據并發(fā)進行自適應來保證在沒有持續(xù)激勵條件情況下的未知線性動態(tài)系統的全局指數穩(wěn)定[22]。他們同時也將并發(fā)學習自適應控制器運用到飛行器上,并因自適應律限制了權重更新提高了其運動表現[23]。另外,可運用并發(fā)學習結構運用來辨識神經網絡的未知參數,然后獲得控制任務的近似最優(yōu)性質,如移動機器人的路徑跟蹤[24]和非線性系統控制[25]。為了在控制過程中重建場景信息,Parikh等人設計了一種并發(fā)學習自適應控制策略完成機器臂的軌道跟蹤任務,其中使用歷史數據的增強的自適應更新律能保證在沒有持續(xù)激勵時完成指數跟蹤和特征深度估計[26]。另外,由于非完整運動約束和運動路徑的有限長度完成在輪式移動機器人視覺伺服過程中辨識深度信息會面臨更多挑戰(zhàn)。本發(fā)明受到[26]和[27]的啟發(fā),開發(fā)了一種自適應視覺伺服方法,完成了對輪式移動機器人同時位姿控制和深度辨識任務。技術實現要素:本發(fā)明的目的是解決現有移動機器人視覺深度信息辨識存在的上述不足,提供一種移動機器人同時視覺伺服與自適應深度辨識方法。本發(fā)明提出了一種新穎的移動機器人同時視覺伺服與自適應深度辨識方法。該方法最大的特點是完成同時視覺伺服和深度辨識。因而解決了現有的移動機器人視覺伺服時辨識深度信息的問題,并且無需外加距離傳感器,不增加系統復雜度和成本。具體而言,首先,由可測量信號定義移動機器人位姿誤差,接著,由包含未知特征深度的極坐標獲得運動學模型。進而,根據并發(fā)學習方法策略,利用記錄數據和當前數據為未知特征深度設計增強的自適應更新律。之后,設計有極坐標表示法的調節(jié)控制器來驅動移動機器人在非完整約束下到達指定位姿。然后,根據Lyapunov方法和LaSalle不變性原理,證明出位姿誤差與深度辨識誤差同時收斂。因此,解決了控制器和辨識模塊作為一個整體的全局穩(wěn)定性問題。仿真與實驗結果均證明本方法有效可靠。本發(fā)明主要做出了以下幾方面貢獻:1.成功辨識視野的深度信息,通過視覺系統得到對外部環(huán)境的良好感知;2.用極坐標表示法的連續(xù)控制器將機器人有效驅動到期望位姿;3.因誤差同時收斂,組合控制器和深度辨識模塊解決系統全局穩(wěn)定問題。在文獻[28]中,Fang等人建造了一種平滑的隨時間變化的控制器調節(jié)機器人到達期望位姿,其中通過自適應更新律補償特征深度信息。同樣通過設計自適應控制器,Zhang等人有效且自然地完成了位姿控制任務。和以上兩種方法相比,本方法證明深度辨識誤差在控制過程中收斂至零。和文獻[34]相比,本方法解決了非完整運動約束下位姿控制任務中的深度辨識問題。本發(fā)明提供的移動機器人同時視覺伺服與自適應深度辨識方法包括:第1,定義系統坐標系第1.1,系統坐標系描述定義車載攝像機的坐標系與移動機器人的坐標系一致;以表示機器人/攝像機期望位姿的直角坐標系,其中的原點在車輪軸線的中心點,也在攝像機的光心位置;z*軸與攝像機鏡頭的光軸重合,同時也和機器人前進方向重合;x*軸和機器人輪軸平行;y*軸垂直于x*z*平面;以表示攝像機/機器人當前位姿坐標系;以e(t)表示期望位置和當前位置之間的距離;θ(t)表示相對于的旋轉角度;α(t)表示機器人當前位姿和從到的旋轉向量之間的角度;φ(t)表示機器人期望位姿和從到的旋轉向量之間的角度;θ(t),α(t),φ(t)的方向均被標出,圖中他們均為正值;另外,視野中有N個靜止的共面特征點Pi(i=1,2...,n);定義是特征平面的單位法向量在中的表示;是從原點到沿n*的特征平面的未知距離;這里我們假設特征平面不經過原點,即d*≠0;因此,本發(fā)明的目的是在所定義的系統坐標系的基礎上,用一種新穎的視覺伺服方法驅動移動機器人以使與重合,并實時進行d*的識別;第1.2,坐標系變換不失一般性,本方法以作為參考坐標系;從到的旋轉矩陣和平移向量分別記為和*Tc(t);考慮到移動機器人的平面運動約束,和*Tc(t)的形式可寫為如下形式:其中*Tcx(t)和*Tcz(t)分別表示的原點在中的x和z坐標;因此,機器人的當前位姿表示為(*Tcz(t),*Tcx(t),θ(t));第2,構造系統模型第2.1,可測量信號對于特征點Pi,在和采集到的圖像分別表示期望圖像和當前圖像;利用單應性矩陣估計和快速分解技術,從當前圖像和期望圖像中得到機器人的相對位姿[36],即*T/d*(t)和n*;然后,得到笛卡爾坐標系下的含比例因子的機器人坐標,其形式為為了便于控制器的設計,將機器人的笛卡爾坐標轉變?yōu)闃O坐標形式;定義e(t)為*Tc(t)的范數,即根據上文的假設d*≠0,定義可測的含比例因子的距離es(t)為:另外,φ(t),α(t)的計算公式分別為:α=φ-θ(4)第2.2,建立機器人運動學方程在這部分,選擇可測量信號es(t),φ(t),α(t)構造執(zhí)行視覺伺服任務的攝像機機器人系統模型;用極坐標下的e(t),φ(t),α(t)表示移動機器人運動學方程為:vr(t)和wr(t)分別表示移動機器人的線速度和角速度;將es(t)的定義(6)帶入(7),得到系統開環(huán)動態(tài)方程如下:另外,表示深度辨識,定義深度辨誤差為es(t),φ(t),α(t)收斂至時0,移動機器人鎮(zhèn)定至期望位姿;當為0時,系統成功辨識出深度信息;第3,構建自適應控制器根據上文中的系統開環(huán)動態(tài)方程,為配有攝像機的移動機器人系統設計控制器和自適應更新律;根據并發(fā)學習方法,為深度辨識設計自適應更新律,其形式如下:其中為更新增益,為正常數,tk∈[0,t]是初始時間和當前時間之間的時間點;投影函數Proj(χ)定義為:其中是正值的下界;從(9)可知即也是深度辨識的下界,應選取的初值大于進一步,可知:為了達到位姿控制目的,設計移動機器人的線速度和角速度為:其中為控制增益;應當指出,由于在自適應更新律的并發(fā)學習項中使用了已記錄的數據(8),應用最優(yōu)平滑濾波器給出的準確估計;因此,顯著提高了參數估計值。另外,控制參數和更新參數ke,kα,kφ,Γ1,Γ2值小,參數ke,kα,kφ主要影響機器人鎮(zhèn)定,參數Γ1,Γ2主要影響深度辨識。因此,本系統參數容易調節(jié),也使本發(fā)明適于實際應用。定理1:控制律(11)(12)和參數更新律(14)將移動機器人鎮(zhèn)定到期望位姿的同時進行深度辨識,即下式成立:至此,完成了移動機器人同時視覺伺服與自適應深度辨識。本發(fā)明的優(yōu)點和有益效果是:本發(fā)明主要做出了以下幾方面貢獻:1.成功辨識視野的深度信息,通過視覺系統得到對外部環(huán)境的良好感知;2.用極坐標表示法的連續(xù)控制器將機器人有效驅動到期望位姿;3.因誤差同時收斂,組合控制器和深度辨識模塊解決系統全局穩(wěn)定問題。附圖說明:圖1為視覺伺服任務的坐標系關系;圖2為仿真結果:移動機器人的運動路徑[加粗三角形為期望位姿];圖3為仿真結果:移動機器人位姿變化[實線:機器人位姿;虛線:期望位姿(零)];圖4為仿真結果:由參數更新律(8)得到的變化[實線:的值;虛線:d*的真實值;圖5表示本發(fā)明實驗結果:移動機器人的運動路徑[加粗三角形為期望位姿];圖6表示實驗結果:移動機器人位姿變化[實線:機器人位姿;虛線:期望位姿(零)];圖7表示實驗結果:移動機器人的速度[虛線:零值];圖8表示實驗結果:特征點的圖像軌跡;圖9表示實驗結果:在控制過程的初始6秒鐘內由視覺測量得到的d*計算值;圖10表示實驗結果:由參數更新律(8)得到的d*變化[實線:d*的值;虛線:圖9中得到的d*(t)的計算得真實值];具體實施方式:實施例1:第1,定義系統坐標系第1.1,系統坐標系描述定義車載攝像機的坐標系與移動機器人的坐標系一致。以表示機器人/攝像機期望位姿的直角坐標系,其中的原點在車輪軸線的中心點,也在攝像機的光心位置。z*軸與攝像機鏡頭的光軸重合,同時也和機器人前進方向重合;x*軸和機器人輪軸平行;y*軸垂直于x*z*平面(移動機器人運動平面)。以表示攝像機/機器人當前位姿坐標系。以e(t)表示期望位置和當前位置之間的距離;θ(t)表示相對于的旋轉角度;α(t)表示機器人當前位姿和從到的旋轉向量之間的角度。φ(t)表示機器人期望位姿和從到的旋轉向量之間的角度。θ(t),α(t),φ(t)的方向均被標出,圖中他們均為正值。另外,視野中有N個靜止的共面特征點Pi(i=1,2...,n);定義是特征平面的單位法向量在中的表示;是從原點到沿n*的特征平面的未知距離;這里我們假設特征平面不經過原點,即d*≠0。因此,本發(fā)明的目的是在所定義的系統坐標系的基礎上,用一種新穎的視覺伺服方法驅動移動機器人以使與重合,并實時進行d*的識別。第1.2,坐標系變換不失一般性,本方法以作為參考坐標系。從到的旋轉矩陣和平移向量分別記為和*Tc(t)??紤]到移動機器人的平面運動約束,和*Tc(t)的形式可寫為如下形式:其中*Tcx(t)和*Tcz(t)分別表示的原點在中的x和z坐標。因此,機器人的當前位姿表示為(*Tcz(t),*Tcx(t),θ(t))。第2,構造系統模型第2.1,可測量信號對于特征點Pi,在和采集到的圖像分別表示期望圖像和當前圖像。利用單應性矩陣估計和快速分解技術,從當前圖像和期望圖像中得到機器人的相對位姿[28],即*Tc/d*(t)和n*。然后,得到笛卡爾坐標系下的含比例因子的機器人坐標,其形式為為了便于控制器的設計,將機器人的笛卡爾坐標轉變?yōu)闃O坐標形式。定義e(t)為*Tc(t)的范數,即根據上文的假設d*≠0,定義可測的含比例因子的距離es(t)為:另外,φ(t),α(t)的計算公式分別為:α=φ-θ(19)第2.2,建立機器人運動學方程在這部分,選擇可測量信號es(t),φ(t),α(t)構造執(zhí)行視覺伺服任務的攝像機機器人系統模型。用極坐標下的e(t),φ(t),α(t)表示移動機器人運動學方程為[29]:vr(t)和wr(t)分別表示移動機器人的線速度和角速度。將es(t)的定義(21)帶入(22),得到系統開環(huán)動態(tài)方程如下:另外,表示深度辨識,定義深度辨誤差為從圖1知,es(t),φ(t),α(t)收斂至時0,移動機器人鎮(zhèn)定至期望位姿。當為0時,系統成功辨識出深度信息。第3,構建自適應控制器根據上文中的系統開環(huán)動態(tài)方程,為配有攝像機的移動機器人系統設計控制器和自適應更新律。根據并發(fā)學習方法[26],為深度辨識設計自適應更新律,其形式如下:其中為更新增益,為正常數,tk∈[0,t]是初始時間和當前時間之間的時間點。投影函數Proj(χ)定義為:其中是正值的下界。從(9)可知即也是深度辨識的下界,應選取的初值大于進一步,可知:為了達到位姿控制目的,設計移動機器人的線速度和角速度為:其中為控制增益。應當指出,由于在自適應更新律的并發(fā)學習項中使用了已記錄的數據(8),應用最優(yōu)平滑濾波器給出的準確估計。因此,顯著提高了參數估計值[26]。另外,控制參數和更新參數ke,kα,kφ,Γ1,Γ2值小,參數ke,kα,kφ主要影響機器人鎮(zhèn)定,參數Γ1,Γ2主要影響深度辨識。因此,本系統參數容易調節(jié),也使本發(fā)明適于實際應用。定理1:控制律(11)(12)和參數更新律(29)將移動機器人鎮(zhèn)定到期望位姿的同時進行深度辨識,即下式成立:第4,定理1證明本發(fā)明在此給出定理1的證明。證明:使用(6)和(7),將自適應更新律(8)寫為另一方面,將(11)和(12)帶入(6)得到閉環(huán)動態(tài)方程:然后,選擇李雅普諾夫方程V(t)如下:將(16)對時間求導并帶入閉環(huán)動態(tài)方程組(15)得:將更新律(14)應用到(17),利用關系(10)得:由于投影函數保證了為正,從(36)看出:因此從(16)和(19)得到:由(7)可以看出然后從(11)(12)和(20)我們有另外由(7)(8)和(15)得到:因此,所有系統狀態(tài)的變化都是有界的。另外,我們定義Φ為所有使的點的集合:定義M為Φ的最大不變集。從(41)可知下列關系式對M中的點成立:因此,可知:然后將(23)和(24)代入(15)的動態(tài)方程(15),得出:d*kekφφ=0(44)因此,根據上文中d*≠0的假設,得出在集合M中φ=0。雖然由于使用投影函數(8)使分段光滑,但他對于初始條件是連續(xù)的。從(7)(8)和(23)看出:因此,得出的正邊界是不變的[30]。因此,最大不變集M僅包含平衡點,其形式如下:根據拉塞爾不變性原理[31],移動機器人位姿和深度辨識誤差漸進收斂至零,即本發(fā)明中,應激發(fā)系統來使(18)中的回歸量滿足為了完成控制任務,機器人的初始位姿不應和期望位姿重合,即es(0)≠0。因此,es(t)在所設計的控制器下減小,尤其是在初始階段時,使控制過程中易于滿足該條件。雖然所設計的控制器和更新律中沒有奇點,根據極坐標性質當es(t)為零時機器人位姿無意義。為了解決這一問題,當es(t)滿足閾值時設置線速度為零,并控制移動機器人做純旋轉運動來控制其方向。第5,仿真與實驗效果描述第5.1,仿真結果在本節(jié)中提供仿真結果來對本方法進行驗證。首先,隨機設置四個共面特征點計算單應性矩陣,攝像機的內參數和隨后實驗所用的一致:機器人的初始位姿設計為:(-2.1m,-0.6m,-28°)(48)期望位姿是(0m,0m,0°)。另外,加入標準差為σ=0.15的圖像噪聲來測試控制器的可靠性和深度辨識抗干擾的能力。設置控制參數為ke,kα,kφ,Γ1,Γ2,N設置為100,這些是在最初的100個采樣時間里記錄的數據。用三次多項式函數擬合es(tk),用這種辦法抑制干擾,并由對三次多項式函數對時間求導得到的準確估計。圖2表示了移動機器人在笛卡爾空間的運動路徑結果,加粗三角表示期望位姿??梢钥闯鰴C器人有效運動到期望位姿并且運動路徑平滑。機器人狀態(tài)(*Tcz(t),*Tcx(t),θ(t))的變化表示在圖3中,并且可知穩(wěn)態(tài)誤差足夠小。另外,深度信息的估計表示在圖4中。可以看出,深度信息很快收斂至真實值并良好地與真實值保持一致。因此,場景的深度信息被成功辨識。第5.2,實驗結果仿真測試后,進一步收集實驗結果證實本專利。實驗使用裝有一個機載攝像機的Pioneer3-DX移動機器人和在視野中的四個共面特征點,他們是兩個正方形的共頂點。所有策略都是在VsiualStudio2005環(huán)境下并在OpenCV實驗室輔助下實施運行的。采樣速率為每秒32次,足以完成視覺伺服任務。機器人的初始位姿隨機設置為(-2.1m,0.6m,-25°),期望位姿為(0m,0m,0°)??刂茀颠x擇為ke=0.4,kα=0.1,kφ=1,Γ1=2,Γ2=4。記錄數據和匹配的方式與仿真實驗部分相同。機器人的路徑結果表示在圖5中;機器人狀態(tài)(*Tcz(t),*Tcx(t),θ(t))的變化表示在圖6中,他是由文獻[32]中的方法計算來的。圖7表示移動機器人的速度,可以看出移動機器人以較小的穩(wěn)態(tài)誤差通過非常高效的路徑到達目標位姿。特征的圖像軌跡結果顯示在圖8中,原點表示所獲特征點初始位置圖像,五角星表示期望圖像中作為參照的特征點。圖像特征逐漸接近期望位姿,表示機器人向期望位姿移動。另外,為了測試深度辨識的準確程度,d*的真實值是由文獻[32]中的方法計算得到的,其用到了期望和當前圖像信息并且要求已知某些特征點之間的距離。圖9表示在控制過程的前6秒鐘d*的計算結果,該時間段內和的距離較大,這樣使計算得的d*較準確。接著,圖9中的計算出的d*的平均值是1.30米。圖10表示了的變化,其中虛線表示d*的平均值。因而,可以看出的深度估計值很快收斂至其真實值d*,并且穩(wěn)態(tài)估計誤差也較小。因此,可以得出深度辨識和視覺伺服任務同時成功完成的結論。需要說明的是,以上所述僅為本發(fā)明優(yōu)選實施例,僅僅是解釋本發(fā)明,并非因此限制本發(fā)明專利范圍。對屬于本發(fā)明技術構思而僅僅顯而易見的改動,同樣在本發(fā)明保護范圍之內。附錄:參考文獻1.A.Sabnis,G.K.Arunkumar,V.DwaracherlaV,andL.Vachhani,“Probabilisticapproachforvisualhomingofamobilerobotinthepresenceofdynamicobstacles,”IEEETrans.Ind.Electron.,vol.63,no.9,pp.5523-5533,Sep.2016.2.J.-S.Hu,J.-J.Wang,andD.M.Ho,“Designofsensingsystemandanticipativebehaviorforhumanfollowingofmobilerobots,”IEEETrans.Ind.Electron.,vol.61,no.4,pp.1916-1927,Apr.2014.FaugerasO.,LuongQ.T.,MaybankS.,Cameraself-calibration:theoryandexperiments,inProc.2ndEuro.Conf.Comput.Vis.,1992:321-334.3.T.N.Shene,K.Sridharan,andN.Sudha,“Real-timeSURF-basedvideostabilizationsystemforanFPGA-drivenmobilerobot,”IEEETrans.Ind.Electron.,vol.63,no.8,pp.5012-5021,Sep.2016.4.X.Zhang,Y.Fang,B.Li,andJ.Wang,“Visualservoingofnonholonomicmobilerobotswithuncalibratedcamera-to-robotparameters,”IEEETrans.Ind.Electron.,onlinepublished,DOI:10.1109/TIE.2016.2598526.5.B.Li,Y.Fang,G.Hu,andX.Zhang,“Model-freeunifiedtrackingandregulationvisualservoingofwheeledmobilerobots,”IEEETrans.ControlSyst.Technol.,vol.24,no.4,pp.1328-1339,Jul.2016.6.G.L.Mariottini,G.Oriolo,andD.Prattichizzo,“Image-basedvisualservoingfornonholonomicmobilerobotsusingepipolargeometry,”IEEETrans.Robot.,vol.23,no.1,pp.87-100,Feb.2007.7.B.Li,Y.Fang,andX.Zhang,“Visualservoregulationofwheeledmobilerobotswithanuncalibratedonboardcamera,”IEEE/ASMETrans.Mechatronics,vol.21,no.5,pp.2330-2342,Oct.2016.8.H.M.Becerra,J.B.Hayet,andC.Saüés,“Asinglevisual-servocontrollerofmobilerobotswithsuper-twistingcontrol,”Robot.Auton.Syst.,vol.62,no.11,pp.1623-1635,Nov.2014.9.G.López-Nicolás,N.R.Gans,S.Bhattacharya,C.Sagüés,J.J.Guerrero,andS.Hutchinson,“Homography-basedcontrolschemeformobilerobotswithnonholonomicandfield-of-viewconstraints,”IEEETrans.Syst.ManCybern.PartB-Cybern.,vol.40,no.4,pp.1115-1127,Aug.2010.10.Y.Fang,X,Liu,andX.Zhang,“Adaptiveactivevisualservoingofnonholonomicmobilerobots,”IEEETrans.Ind.Electron.,vol.59,no.1,pp.486-497,Jan.2012.11.Z.Li,C.Yang,C.-Y.Su,J.Deng,andW.Zhang,“Vision-basedmodelpredictivecontrolforsteeringofanonholonomicmobilerobot,”IEEETrans.ControlSyst.Technol.,vol.24,no.2,pp.553-564,Mar.2016.12.G.Hu,D.Aiken,S.Gupta,andW.E.Dixon,“Lyapunov-basedrangeidentificationforparacatadiopticsystems,”IEEETrans.Autom.Control,vol.53,no.7,pp.1775-1781,Aug.2008.13.A.P.Dani,N.R.Fischer,Z.Kan,andW.E.Dixon,“Globallyexponentiallystableobserverforvision-basedrangeestimation,”Mechatronics,vol.22,no.4,pp.381-389,Jun.2012.14.D.Chwa,A.P.Dani,andW.E.Dixon,“Rangeandmotionestimationofamonocularcamerausingstaticandmovingobjects,”IEEETrans.ControlSyst.Technol.,vol.24,no.4,pp.1174-1183,Jul.2016.15.A.P.Dani,N.R.Fischer,andW.E.Dixon,“Singlecamerastructureandmotion,”IEEETrans.Autom.Control,vol.57,no.1,pp.241-246,Jan.2012.16.X.Liang,H.Wang,Y.-HLiu,W.Chen,G.Hu,andJ.Zhao,“Adaptivetask-spacecooperativetrackingcontrolofnetworkedroboticmanipulatorswithouttask-spacevelocitymeasurements,”IEEETrans.Cybern.,onlinepublished,DOI:10.1109/TCYB.2015.2477606.17.H.Wang,Y.-H,Liu,W.Chen,andZ.Wang,“Anewapproachtodynamiceye-in-handvisualtrackingusingnonlinearobservers,”IEEE/ASMETrans.Mechatronics,vol.16,no.2,pp.387-394,Apr.2011.18.H.Wang,Y.-H.Liu,andWChen,“Uncalibratedvisualtrackingcontrolwithoutvisualvelocity,”IEEETrans.ControlSyst.Technol.,vol.18,no.6,pp.1359-1370,Nov.2010.19.R.Spica,P.R.Giordano,andF.Chaumette,“Activestructurefrommotion:applicationtopoint,sphere,andcylinder,”IEEETrans.Robot.,vol.30,no.6,pp.1499-1513,Dec.2014.20.K.Wang,Y.Liu,andL.Li,“Visualservoingtrajectorytrackingofnonholonomicmobilerobotswithoutdirectpositionmeasurement,”IEEETrans.Robot.,vol.30,no.4,pp.1026-1035,Aug.2014.21.A.D.Luca,G.Oriolo,andP.R.Giordano,“Featuredepthobservationforimage-basedvisualservoing:theoryandexperiments,”Int.J.Robot.Res.,vol.27,no.10,pp.1093-1116,Oct.2008.22.G.Chowdhary,T.Yucelen,M.Mühlegg,andE.N.Johnson,“Concurrentlearningadaptivecontroloflinearsystemswithexponentiallyconvergentbounds,”Int.J.Adapt.ControlSignalProcess.,vol.27,no.4,pp.280-301,Apr.2013.23.G.V.ChowdharyandE.N.Johnson,“Theoryandflight-testvalidationofaconcurrent-learningadaptivecontroller,”J.Guid.ControlDynam.,vol.34,no.2,pp.592-607,Mar.2011.24.P.Walters,R.Kamalapurkar,L.Anderws,andW.E.Dixon,“Onlineapproximateoptimalpath-followingforamobilerobot,”inProc.IEEEConf.Decis.Control,Dec.2014,pp.4536-4541.25.R.Kamalapurkar,P.Walters,andW.E.Dixon,“Model-basedreinforcementlearningforapproximateoptimalregulation,”Automatica,vol.64,pp.94-104,Feb.2016.26.A.Parikh,R.Kamalapurkar,H.-Y.Chen,andW.E.Dixon,“Homographybasedvisualservocontrolwithscenereconstruction,”inProc.IEEEConf.Decis.Control,Osaka,Japan,Dec.2015,pp.6972-6977.27.X.Zhang,Y.Fang,andN.Sun,“Visualservoingofmobilerobotsforposturestabilization:fromtheorytoexperiments,”Int.J.RobustNonlinearControl,vol.25,no.1,pp.1-15,Jan.2015.28.Y.Fang,W.E.Dixon,D.M.Dawson,andP.Chawda,“Homography-basedvisualservoregulationofmobilerobots,”IEEETrans.Syst.ManCybern.PartB-Cybern.,vol.35,no.5,pp.1041-1050,Oct.2005.29.M.Aicardi,G.Casalino,A.Bicchi,andA.Balestrino,“Closedloopsteeringofunicycle-likevehiclesviaLyapunovtechniques,”IEEERobot.Autom.Mag.,vol.2,no.1,pp.27-35,Mar.1995.30.S.ChareyronandP.-B.Wieber,“Lasalle'sinvariancetheoremfornonsmoothlagrangiandynamicalsystems,”inProc.EuromechNonlinearDynamicsConf.,Eindhoven,Netherlands,Aug.2005.31.J.J.SlotineandW.Li,Appliednonlinearcontrol,EnglewoodCliff,NJ:PrenticeHall,Inc.,1991.32.W.MacKunis,N.Gans,K.Kaiser,andW.E.Dixon,“Unifiedtrackingandregulationvisualservocontrolforwheeledmobilerobots,”inProc.IEEEInt.Conf.ControlApplication,2007,pp.88-93.當前第1頁1 2 3 當前第1頁1 2 3