0 引言
機器人足球是研究移動機器人和多智能體系統(tǒng)的標準平臺,涉及機器視覺與傳感信息融合技術(shù)、無線通信網(wǎng)絡(luò)技術(shù)、基于知識的行為決策技術(shù)、嵌入式計算機技術(shù)、多Agent協(xié)調(diào)與合作技術(shù)、計算機仿真技術(shù)、機電一體化技術(shù)、人造皮膚與人工生命學(xué)技術(shù)、社會組織學(xué)、對策論等關(guān)鍵技術(shù)[1],世界各國研究機構(gòu)都視其為“小平臺上的技術(shù)戰(zhàn)爭”。在機器人足球比賽中,路徑規(guī)劃是決策系統(tǒng)的核心,主要應(yīng)用于機器人底層策略中,作為足球機器人基本動作實現(xiàn)的基礎(chǔ),他的優(yōu)劣將直接影響動作的實時性和準確性。目前,基于全局視覺的半自主型足球機器人路徑規(guī)劃方法已趨于成熟,C-空間法,人工勢場法,可視圖法,拓撲法和柵格法等都已經(jīng)在仿真和實際操作方面得到了很好的實現(xiàn)[2]。而基于自主視覺的全自主型足球機器人路徑規(guī)劃由于彩色CCD視角的限制、自主視覺的深度信息丟失兩個原因,很難判斷機器人本體和目標在場上的全局位置,無法進行精確的位置規(guī)劃,從而無法進行最優(yōu)路徑選擇。本文根據(jù)基于自主視覺的路徑規(guī)劃的特點,提出了機器人在不確定信息下的二圓定位規(guī)劃方法。實驗證明,這種規(guī)劃方法使機器人的運動控制具有更大的靈活性和魯棒性,使機器人的路徑規(guī)劃滿足快速性,準確性,和攻守兼?zhèn)湫缘囊蟆?/SPAN>
1 利用不確定的位置信息對機器人和目標進行全局定位
機器人進行全局定位的依據(jù)是兩個并存的坐標系:即基于機器人的相對坐標系和基于場地的全局坐標系[3]。相對坐標系用來確定目標相對于機器人的位置,而全局坐標系用來確定機器人或目標在場地內(nèi)的全局位置。機器人全局定位的方法有很多,我們采用了基于內(nèi)部坐標定位和基于視覺定位相結(jié)合的方法。基于內(nèi)部坐標定位就是通過對電機碼值反饋進行運算來確定機器人位置的方法。這種方法的優(yōu)點是數(shù)據(jù)獲取容易,機器人運動初期的定位比較準確;缺點是隨著電機切換次數(shù)的增加,機器人的位姿誤差將產(chǎn)生積累。基于視覺定位是指機器人通過視覺系統(tǒng)獲取圖像,然后根據(jù)場地某些特定標志的相對坐標來確定全局坐標的方法。這種方法的優(yōu)點是當(dāng)特定標志位于屏幕中心區(qū)域時所得數(shù)據(jù)的誤差較小;缺點是由于受到CCD視角的限制,數(shù)據(jù)獲取比較困難,并且當(dāng)特定標志位于屏幕邊緣區(qū)域時,數(shù)據(jù)的誤差較大。因此我們把這兩種方法結(jié)合起來進行優(yōu)勢互補,來減小機器人全局定位的誤差。由于全局定位誤差的存在,機器人可能的實際位置不再是一個點,而是一個以該點為中心的區(qū)域,在該區(qū)域內(nèi)部的每一點都有可能是機器人的實際位置。
根據(jù)光學(xué)的折射原理,處于圖像邊緣的目標由于折射角度較大,從而失真較大,由此產(chǎn)生的信息誤差也越大。所以實際距離與圖像距離(柵點與柵點的距離)表現(xiàn)為非線性關(guān)系。盡管由于自主視覺深度信息的丟失,我們對于二者非線性關(guān)系曲線的擬合,在理論上都無法達到無限逼近的效果。但是我們卻可以通過某種算法,標定出擬合誤差在什么樣的范圍之內(nèi)。
1.1 基于內(nèi)部坐標的全局定位
機器人在第N次電機轉(zhuǎn)換時的全局坐標(X(N),Y(N))與全局誤差半徑R(N)的推導(dǎo)公式如下:在(1)式中V1(N),V2(N),ΔV(N)分別代表第N次電機轉(zhuǎn)換的左輪速,右輪速和輪速差。(2)式為m級多項式,用來對第N次電機轉(zhuǎn)換時的輪速差ΔV(N)和由此產(chǎn)生的姿態(tài)誤差Δθ(N)的關(guān)系進行擬合。在(3)式中Pr為轉(zhuǎn)動慣性系數(shù),與機器人重心到轉(zhuǎn)動中心的距離和機器人本體的質(zhì)量有關(guān)。在(4)式中Eθ(N)代表第N次電機轉(zhuǎn)換時總的姿態(tài)誤差。在(5)式中Pg為前向慣性系數(shù),與機器人本體的質(zhì)量有關(guān)。在(6)式中Ψ(N-1)為機器人位移方向與Y軸正方向的夾角,S(N-1)為位移大小。
通過(1)~(6)式我們可以發(fā)現(xiàn),機器人電機轉(zhuǎn)換的次數(shù)越多,由此產(chǎn)生的誤差積累越大,(5)式表示機器人運動中的誤差增長與起始點和終止點無關(guān),而只與位移的大小和姿態(tài)誤差有關(guān)。
1.2 機器人全局定位的信息融合
我們通過內(nèi)部坐標和視覺兩種定位方法,分別得出了機器人位姿坐標(Xa,Ya,θa)和(Xb,Yb,θb)、機器人的全局誤差半徑Ra和Rb、機器人的姿態(tài)誤差Eθa和Eθb,也同時得出了機器人的可能位置區(qū)域A和B以及角度區(qū)域α和β。取C為A和B的交集,γ為α和β的交集,可得(7)~(12)式。
(7)
(8)
(9)
(10)
(11)
(12)
我們采用如圖1所示的信息融合方法。取機器人位置坐標(X,Y)為C的重心坐標,R為(X,Y)到C的邊緣的最大值;機器人姿態(tài)坐標θ為(θ1+θ2)/2,Eθ為(θ2-θ1)/2,這樣便得到了機器人信息融合后的位姿坐標