999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度相機的移動機器人自主跟隨技術

2020-03-07 12:48:18任恒樂田大吉
計算機工程與設計 2020年2期
關鍵詞:檢測信息模型

任恒樂,徐 方,邸 霈,田大吉

(1.中國科學院沈陽自動化研究所 機器人學國家重點實驗室,遼寧 沈陽 110016; 2.中國科學院機器人與智能制造創新研究院,遼寧 沈陽 110016; 3.中國科學院大學,北京 100049;4.沈陽新松機器人自動化 股份有限公司 中央研究院,遼寧 沈陽 110168)

0 引 言

由于深度相機既能采集顏色信息,又能采集深度信息,所以其可以作為移動機器人完成自主跟隨任務的感知輸入。自主跟隨的核心技術就是對目標行人的準確檢測與識別,即在判斷出不同圖像幀中的行人是否是同一個人。檢測-跟蹤框架是目前一種主流的方法[1]。其思想是先在每幀圖像中檢測出行人,然后對不同圖像幀中的行人進行數據關聯來確認身份。Munaro等提出的方法通過將無跡卡爾曼濾波和行人的顏色直方圖相結合來關聯不同圖像幀中的行人[2]。Wang等將粒子濾波與社會力模型結合來跟蹤行人[3]。Liu等則將均值偏移融入粒子濾波算法來進行多個行人的跟蹤。文獻[5]利用卡爾曼濾波彌補均值漂移算法沒有利用行人運動信息的缺點來進行行人識別。文獻[6-8]則是利用神經網絡對多個行人進行跟蹤。但以上的算法在行人距離機器人較近時效果都不太理想,無法滿足移動機器人自主跟隨的需求。

本文利用華碩的Xtion PRO LIVE深度相機來獲取RGB圖和深度圖。然后利用提出的行人模型對行人進行檢測與識別。接著依據得到的目標行人及干擾行人的位置來規劃一條跟隨路徑,最后將速度指令發送給全向移動平臺底盤控制器,從而使移動機器人在有行人干擾或距離行人較近的復雜環境下能夠順利完成跟隨任務。

1 全向移動平臺

全向移動平臺沒有非完整性約束,可向任意方向移動[9]。這一優點可使機器人在跟隨時始終朝向目標行人。圖1為本文搭建的全向移動平臺。

圖1 全向移動平臺實物

該平臺采用3個全向輪,輪子軸向兩兩間的夾角均為120度,如圖2所示。δ為全向輪與y軸夾角。vθ為平臺繞幾何中心的轉速,l為全向輪中心到平臺幾何中心的距離。由式(1),式(2)可知v為移動平臺的實際速度,ψ為其與x軸夾角,文中的粗體表示矢量。vx,vy分別為移動平臺沿x軸和y軸的速度分量。根據式(3)可以分別求出3個全向輪的線速度v1,v2,v3

(1)

(2)

(3)

圖2 全向輪移動平臺運動學模型

2 行人檢測與識別

在機器人進行自主跟隨的過程中,當機器人與行人的距離太近時,由于相機視野范圍的限制,其只能獲取行人的局部信息,此時傳統的方法很容易識別丟失。此外,當兩個行人交叉行走出現相互遮擋的情況時,行人的身份也極易出現誤匹配的問題。為了解決上述問題,本文提出了一種行人模型來進行行人檢測與識別。首先對當前圖像幀提取方向梯度直方圖信息來檢測當前幀中可能是行人的位置。然后結合深度圖中的相應深度獲得行人的實際三維坐標。接著利用社會力模型預測上一圖像幀中每個待匹配行人的期望位置。另外,對每個行人分段提取顏色直方圖。將以上信息作為行人模型的輸入,利用這些信息,行人模型將當前幀與上一幀圖像中的行人相匹配來完成行人的檢測與識別。

2.1 社會力模型

(4)

(5)

社會力模型的主要組成部分是來自他人的排斥力

(6)

其中,A表示排斥力的大小,B表示力的范圍,di,j是行人i之間的距離矢量的大小。vi/ti假定行人想要在ti停下來。另外,由于行人視場有限,排斥力可能不是各向同性的。ω是社會力模型的各向異性因子,具體可由式(7)得出,其中,λ是各向異性系數,θi,j是行人j相對于行人i的位置與其運動速度vi方向的夾角

(7)

2.2 分段顏色直方圖

傳統的行人檢測方法只有在獲取人體大部分信息時才能有效的檢測行人。然而,當行人距離機器人較近時,由于攝像頭視野范圍的限制只能采集到行人的部分信息。此時,如果傳統的方法就難以對行人進行檢測,行人的身份更是無法確定。

針對以上問題,本文首先分段記錄每個行人的顏色信息。如圖3所示,將檢測到的行人區域平均分成4份,頂部的亮色部分占總面積的1/4,主要用來記錄人體胸部以上的信息。中間的灰色區域占整體區域面積的1/2,能夠統計人體大腿與胸部之間部分的信息。底部1/4的深色區域則用來統計人體大腿以下的信息。在每段區域中分別對紅色、綠色和藍色3個通道進行信息統計。每個通道按照值從0~255平均分為5個區間,統計每個區間點云所占的比例。

圖3 分段顏色直方圖劃分

當某個行人的位置距離機器人較近時,由于機器人視野的問題只獲取該行人身體的中間區域信息,此時,該行人未能被檢測到。依據2.1部分的社會力模型可以預測該行人在圖像中可能出現的區域。對該區域進行分段顏色直方圖統計,然后將此信息作為行人模型的輸入。

2.3 行人模型

在此,本文提出了一種行人模型來解決機器人在自主跟隨時出現的相互遮擋及視野太小的問題。對于每一幀圖像,我們通過提取方向梯度直方圖來得到檢測子,把這些檢測子作為識別部分的輸入。這些檢測子會出現有假陰性和假陽性的結果,因此本文將檢測出的行人劃分為兩類:候選行人和真實行人。候選行人為待確認的行人,可能是誤檢測造成的。真實行人為實際存在的行人。兩者可通過歷史記錄增減相互轉化。利用社會力模型預測每個人在下一幀中的估計位置,結合顏色直方圖信息,計算出當前幀檢測出的行人與下一幀圖像中檢測子的距離,這里指的是加權距離。最后,依據距離矩陣利用匈牙利算法進行數據關聯,從而進行行人跟蹤識別。

每個行人都有身份編號、歷史記錄、位置、期望位置、速度、分段顏色直方圖屬性。身份編號代表當前行人的身份,歷史記錄包含過去幾幀該行人的位置,期望位置是用社會力模型估算出的該行人在下一幀中的位置。分段顏色直方圖可增強每個行人的區分度。兩種類型行人之間可依據各自的歷史記錄進行相互轉換。具體過程如圖4所示。當前幀的兩種類型行人都需要與下一幀中的檢測子進行匹配,距離越近,匹配度就越高。每成功匹配一次,若該行人的歷史記錄沒有達到預設的歷史記錄上限htop,就將該歷史記錄加1,若超過了真實行人歷史記錄的下線hreal,則該行人為真實行人。如果沒匹配成功,其歷史記錄就減1。若該歷史記錄小于預設的歷史記錄下線hdel,則認為該行人是噪聲引起的誤檢測,刪除該行人。

圖4 行人身份轉化過程

接著將檢測子與行人數據關聯。首先是計算當前幀中的行人與下一幀中的檢測子之間的距離。距離定義如下

d=w·(pped-pdet)

(8)

其中,d是當前幀行人和下一幀檢測子之間的距離,而w是距離的權重。pped和pdet分別是當前幀行人的位置和下一幀檢測子的位置。然后,本文利用基于距離矩陣的匈牙利算法并獲得初步關聯。但如果兩者顏色直方圖差異超過設定的閾值,則關聯無效。此外,當檢測子與候選行人相關聯,并且其與真實行人的距離小于最大距離dmax時,優先將其與真實行人相關聯。如果檢測子不與所有行人相關聯,我們將其添加為候選行人。但是,當真實的行人與檢測子相關聯并且另一個檢測子與該行人之間的距離小于最小距離dmin時,則不能將該檢測子添加為候選行人。這一步可以有效剔除圖中重疊檢測的行人。

3 路徑規劃

借助人工勢場法的思想,假設機器人處在一個人為構造的虛擬引力和斥力勢場中,通過計算移動機器人所受到的合力來確定其運動軌跡[11]。引導者對機器人有吸引力,其大小與機器人和引導者的距離成正比。另外環境中的障礙物及其他行人會對機器人產生排斥力,其大小與機器人和各自間的距離成反比。

為了使機器人能夠更有效地自主跟隨,本文使用2.1部分社會力模型預測的行人的期望位置代替實際位置來計算虛擬力,這樣使機器人能夠更加及時躲避障礙及跟隨行人。令Uatt為引力勢函數,Katt為引力場系數,d為機器人與引導者之間的距離,p為機器人的坐標,pgoal為預測的引導者的期望坐標。引導者對機器人的引力勢函數可用式(9)表示。而此引力場函數的負梯度就是引導者對機器人的引力,如式(10)所示

(9)

(10)

同樣,對于環境中其他的行人或障礙物產生的斥力場也可表示為距離的函數。令Urep為斥力勢函數,Krep為斥力場系數,d為機器人與其他行人或障礙物之間的距離,p為機器人的坐標,pother為預測的其他行人的期望坐標。周圍其他行人的斥力勢函數可用式(11)表示。而此斥力場函數的負梯度就是機器人所受的斥力

(11)

(12)

4 實驗分析

實驗環境為普通的車間廠房,引導者在引導機器人時會有加速、減速、左轉和右轉等運動。在整個過程中會有其他行人在廠房內隨意走動進行干擾。

圖5展示了機器人在有其他行人遮擋時的實驗結果。圖中每個行人上方分別有兩個數字,左邊的數字表示該行人的身份編號,右邊代表存儲的每個行人的歷史記錄。此外,每個行人會被一個不同顏色的長方體包圍。從圖中可以看出,在0號行人走到1號行人身后的過程中,其歷史記錄在不斷減小。這是由0號行人被1號行人遮擋面積過大造成的。此時,只利用方向梯度直方圖法無法直接從圖像中檢測出0號行人。而本文提出的行人模型并沒有刪除0號行人,而是依據社會力模型預測該行人可能運動到的位置,假設該行人運動到這個位置,并將其歷史記錄減1。當從1號行人的身后走出時,由于利用方向梯度直方圖能檢測到該行人并且匹配正確,所以其歷史記錄又會增大。但在整個過程中兩個行人各自的身份編號均未發生變化。這說明了在行人由于交叉行人而短期被遮擋時,本文的方法也能有效識別出行人。

由于攝像頭視野范圍的限制,當行人不斷向機器人走進時,攝像頭能看到的人體區域逐漸減小,只能看到人體中間的一小部分信息。僅依靠這部分信息傳統無法檢測出行人,而本文的方法此時會結合社會力模型及分段顏色直方圖信息。從圖6中可以看出,本文提出的方法在行人距離機器人較近時依然能夠有效檢測出行人。

圖5 行人相互遮擋識別過程

圖6 近距離識別過程

圖6近距離識別過程從圖7中可以看出在跟隨的過程中機器人與引導者的夾角一直小于15度,機器人能夠及時跟隨引導者轉向。而圖8顯示出機器人與引導者的距離雖有波動,但始終保持在1.5 m附近,能夠順利完成跟隨任務。

圖7 機器人與目標的夾角曲線

圖8 機器人與目標的距離曲線

5 結束語

本文以全向移動平臺為硬件環境,基于深度相機提出了一種移動機器人自主跟隨方法。其中,行人模型以方向梯度直方圖的檢測結果為輸入,結合深度信息獲取行人三維坐標,利用社會力模型來預測行人的運動狀態,通過分段顏色直方圖匹配來增加每個行人的區分度。最終利用人工勢場法進行跟隨時的路徑規劃。通過實驗驗證了本文方法的有效性,能夠在機器人與引導者距離較近或者在行人間相互遮擋時準確地識別行人,進而能夠有效地完成跟隨任務。

猜你喜歡
檢測信息模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
主站蜘蛛池模板: 国产一区二区影院| 99热这里只有成人精品国产| 国产精品亚洲一区二区三区z| 国产在线观看精品| a级毛片在线免费观看| 日本一区二区不卡视频| 色135综合网| 亚洲区视频在线观看| 大乳丰满人妻中文字幕日本| 国产情精品嫩草影院88av| 国产成人精品视频一区二区电影 | 美女毛片在线| 秋霞国产在线| 久久久久夜色精品波多野结衣| 国产自在自线午夜精品视频| 国产日韩精品一区在线不卡| 国产精品第三页在线看| 色窝窝免费一区二区三区| 91蜜芽尤物福利在线观看| 日本亚洲成高清一区二区三区| 成人蜜桃网| 97超级碰碰碰碰精品| 午夜三级在线| 无码一区二区三区视频在线播放| 精品亚洲麻豆1区2区3区| 亚洲Av激情网五月天| 91精品啪在线观看国产60岁| 国产真实乱子伦视频播放| 99精品在线看| 色成人亚洲| 国产色婷婷视频在线观看| av手机版在线播放| 茄子视频毛片免费观看| 久久国产拍爱| 国产后式a一视频| 久久国产亚洲欧美日韩精品| 久久99国产乱子伦精品免| 日韩av高清无码一区二区三区| 亚洲av无码人妻| 色天天综合| 亚洲中文无码h在线观看| 日韩一级二级三级| 国产国产人成免费视频77777 | 色综合中文综合网| 性视频久久| 国产女人爽到高潮的免费视频 | 无码在线激情片| 91无码网站| 亚洲成人免费看| 嫩草国产在线| 精品国产香蕉在线播出| 久久精品午夜视频| 国产尤物在线播放| 国产精品香蕉| 成年片色大黄全免费网站久久| 亚洲高清中文字幕| 国产簧片免费在线播放| 97国产精品视频自在拍| 精品無碼一區在線觀看 | 国产美女精品在线| 美女高潮全身流白浆福利区| 亚洲综合中文字幕国产精品欧美| 欧美三级日韩三级| 免费在线不卡视频| 在线免费观看AV| 久草视频福利在线观看| 在线看片中文字幕| 国产综合另类小说色区色噜噜| 国内视频精品| 成人福利在线免费观看| 国内精自线i品一区202| 成人午夜网址| 爆操波多野结衣| 亚洲VA中文字幕| 国产精品成人免费视频99| 精品福利国产| 最新痴汉在线无码AV| 天天色天天综合网| 天天色综网| 成人国产一区二区三区| 国产96在线 | 就去色综合|