999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于自適應增量PCA算法的移動機器人場景識別

2015-04-25 01:44:58田文奇瞿心昱
機床與液壓 2015年9期
關鍵詞:移動機器人

田文奇,瞿心昱

(浙江交通職業技術學院機電學院,浙江杭州311112)

0 前言

基于計算機視覺的場景識別是實現人機交互的一種新的重要手段。通常的方法是先對攝像頭讀入的圖像或視頻信息進行場景的檢測和定位,然后對檢測到的場景進行跟蹤并分割出較小的感興趣區域,之后在此感興趣區域中分割出準確的場景,最后使用預先通過訓練樣本訓練好的分類器進行分類識別。已經有很多研究人員提出了自己不同的解決方法[1-6],但是其基本框架還是和上述的一致的。這個框架是目前各種視覺識別系統包括場景識別所普遍采用的,主要存在的問題是:分類器的學習需要大量訓練數據,比如同一個場景,在不同光照不同角度,都需要大量樣本進行訓練,然而這些樣本的收集是一件耗時耗力且困難的;分類器的學習是批量的、離線的,如果要添加新的場景,必須增加新的訓練樣本,重新訓練,當類別很多時,重新訓練是非常耗時的,因此可擴展性差;對于事先訓練好的分類器,分類識別往往只停留在已訓練的類別里,對未知新類別會錯誤分類到已有類別中,而不會知道是新類別,即對新情況適應性和魯棒性差;場景特征只能從少量的初始樣本里獲得,這對于場景的準確特征表達往往是不夠的,識別準確率不能得到提高。

為了解決這些問題,國內外各研究人員提出了不同的在線學習框架和學習算法,將樣本的訓練和測試同時進行,實時地、在線地更新訓練結果和分類器。這樣就使得訓練分類器不需要收集大量訓練數據,而是在系統使用的過程中實時在線訓練,不斷在運行中獲得訓練樣本進行實時訓練和學習,隨時更新樣本特征空間,不斷提高識別的準確率,同時也能對未知類別實時檢測和學習。Stephan KIRSTEIN 等[7]模擬了人腦的記憶結構,采用Gabor 濾波和分層結構來進行特征提取,然后采用在線向量量化算法(oVQ)和增量學習向量量化算法(iLVQ)對物體特征實現在線增量學習,在3 個小時內實現了對50 個物體的在線學習和準確識別。A PRONOBIS 等[8]采用修改的支持向量機算法進行移動機器人室內場景的增量學習。Peter M ROTH 等[9]采用增量主成分分析(PCA)對手持未知物體進行在線學習。另外還有些研究人員研究了在線PCA 算法對視覺物體,行為和場景進行在線學習[10-12]。D SKOCAJ 和A LEONARDIS 等[13]則提出了一種用于子空間增量學習的加權和魯棒PCA 算法。

針對場景學習和識別,提出一種基于增量PCA的場景在線學習和識別方法。

1 自適應增量PCA 算法

算法流程如圖1 所示。假設輸入算法有n 個樣本,算法有如下一些變量:當前的子空間,當前樣本均值向量,當前系數向量,新樣本,其重建投影,子空間更新,更新后的平均向量和更新后的系數向量。

在步驟n+1 時,當新樣本輸入,新的子空間可以通過計算主成分分析得到的系數向量,而不是高維重建,因為系數向量和重建圖像包含相同的視覺變化,即在不同的坐標下,他們的本質是一樣的,因此這個方法在計算上非常有效。

圖1 自適應增量PCA 算法流程

在步驟n+1,新樣本投影到當前子空間

重建得

計算誤差向量

和擴展協方差矩陣

建立新的系數矩陣

求得下一步的系數矩陣為

更新的子空間為

上述在線主成分分析的問題是,在每一步增加了一個維度,因此,增加了計算和存儲成本和冗余樣本信息。因此,提出了自適應子空間的概念,來調整子空間上面的在線PCA 算法的更新策略。每一個新的場景圖像可以分為3 種情況:(1)未知樣本,新類;(2)與已學習類相似性較低的場景樣本;(3)與已學習類相似度高的場景樣本。設置兩個閾值來區分3種情況:θclass,類間距離閾值;θdistance,類內距離閾值。更新策略分為3 種方法根據θclass和θdistance。如圖2所示。

圖2 自適應子空間更新策略結構圖

如果‖r‖ >θclass,則通過在線PCA 算法計算新子空間U(n+1),且dim(U(n+1))=dim(U(n))+1,如果‖r‖<θclass,計算新樣本投影和已有所有樣本投影的歐式距離deuclidean 根據大小判斷分成兩個類別分別處理。

2 實驗與討論

實驗設計用來執行提出在線學習和識別的場景。預處理場景圖像作為樣本輸入分類器進行在線學習,每個樣本60 ×45 像素,即2 700 的維數。Visual C ++ 6.0 環境和OpenCV 庫用于本次在線場景識別實驗,硬件環境為AS-R 移動機器人,如圖3 所示。

圖3 AS-R 移動機器人實驗平臺

使用105 個場景樣本進行實驗。初始化分類器用20 個兩類樣本,每類10 個樣本。在線學習階段一個新樣本讀入分類器進行下一步學習。該方法在重建誤差等方面與離線PCA 比較結論如下。在線學習和識別開始于第21 個場景樣本。在線學習過程的樣本重建如圖4 和圖5 所示。

圖4 一個類別的重建過程

圖5 重建誤差趨勢

在圖中可以看到,隨著學習次數的增加,重建誤差減少了,重建結果逐步改進。在離線PCA 中,樣本不能重建,重建誤差不能減少,逐漸重建效果得不到提高。因此,采用文中提出的自適應增量PCA 算法進行場景的在線識別,可以使得移動機器人場景識別在線進行,知識得到不斷更新,遇到新情況不需要重新學習。隨著知識在線積累,識別系統有更好的可擴展性、適應性和魯棒性。

3 結束語

提出了一種基于自適應增量PCA 算法的移動機器人視覺場景識別。該方法可以使用相同的模式訓練和學習階段,從而實現新場景學習與識別。子空間更新策略是選擇自動對應3 種不同的樣本情況來衡量新樣本之間的相似度并學習樣本,這提高了適應能力。最后,進行了實驗測試表明,該方法對實時場景知識更新、添加和積累有很好的適應性和魯棒性。

[1]LIU M-Y,TUZEL O,VEERARAGHAVAN A,et al.Fast Object Localization and Pose Estimation in Heavy Clutter for Robotic Bin Picking[J].Int.J.of Robotics Research,2012,31(8):951-973.

[2]NIEUWENHUISEN M,STUCKLER J,BERNER A,et al.Shapeprimitivebased Object Recognition and Grasping[C].In Proc.7th German Conferenceon Robotics,2012.

[3]PAPAZOV C,HADDADIN S,PARUSEL S,et al.Rigid 3D Geometry Matching for Grasping of Known Objects in Cluttered Scenes[J].Int.J.of Robotics Research,2012,31(4):538-553.

[4]CHOI C,TAGUCHI Y,TUZEL O,et al.Votingbased Pose Estimation for Robotic Assembly Using a 3D Sensor[C].In Proc.IEEE Int.Conf.Robotics and Automation,2012.

[5]LI Y,WU X,CHRYSATHOU Y,et al.Consistently Fitting Primitives by Discovering Global Relations[J].ACM Trans.On Graphics,2011,30:52:1-52:12.

[6]楊全,王民.基于Euclidean 距離的手勢識別[J].微計算機信息,2007(25):265-266.

[7]KIRSTEIN Stephan,WERSING Heiko,KORNER Edgar.A Biologically Motivated Visual Memory Architecture for Online Learning of Objects[J].Neural Networks,2008,21:65-77.

[8]PRONOBIS Andrzej,JENSFELT Patric.Large-scale Semantic Mapping and Reasoning with Heterogeneous Modalities[C]//2012 IEEE International Conference on Robotics and Automation RiverCentre,Saint Paul,Minnesota,USA,2012:3515-3522.

[9]ROTH Peter M,DONOSER Michael,BISCHOF Horst.Online Learning of Unknown hand Held Objects Via Tracking[C]//Int.Conf.on Computer Vision Systems,New York,2006.

[10]OZAWA Seiichi,PANG Shaoning,KASABOV Nikola.A modified Incremental Principal Component Analysis for On-line Learning of Feature Space and Classifier[C]//PRICAI 2004:Trends in Artificial Intelligence.Springer Berlin Heidelberg,2004:231-240.

[11]JIANG Xianhua,MOTAI Yuichi.Learning by Observation of Robotic Tasks Using on-line PCA-based Eigen Behavior[C]//Proceedings 2005 IEEE International Symposium on Computational Intelligence in Robotics and Automation,2005:391-396.

[12]ARTTAC M,JOGAN M,LEONARDIS A.Incremental PCA for On-line Visual Learning and Recognition[C]//In ICPR 2002,3:781-784.

[13]SKOCAJ D,LEONARDIS A.Weighted and Robust Incremental Method for Subspace Learning[C]//In Proc.IEEE Intern.Conf.on Computer Vision,2003,II,1494-1501.

猜你喜歡
移動機器人
移動機器人自主動態避障方法
移動機器人VSLAM和VISLAM技術綜述
基于改進強化學習的移動機器人路徑規劃方法
基于ROS與深度學習的移動機器人目標識別系統
電子測試(2018年15期)2018-09-26 06:01:34
基于Twincat的移動機器人制孔系統
室內環境下移動機器人三維視覺SLAM
簡述輪式移動機器人控制系統中的傳感器
未知環境中移動機器人的環境探索與地圖構建
極坐標系下移動機器人的點鎮定
基于引導角的非完整移動機器人軌跡跟蹤控制
主站蜘蛛池模板: 成·人免费午夜无码视频在线观看 | 色亚洲成人| 丰满人妻中出白浆| 日韩福利视频导航| 国产精品夜夜嗨视频免费视频| 成年人福利视频| 国产免费久久精品44| 在线欧美a| 国产精品太粉嫩高中在线观看| 8090午夜无码专区| 国产成人a在线观看视频| 国产凹凸视频在线观看| 亚洲IV视频免费在线光看| 一区二区在线视频免费观看| 日韩av无码精品专区| 免费又爽又刺激高潮网址| 在线精品自拍| 国产剧情一区二区| 伦精品一区二区三区视频| 最新午夜男女福利片视频| 国产成人久久综合777777麻豆| 久久国产av麻豆| 一区二区日韩国产精久久| 久久精品国产精品一区二区| 五月天丁香婷婷综合久久| 久久精品这里只有国产中文精品| 午夜a级毛片| 亚洲bt欧美bt精品| 中文字幕欧美成人免费| 国产69囗曝护士吞精在线视频| 香蕉视频在线精品| 91小视频在线播放| 欧美成人精品一级在线观看| 欧美日韩激情在线| 国产簧片免费在线播放| 91成人免费观看在线观看| 婷婷亚洲天堂| 色婷婷成人| 欧美日韩资源| 亚洲色图欧美激情| 永久毛片在线播| 欧美a在线视频| 国产在线小视频| 亚洲成人黄色在线| 国产精品亚洲五月天高清| 香蕉综合在线视频91| 色婷婷丁香| 亚洲国产成人超福利久久精品| 国产成人免费| 国产精品一区在线麻豆| 欧美特级AAAAAA视频免费观看| 黑色丝袜高跟国产在线91| 亚洲国产欧美目韩成人综合| 国模私拍一区二区三区| 老色鬼久久亚洲AV综合| 国产精品福利导航| 热九九精品| 婷婷综合在线观看丁香| 91成人试看福利体验区| 国产97视频在线观看| 久久人体视频| 中国黄色一级视频| 狠狠色丁香婷婷| 久久精品国产91久久综合麻豆自制| 伊人福利视频| 永久免费精品视频| 欧美乱妇高清无乱码免费| 日韩视频免费| 狠狠色噜噜狠狠狠狠奇米777| 91精品最新国内在线播放| 国产成人一区二区| 欧美日本在线| 97久久精品人人| 国产va在线观看免费| 最新精品国偷自产在线| P尤物久久99国产综合精品| 超清无码一区二区三区| 99草精品视频| 精品欧美日韩国产日漫一区不卡| 国产一区二区三区在线无码| 视频二区国产精品职场同事| 欧美日韩精品在线播放|