目前機器人做出的反應是機械的,但應當有一種方式,讓機器人自行了解如何做出反應。
烈日炎炎、酷暑難耐,就在你口干舌燥之時一杯清涼的飲料自動出現在面前,這是一幅多么美好的畫面。而在不久的將來,這將會成為事實。日前,美國康奈爾大學的研究人員宣布他們新研發的機器人可以推斷下一步你想要做什么。
機器人可以攤煎餅
這個代號為PR2的可讀人思想的機器人是由Willow Garage機器人公司負責設計,通過配備微軟Kinect(關鍵點) 3D攝像機分析預測人的動作。
PR2 是一個機器人平臺,其中數字2代表了是第二代機器人,這一機器人研發的數據基礎是人們在家務勞作中的各種動作和決定,機器人正是通過分析人們的這些動作而判斷大家下一步的行動。比如:午飯過后,你希望將剩下的飯菜收好放入冰箱,機器人看到你把食物放進一個飯盒,它便會去把電冰箱門幫你打開,而這正是你本來想做的下一個動作。機器人還可以幫你倒啤酒或者咖啡,收拾碗筷、整理房間等做各種家務小事。
從2010年開始研發的PR2機器人已經擁有了相當的技能。它不但能夠幫你開啤酒、疊毛巾、遞飲料,還能自己開門、自己尋找充電插座。在視頻網站上大家可以看到PR2機器人打臺球的高超技能,多個攝像頭可以把桌上的球進行運算定位,然后出桿,基本上彈無虛發。今年2月27日,在德國不萊梅, PR2機器人在不萊梅大學實驗室中成功了進行攤煎餅的實驗。
PR2被譽為全球第一個能夠完成一系列綜合性操作的智能機器人,其對外銷售價格為每臺40萬美元。
機器人還能聽懂你的話
這一機器人中最核心的技術是微軟的Kinect (關鍵點)3D攝像機,機器人的視覺系統由激光掃描和攝像機等傳感器組合而成。這種攝像機采用3D深度攝像技術,就是可以捕捉到人所在的空間位置,通過芯片合成出3D深度信息的圖像。
隨后,進行人體骨架追蹤。識別到圖像深度信息后,Kinect 3D攝像機可進行人體骨架追蹤。它通過軟件計算出人體主要骨骼的位置,從而捕捉到人的動作。另外,這種攝像機還具有語音識別技術。它可以在3米以外過濾掉背景噪音和其他不相干聲音,準確地識別出操控者的語音。據報道,Kinect系統還根據不同國家不同的口音建立了“聲效模型”,用來識別不同的口語和語言。
研發這種3D攝像技術的科技人員一開始都是游戲玩家,他們的初衷是希望能讓機器“看見”,就是開發一款能通過攝像頭捕捉玩家運動信息的設備,并且將捕捉的信息共享給玩家和機器。而今天康奈爾大學和Willow Garage機器人公司的計劃是將這種“看見”拓展到更深層面,讓機器人能夠看到人們的想法,以方便人們的生活。
Willow Garage公司對PR2機器人的期盼是讓人們從家務中解脫出來,并能夠幫助那些有困難的人獨立生活。
尚未真正學會“讀心術”
康奈爾大學計算機學教授和PR2項目研究聯合帶頭人薩希納介紹到:“我們為機器人描繪出人類行為的各項動作標準。比如喝咖啡是一個比較大的活動,但這一活動分為很多細小的部分(需要把這些都錄入在機器人的數據中)?!?/p>
康奈爾大學的科學家聲稱機器人對人類下一秒的動作預測準確率達82%,對第三秒之后的判斷準確率達71%,10秒之后的準確率則為57%。
薩希納同時表示大學和研究人員下一步的目標是提高對預測做出正確的反應動作。他們希望機器人能準確自主做出下一步行為:“目前我們讓機器人做出的反應是機械的,但應當有一種方式,讓機器人自行了解如何做出反應?!?/p>
目前研究人員正在把這些反饋數據錄入數據庫,但真正讓機器人知道下一步要做什么還有很長一段路要走。
像人腦一樣獨立思考的機器人
現在大概有25家研究機構在利用Willow Garage的開放平臺開發機器人應用。包括美國加州大學伯克利分校、斯坦福大學、麻省理工學院、南加州大學和賓夕法尼亞大學等。
其他國家對“可讀人腦的機器人”、“人腦控制機器人”、“讀心術機器人”的研究也在緊鑼密鼓的進行著。
據英國《每日郵報》報道,日本本田公司設計開發出一種新技術,通過戴在大腦上的控制器識別大腦頭皮電流變化和血液的流動信息,人們可以通過的大腦的意念來控制機器人。據報道,日本的這種新技術,可以實現比如打開汽車車門、關閉家里的暖氣這樣簡單的動作。研究人員的美好愿望是今后人們不再需要親自動手了,你只需坐在舒服的沙發上靜靜地想象整個動作過程,與你的大腦相連接的機器人就能幫你完成。
與此同時,美國加州大學化學教授詹姆士·吉姆茲瓦斯基證實,美國國防高級研究計劃局的研究人員已經研制了一種設備,不僅看起來像人腦,而且可以像人腦一樣獨立思考。該項目使得機器人無需電腦程序,即可像人類一樣開展行動,成為首個無需人類輸入數據即可自主行動的機器人前身。