黃耀鵬

3月18日,優步自動駕駛測試車在亞利桑那州鳳凰城錢德勒市,撞死一名推著自行車的行人。經過近兩個月的事故調查和數據分析,優步認為,車輛傳感器已經在事故前識別出行人,但控制軟件將其視作“軟障礙物”,類似塑料袋、紙張一類不會對行駛構成影響的物品,而非活生生的人??刂栖浖Q定不“立即”采取行動,悲劇就這樣發生。
再遠一點,特斯拉在佛羅里達州和中國的河北省發生的自動駕駛車禍,都因為未能準確辨識障礙物。前者將白色大卡車與天空混淆,后者則將清掃車識別成公路上空的廣告牌。
決策系統停滯不前
這幾起事故的共同點,都是傳感器發現了障礙物(人),但都沒有準確辨識。在硬件冗余的情況下,用于決策的軟件顯得能力不足?,F在的AI就像一個眼明手快的家伙,偏偏腦子不大靈光。引發的后果是致命的。
這和2015年8月的Waymo測試自動駕駛車時表現出來的水平毫無二致。近3年時間原地踏步,結論相當令人沮喪。
在得州奧斯汀,一輛谷歌自動駕駛汽車探測到了路口的綠燈,即將通過十字路口的那一剎那,垂直方向上駛來一輛自行車,這輛自行車的騎手并沒有像普通自行車的騎手那樣放下一只腳來支撐自己,而是站在踏板上通過來回的前進后退來控制平衡。
這一行為對于人類司機來說很容易理解,但是卻難倒了Wavmo自動駕駛系統,系統判定騎手要闖紅燈,就停下來等待自行車通過。當那名騎手開始后退時,Wavmo測試車再次試圖前行,剛沒走幾步,騎手又前進了,剛起步的測試車就停在了路中間。兩分鐘之內,測試車未能成功通過路口,眼睜睜看著綠燈變成紅燈,測試車被困在路中間,成功阻礙了兩個方向上的行車。
闖禍的優步測試車則正相反,為了防止“軟障礙”影響行車,優步“濾除”機制被設定得過于“大條”。
人類能夠輕松辨識、理解的事物,在自動駕駛系統看來,已經“超綱”。AI技術看上去并沒有什么進展。照此下去,全棧自動駕駛(L5級)很難實現。
問題的關鍵顯然在于AI,如何能讓AI獲得不亞于人類的智能,是全人類的課題。
TPU和AutoML
谷歌今年的I/O大會上,CEO皮查伊聲稱的“AI First”得到了一系列產品的支持。他發布了TPU3.0和AutoML將AI推向“自我加速”的境界。
谷歌在2016年發布了初代TPU(專用深度學習加速芯片),此后以每年迭代一次的速度發布新版本處理器,今年則是TPU3.0版。更重要的是,以TPU架構為核心的數據中心已經搭建完成。
當然,有些學者和工程師對強AI的出現懷有強烈的憂患意識,包括剛剛去世的霍金??瓷先?,強AI正在谷歌的推動下接近面世。人類歷史上還從未面對過智商比自己高的“思維體”。阿爾法狗只是TPU的初級應用,在強AI的加持下,L5級自動駕駛第一次有了現實可能性。
設計神經網絡非常耗時,對專業能力要求非常高,只有一小部分科學家和工程師能勝任。而TPU借助AutoML軟件系統,則能自行搭建神經網絡。也就是說,谷歌讓神經網絡去設計神經網絡。
在多次重復后,主控網絡逐漸在已知驗證集合上更準確地生成、訓練、測試新架構。實踐表明,運行在AutoML的TPU設計的神經網絡準確率,不亞于頂尖人類專家設計的網絡,而完成速度遠超后者。
強Al強在哪里?
TPU云的深度學習能力令人吃驚。谷歌聲稱無人駕駛對于行人的判斷錯誤率下降了100倍。同時,仍能保持類似人工駕駛的流暢性和容錯性。
在當前無人駕駛的場景中,行人的識別始終存在問題。由于光線、距離、天氣和遮擋等原因,行人有時在AI“看上去”不像人。行人如果穿著奇裝異服,譬如一身“恐龍裝”,或者打扮得像蝙蝠俠,決策系統也能在任何情況下將其辨識出來。
更難的是對行人和其他交通參與者行為的預測。在十字路口,如果左右兩側本來是紅燈不應該有車出現,結果突然竄出了闖紅燈的車,人類駕駛員可能措手不及,但AI比任何人類都看得遠、看得準,對非法闖入的車和人未來幾秒鐘的軌跡做出了預測,并及時采取停車等避讓措施。
神經網絡的自我進化能力將在大交通網絡下得到驗證,它通過觀察無數交通場景,學習到對人類行為的預判??赡芤灰怪g,AI就已經完全不同。
就像阿爾法狗,李世石在與阿爾法狗下了一天圍棋之后,晚上只能疲憊地睡下。而阿爾法狗則繼續磨練自己的棋藝,它與自己對弈了100萬盤。是的,你沒看錯,100萬盤。第二天太陽升起來的時候,李世石和昨晚的李世石幾乎沒什么不同,但阿爾法狗已經是全新的、棋藝更精進的阿爾法狗。
新一代TPU在圍棋上可以輕松戰勝去年的阿爾法狗,因為其運算速度提升了80倍,更因為它在深度學習上的速度幾乎令人無法理解。只要提供合理且豐富的訓練資料,強AI就能在很短時間內迅速學會一切。深度學習正成為使自動駕駛車輛得以運行的軟件的中堅力量。
深度學習將幫助汽車逐步走向終極的L5級,這是無人駕駛的終極夢想。強AI的到來,也意味著人類作為駕駛者的地位被最終取代。