張恒
對于無人駕駛技術,經常會有企業高管或資深媒體人士拋出一些倫理道德問題。最常提到的就是:假設在極端情況下,向左邊轉會撞向A,轉向右邊則會撞向B,無人駕駛系統該如何選擇?
其實,這個問題是博弈論的一道經典題目,也被用于拷問倫理道德。在中國,傳播最廣的當是:“當老婆和老娘都掉進水里,你先救誰?”
我們應該知道,不光是微觀與個體之間常常是有矛盾的,個體與宏觀世界之間也是很矛盾的。對于事件本身,以個體的眼光則無法得出令人滿意的答案。當以更為廣泛應用的統計學思維來看,“如果不了解小數法則,就不會真正懂得大數法則。”
新一代的AlphaGo(阿爾法狗)和柯潔的人機大戰,已經告訴我們答案,告訴我們當無人駕駛碰到極端情況時,它將作何選擇?
回顧戰況,柯潔在局部纏斗時,A1phaGo經常并不理會,而是把棋子下在另一處,像是圍魏救趙、聲東擊西。這在人與人對戰中并不很常見,但在人機對戰中,機器卻經常出現,A1phaGo不會在一個地方戀戰,似乎隨時都在通觀全局。人類的思維無法擺脫連續性的影響,也就是無法擺脫“路徑依賴”,正如圍棋大師吳清源所說:“現代人局限很多,經常走進死胡同,棋手應該以更加自由而廣闊的視野來注視棋盤。”而AlphaGo并不關注你上一手棋下在哪里,它也不關心你此棋的用意是什么,它只關注當時整個棋局的最優解。人工智能的算法完全放棄了沉沒成本,而人的思維卻做不到。即便你有這個意識和這樣的技能,也不可能在即將發生車禍的場景下做到。
人工智能的行為是遵循全局、宏觀、大數的法則。碰到類似的情況,人類無需告訴它應該怎么做。它通過深度學習的積累,對所有路況和交通事故乃至死亡率等等數據進行統計和分析,在交通事故事發的那一剎那,它已經知道怎樣做了……它會根據當下的情況,去尋求宏觀的、大數法則上的最優解。
這讓我想起了《天龍八部》中蘇星河的珍瓏棋局。雖然任何局部狀況都可能無解,但是從宏觀來看,只有先自損自己的一片棋子,才能置之死地而后生。
最后的結果,就交通事故來看,不排除殘酷的選擇。但就所有無人駕駛的系統來看,它的選擇必然是一個統計學層面代價最小的最優解。
場景內的當事人可能無法原諒機器的選擇。這也就是開篇所說的“個體和宏觀之間常常也是有矛盾的”。