內容提要 隨著自動駕駛技術的發展,自動駕駛汽車不可避免地遭遇行動責任、行動決斷、行動后果三方面的“路上道德”難題。基于人工智能“感知-決策-執行”一體化即時響應,自動駕駛遵循“‘視見’即行動”的行動邏輯。它內含三方面的倫理擴展:①視覺算法從“人工智能行動者”向“人工道德行動者”的擴展;②從“技術能動性”向“道德能動性”的擴展;③從“技術規范性”向“道德規范性”的擴展。三種倫理擴展分別對應于讓自動駕駛行動“見責任”“見決斷”“見后果”。基于“視見”的行動倫理方案,不是一般意義上的“路上道德”,而是走在探問“技術調節如何轉換出‘道德調節’”的路上了。為此,還要形成一個“遠見”:在“警惕人工智能”的同時,做好擁抱自動駕駛汽車廣泛進入人類生活的準備。自動駕駛之“視見”,唯有在這一“存在”的道路上,才能讓“責任”回歸于自動駕駛行動自身。
關鍵詞 自動駕駛 人工智能 “視見” “人工道德行動者”
岳瑨,東南大學哲學與科學系教授
本文為國家社會科學基金重大項目“人工智能倫理風險防范研究”(20ZD040)、江蘇省社會科學基金重點項目“人工智能的倫理風險及防范研究”(20ZXA001)、中央高校基本科研業務費專項資金項目(2242024S10004)的階段性成果。本文的思路和觀點得益于國家社會科學基金重大項目組同仁的啟發,本文寫作受江蘇省道德發展智庫支持。
一、問題的提出:透過自動駕駛之“視見”看行動倫理
汽車自1886年問世以來,歷經了近一個半世紀的發展,如今即將進入“自動駕駛”時代。根據通行的自動駕駛汽車分級標準[1],目前我國有條件自動駕駛汽車(L3)已獲準開展上路通行試點,完全自動駕駛汽車(L5)盡管尚未面世,但未來可期。自動駕駛汽車作為“多元高端技術集置”的交通工具和個人出行產品,既是智能化技術創新的“集結地”和“制高點”,又是引領市場規模方向和全球資本流動的“商家必爭之地”。因此,自動駕駛已經是一個展現于人們日常生活中的全方位交通倫理議題。各國各地區從立法、車輛管理和倫理規制等方面提出了自動駕駛技術準入后的標準化和規范化問題[1]。自動駕駛技術市場化和產業化,對重構人類在交通活動中的行動體系或行為正當性而言是一個關鍵變量。尤其是當自動駕駛汽車成為L3以上特別是L5的完全自主駕駛主體后,我們將面對自動駕駛這樣的“行動者”(agent)帶來的“行動倫理”或“駕駛道德”問題。
假如自動駕駛汽車面對復雜道路交通場景,而人類駕駛員又不得不面對不可預測的人工智能算法黑箱和不可預知的機器學習模型,駕駛員作為行動者(包括完全自動條件下或高度自動條件下的自動駕駛在內的諸駕駛員)如何進行道德決策?如果行動主體從人類擴展到智能行動者是智能時代的表征[2],那么自動駕駛主體就不能只是人類駕駛員,而應是包含智能行動者在內的復合主體。自動駕駛在行動倫理上不可避免地遭遇行動責任、行動決斷、行動后果三方面的困境:①行動責任困境是指由責任鴻溝引發的“行動歸責困境”,涉及自動駕駛事故的責任人是人類駕駛員還是人工智能行動者、誰是“路上”的行動責任主體等問題。②行動決斷困境是指由電車難題引發的“道德決斷的兩難困境”。瓦拉赫(Wendell Wallach)和艾倫(Colin Allen)這樣表述該困境:“無人駕駛系統使機器可能處在瞬間作出生死決斷的位置上,隨著軌道網絡復雜性的增加,類似電車難題的基本的兩難困境出現的可能性增加了。比如說,對于一個失控列車自動系統,應該計算往哪里轉向呢?”[3]③行動后果困境是指由不可預知的道德風險帶來的“結果測算困境”,即“科林格里奇困境”。科林格里奇在《技術的社會控制》一書中形成了對這一困境的經典表述。其內容可作如下概述:一項技術的社會后果不能在技術生命初期被準確預見,但當不希望的后果被發現時,它往往已成為整個經濟和社會結構中難以抽離的一部分;當容易改變時,人們無法預見改變的需求,而當改變的需求變得明顯時,改變變得昂貴、困難和耗時[4]。
毫無疑問,自動駕駛作為“行動”不同于“關上門”“倒杯水”這樣簡單的“行為”。行動者的“視見”或“視而不見”,是行動倫理解題的關鍵所在。“視見”蘊含三個層面的“見”:一是“見責任”;二是“見決斷”;三是“見后果”。無論在協助模式下還是在自主模式下,自動駕駛面對的倫理困境都指向由“計算機視覺算法”所指引的行動倫理的三種“視見”。因此,對于一種圍繞自動駕駛倫理所展開的“路上的道德”,我們要憑借“視覺算法”的道德敏感性思考如下問題:什么是自動駕駛的“視見”?“視覺算法”能否在自動駕駛系統感知功能中做出人類想要得到的正確的道德決策?當其“視而不見”時,“路上”以及圍繞“路上”展開的道德決策又將如何進行?
二、一個行動倫理方案:自動駕駛的“‘視見’即行動”
目前,自動駕駛系統通常包括感知、決策、執行三個層級,分別對應于“環境感知”系統、“定位導航-路線規劃”系統、“運動控制-輔助駕駛”系統三個模塊。當這三個層級的技術協調達到完全自主智能級別時,自動駕駛就從部分駕駛輔助級別(L1)不斷迭代升級到完全自動駕駛級別(L5)。在這三個系統模塊中,環境感知系統是自動駕駛實現的基礎,它構成了自動駕駛的“視見”功能。它通過視覺算法(基于多傳感器數據和高精度地圖信息)精確感知周圍環境。“感知”“定位”系統實時提供車輛在運行環境中的精確位置信息,為車輛的“行駛導航”“路線規劃”提供對自主決策至為關鍵的數據和信息支持。因此,“感知”“定位”系統獲取的“視見”,通過“視覺算法”實際地貫穿于“路線規劃”“運動控制”“輔助駕駛”的決策層級和執行層級。從邏輯上看,自動駕駛的行為決策模塊是在綜合實時道路信息后做出駕駛決定,但是,實際的自動駕駛行動是一個非常復雜精確的工程學模型,很難用單一數學模型建構。它要達成的行動效應,是一種基于人工智能“超強算力”的“感知-決策-執行”一體化即時響應。自動駕駛行動所要求的這種一體化即時響應的難度非常高——它遵循“‘視見’即行動”的行動邏輯[1]。
如果仔細分析自動駕駛的“視見”邏輯,就會進一步發現,這一行動邏輯作為自動駕駛的行動倫理框架,內含三方面的倫理擴展:①視覺算法從“人工智能行動者”向“人工道德行動者”(AMAs)[2]的擴展;②從“技術能動性”向“道德能動性”的擴展;③從“技術規范性后果”向“道德規范性后果”的擴展。這三方面的擴展提供了回答“什么是自動駕駛的‘視見’”及相關問題的一個倫理學方案。
1.讓自動駕駛“見責任”:視覺算法從“人工智能行動者”向“人工道德行動者”擴展
如果說自動駕駛的“視見”是一個融合了“軟件”和“硬件”并對其不斷協調的智能化功能體系[3],那么,作為自動駕駛技術之感知層級的“軟件”——計算機視覺(computer vision)算法,便是“視見”的“靈魂之眼”。如果單單從技術層面看的話,正如前面所說,自動駕駛的“視見”無疑是通過模擬生物視覺(特別是人類視覺)讓計算機代替人類駕駛員完成目標識別、分類并達成針對圖像或視頻信息的場景理解[4]。但是,如果擴展到倫理層面,人們就會發現,自動駕駛的“視見”不是一個單一的孤立的“看”的表象行為,而是圍繞主體或行動者展開的具備人類實踐特性的自主行動。自動駕駛“能否‘視見’”“如何‘視見’”“‘視見’什么”等問題是討論自動駕駛汽車道德決策問題的出發點。問題的關鍵在于,由于這是一個由自動駕駛技術展現于當下的由技術到倫理的擴展問題,“視”的人類含義與“行動者”的技術屬性便發生了緊密的關聯。我們知道,“行動者”通常論及人類行動或個體人的行動。對于在世界之中的作為“這一個”的“人”的“視見”行動,海德格爾曾用“尋視揭示著”這一短語描述。他寫道:“這話意味著:已經領會的‘世界’現在得到了解釋。……這個視的看卻一向有所領會,有所解釋。這個看包含著指引關聯‘為了作什么’的明確性。”[1]因此,“視見”是對世界有所領會、有所解釋的揭示活動和展開活動,它對應著敞亮、展開、揭示而非僅僅是感性知覺。那么,當我們把“視見”這一具有“世界性”“生存性”的行動賦予自動駕駛時,自動駕駛的“視見”便從“道路場景”轉換到了“責任場景”。自動駕駛“能否視見”“如何視見”“視見什么”的問題,是在自動駕駛車輛為“擬主體”或“行動者”的技術條件下如何讓自動駕駛“見責任”的問題。
實際上,讓自動駕駛“見責任”,取決于“計算機視覺算法”能否生成具有自動駕駛功能的“人工道德行動者”。如果可以預設“計算機視覺算法”對“路上道德情景”已經先行有所定義、有所領會、有所解釋,并通過機器學習在諸如“禮讓行人”“學校路段減速”“避讓非機動車”“與前車保持適當車距(如果發現車距過近則必須采取減速甚至緊急制動措施)”等常規駕駛行為可能發生的場景中都可依“責任行為”的定義而行動,那么我們就可以說,自動駕駛在“見責任”的維度上初步生成了“人工道德行動者”。目前自動駕駛汽車主要通過三類道德情景識別構建“路上道德”的自主責任規范。這三類道德情景的識別分別是基于圖像的信息識別、基于高精地圖的定位識別和基于車聯網的V2X識別。我們以“避讓行人”為例,可以簡略勾畫自動駕駛在道德情景識別過程中的“責任流程”:①自主偵測與即時環境感知——通過配備的高精度傳感器持續即時地探測感知周圍世界,捕捉車輛周圍各類實物的位置、速度、運動方向等信息;②目標識別與分類——計算機視覺算法響應道路交通大數據和即時感知到的道路情景信息,對之進行上傳、分析處理,以識別并分類不同目標,在場景中識別行人,并提取行人相關數據;③自主決策與規劃——在識別行人后,自動駕駛汽車基于算法進行決策規劃,涉及對車速、路況、行人位置和移動速度等因素的綜合考慮,系統在此基礎上根據它所領會的安全規則策略選擇最優避讓路線和操作方式;④控制執行——自動駕駛汽車通過控制執行系統執行避讓操作,包括調整車速、轉向或制動等控制執行,以確保安全地避讓行人。
上述責任流程是常規事態下的一個簡化版本,屬于操作性道德層面的“見責任”。盡管如此,它也初步見證了自動駕駛汽車作為“人工道德行動者”是以計算機視覺算法的“視見”為根據的,可以將它簡稱為“自動駕駛AMAs”。如果基于“自主性”和“敏感性”兩個要素對“自動駕駛AMAs”進行分級,那么可以得到“責任流程”的三個層階:第一層階是操作性道德,屬于“初階”的規范層級,在這個級別上的自動駕駛的“視見”基于“低自主性-低道德敏感性”,它的責任核心在于充當“合作駕駛員”;第二層階是功能性道德,屬于“中階”的規范層級,在這個級別上的自動駕駛的“視見”基于“高自主性-低道德敏感性”,它的責任核心在于充當“安全駕駛員”;第三層階是完全智能行動者道德,屬于“高階”的規范層級,這個級別上的自動駕駛的“視見”,基于“高自主性-高道德敏感性”,它的責任核心在于充當“自主駕駛員”[2]。
不難看出,自動駕駛汽車作為“人工道德行動者”的負責任形象,主要是靠“合作駕駛員”和“安全駕駛員”來樹立的。雖然這種合作越來越強化了對周圍世界晦暗不明的事物的祛除,但是車輛周遭潛伏的危險并沒有隨著它的“視見”而消失。其中,最大的危險來自它“視而不見”的非常態情況。而自動駕駛行動者作為“人工道德行動者”從操作性道德向功能性道德的演進,是以常態情況下的路上道德情景為參照的。實際情況表明,目前自動駕駛汽車的道德行動已經邁過了第一層階,處于第二層階的開發測試階段。人工道德行動者在功能性道德建構方面以駕駛過程的“安全責任”為主導,但在非常態情況(例如乘客身體不適)下的協調仍舊依賴人類駕駛員的人工調整。因此,自動駕駛的自主性,距離“通用人工智能”級別的完全自主還很遙遠。從這個意義上看,有能力自主處理特殊倫理情景下責任問題的AMAs“自主駕駛員”還處于一種理想性的規范層階。
2.讓自動駕駛“見決斷”:從技術能動性向道德能動性的擴展
自動駕駛的“視見”主要通過計算機視覺算法和機器學習融合路徑實現。它應當嵌入“道德算法”嗎?它是否可以通過機器學習提高能動性?從能動性兩個維度即“技術能動性”和“道德能動性”的接合轉換看,答案無疑是肯定的。如果說“讓自動駕駛‘見責任’”的常規形態遵循了從“合作駕駛員”到“安全駕駛員”最后到“自主駕駛員”的責任增強流程,那么“讓自動駕駛‘見決斷’”的常規形態則是通過提高“人工道德行動者”的自主性和敏感性來完善其道德決策水準。通常有三種進路:(1)將道德算法嵌入“計算機視覺算法”(包括機器學習算法)的“自上而下”進路。這是解決自動駕駛視覺算法對“路上道德情景”先行有所定義、有所領會、有所解釋的道德能動性問題。(2)通過機器學習和強化學習的“自下而上”進路。生成式人工智能不斷改善“計算機視覺算法”,讓它逐步“瞄準”并“對齊”人類價值觀和人類道德觀念,在駕駛行動或者在與用戶互動時展現越來越高級的道德水平,以完善其決策時的道德敏感性。(3)“混合進路”。通過混合運用(循環反復)前兩種路徑,進一步完善道德算法并增強機器學習的品質,以提高其決策的道德敏感性。
讓自動駕駛“見決斷”的AMAs“混合進路”,是目前解決常態自動駕駛道德能動性的主導進路。它一方面“數字化”了人類通行的成熟道德理論原則,另一方面通過大數據學習完善AMAs的道德體系,因此,它能兼顧道德指令的原則性和大數據案例學習的靈活性。在自動駕駛汽車研發階段,算法專家基于交通法規和道德原則,為自動駕駛視覺算法附設一套包括道德原則在內的基本決策規則,以確立“‘視見’即行動”的法則框架,并由此規范汽車,使汽車在常態下遵守交通規則、避免傷害行人和其他車輛等。而在實際的自動駕駛測試中,自動駕駛汽車可能會遇到復雜但仍屬常態的道德決策問題,如在遭遇“突然出現的行人”或障礙物時如何決策等。應對這種情況,“混合進路”的AMAs采用機器學習優化算法,讓機器通過大數據強化訓練和模擬解決復雜情境中的道德決策問題。上述進路,包括“混合進路”在內,本質上都屬于與駕駛行為直接相關的“一階”的道德算法和機器學習,它們只考慮“常態自動駕駛”下的“視見決斷”,不涉及“非常態自動駕駛”下應對道德困境的道德決斷問題。
在此,我們有必要強調指出,讓自動駕駛“見決斷”,不是要將自動駕駛汽車置于諸如“電車難題”之類的“極端自動駕駛”條件下,讓其破解甚至人類都無法破解的兩難道德困境,而是致力于從道德敏感性構建AMAs在自動駕駛功能上的“兩階道德決策”能力。這里所說的“兩階道德決策”中的“第一階”,是指在“常態自動駕駛”條件下操作性和功能性的行動決斷,它以“駕駛專家”為首要原則(涉及禮讓行人、在特定路段減速行駛、避讓緊急救援車輛等),而非以“道德專家”為首要原則。“第二階”道德決策是指在“非常態自動駕駛”條件下的一種自主行動決斷。比如,車輛必須避讓行人而可能撞向路邊防護欄,進而可能導致車內乘客受傷——當此危情發生,道德算法要綜合測算如何避免車內乘客和路邊行人受傷,同時,在此前提下測算車輛撞擊帶來的財產損失等。從邏輯上看,自動駕駛在“第二階”道德決策上的決斷,是以“駕駛專家+”為首要原則。因為“駕駛專家”以保障自動駕駛的操作性和安全性為主。如果AMAs不能妥善處理涉及人身和財產安全在內的駕駛事項,那么我們大概率不能稱之為具備卓越駕駛能力的系統;但是,僅停留于駕駛專家之“見”,對于此復雜性事項之決斷而言還是遠遠不夠的。“駕駛專家+”原則要求自動駕駛在“第二階”道德決策上匹配“第二階道德算法”和相應的學習,以便自動駕駛AMAs能夠兼容協調更多的“視見”,如“醫學專家”“倫理學家”“法學家”“心理學家”等之“見”。這會使得自動駕駛AMAs的“視見”能擺脫單一“專家隧道困境”,具備不同的多元思維方式,當其面對“非常自動駕駛”事項時,就能夠自主提供創新性的解決方案。道德決策從來都不是一個機械化的過程,隨著路上情境的千變萬化,倫理需要“選擇擴張,結果多樣化”;AMAs需要具備“能夠評估不同選擇和考慮不同的估值觀點的能力”[1]。
3.讓自動駕駛“見后果”:技術規范性向道德規范性的拓展
自動駕駛的“視見”不是茫然無措的“看”,它總是已經有所預設。那么,對自動駕駛“‘視見’什么”這一問題在形式上的回答必定是須有所“行動”之“事”——它指向最優方案的行為決斷。因此,“‘視見’即行動”這一命題,已事先內含了判定“最優方案”的標準問題。有兩種相互抵觸的標準:“義務論模式”和“功利論模式”。“義務論模式”強調規則、職責的重要性,認為即使遵守規則、履行職責可能會帶來某些不利后果,“規則行為”或“職責行動”在某種意義上仍是“最優方案”。然而,“義務論模式”過于僵化刻板。自動駕駛的“視見”顯然不能以純粹“義務論模式”應對復雜多變的道路環境。“功利論模式”適合計算結果,強調結果、效用的重要性,認為在某些特定情景下“結果”可以為“手段”的正當性辯護。也就是說,為了獲得一個值得的“好結果”,就不能把不遵守規則的行為從“最優方案”選項中排除。然而,“功利論模式”又過于靈活,它會以犧牲規則的優先性為代價,不能令人滿意。對于自動駕駛的道德算法來說,“闖紅燈”作為違規行為,即使可能拯救人的生命,也不應獲得道德上的贊同或允許。顯然,上述兩種相互抵觸的“最優方案”在邏輯上使得自動駕駛會遭遇道德算法的多樣性和非中心化。這也就是說,可以存在多種形態或多語義價值確定的道德算法,它們像生物多樣性一樣,在自動駕駛環境下“具身于”特定的背景關系。
讓自動駕駛“見后果”并不只是堅持一種邏輯一貫的“義務論模式”或者“功利論模式”。這里所說的“見后果”,是在人與自動駕駛汽車的關聯中形成的一種作為“復合行動者”的“效用”和“后果”。自動駕駛汽車作為AMAs是否具有意向性?這個詰問是從“通用人工智能是不是一個偽命題”的詰難演化而來的。它的潛臺詞是說,如果自動駕駛AMAs不具有同人類行動者一樣的“意向性”,那么就不能討論自動駕駛汽車作為人工智能產品是否“知善惡”“辨是非”“守規則”“講道德”之類的問題。因為,從傳統意義的規范性維度看,人們通常所說的“在道德上分析一個行動者行動的后果”這件事,必須以人的意向性(基于自由意志)為前提——“見后果”的語義所指向的內涵,是為人的意識所“意向”“意會”的后果,或者是為人的意識所“不意向”“不意會”的后果。說到這里,不難看到,如果說“讓自動駕駛‘見后果’”是自動駕駛行動必須解決的一個規范性問題,那么它必然要以一個倫理學的擴展為前提:由于AMAs駕駛員的加入,自動駕駛主體不再只是人,它也應該包括自動駕駛AMAs,那么,我們在倫理上就應該考慮AMAs如何調節人的意向性行為的問題。維貝克主張把這種“技術調節”歸于“道德調節”。這樣一來,“道德調節”的概念就很好地規避了將道德視為技術人工物固有屬性的問題,也繞開了人工智能行動者的“意向性”難題[1]。
我們借助維貝克的“技術調節”理論視角看問題,不難發現:讓自動駕駛“見后果”的問題是可以著眼于技術規范性向道德規范性的拓展給出某種合理的回應的。當自動駕駛汽車被投入使用時,道德規范性并非來自“人”的自由意志,也非來自技術的“集置”效應和“促逼”功能,道德能動性實際上分散在人與非人(例如自動駕駛汽車)之中。“道德行動者”實際上是由“人與技術的關聯網絡”構成的一種“復合行動者”。從這個意義上看,道德決策與行動的“效用”和“后果”是人與技術關聯的產物和結果。在此維度上,自動駕駛的“‘視見’即行動”命題,具體而微地體現為“倫理即服務”這一人工智能倫理實踐原則的應用。具體說來,這條原則在自動駕駛行動中的應用,體現為“見后果”服務的總原則、“第零級倫理原則”和三個分級別的倫理原則。
(1)“人類駕駛員的隱入機制”。自動駕駛汽車的“技術調節”效用以在駕駛服務中“抽離”人類駕駛員并將其隱入背景關系為目的。“人-車”關系轉變成“產品-用戶”關系,“人類駕駛員”成為隱入“人-車”關系網絡(背景關系)中的抽象的“第三方”,成為不可見的多主體(“概念設計師”“算法專家”“生產廠家”“道路管理系統”“衛星定位導航”“交通警察”“保險公司”等)模型。例如,在概念的自動駕駛汽車中沒有預留用戶用身體感官操縱車輛的機械設備(如方向盤、制動器等),人們在汽車中并不與交通活動產生關系,汽車成為人們活動的環境而不是活動本身。由此,從行動者的總體行動形態而言,自動駕駛“見后果”的行動倫理是要完成一種“路上道德”的形態轉變,它構成“見后果”服務的總原則,即把“道德規范性問題”轉變為用戶提供高水平優質服務的“技術調節”問題。
(2)“生死檔案”。自動駕駛汽車的“技術調節”必須設置“生死檔案”。這是居于最優先地位的倫理,我們稱之為“第零級倫理原則”。它在“價值對齊”上的表述就是“超級愛對齊”。因為,“第零級倫理原則”要求自動駕駛AMAs愛人類的生命超過愛自己,它的具體內容就是具體化“阿西莫夫機器人三定律”,目的就是提供“不傷害”(人類)的優等級的服務。具體說來,就是通過大數據或機器學習建立一個“全域性”“高分享”的“生死檔案”,以供生成式人工智能進行深度機器學習。通過這樣一種“技術調節”,讓自動駕駛汽車學會避免如下“生死攸關”的事態:①避免遭遇“電車難題”;②規避任何傷害人或人類的行動指令的開啟;③不開放進入危險路段的許可;④避免為不法分子或黑客非法使用;⑤避開危險天氣或災難性場域;⑥拒絕遵循任何性質的戰爭指令和不法行為指令;等等。“生死檔案”是一種對自動駕駛汽車“說不”的預備性倫理條款。
(3)“緊急救援通道”。自動駕駛汽車“技術調節”的“第一級倫理原則”,是提供“緊急救援通道”服務。如同高速公路上的“緊急救援通道”一樣,它的功能是在預判交通事故可能發生時或在交通事故發生后提供高效快捷的救援服務。自動駕駛汽車分為“人機合作模式”和“無人駕駛模式”,這兩種模式都需要對路況進行實時智能監控。一旦出現上述兩種駕駛模式無法解決的緊急情況,例如,當道路識別系統過于靈敏或出現故障而將路旁汽車廣告牌識別為“前車”并采取緊急制動時,“緊急救援通道”服務就必須即時打開。“緊急救援通道”一旦開啟,自動駕駛汽車平臺就可以通過快捷操作,必要時通過后臺人工操控,讓困境中的自動駕駛汽車得到救援。
(4)“時鐘設置”。自動駕駛汽車“技術調節”的“第二級倫理原則”是提供“時鐘設置”服務。“時鐘設置”的重點是確保響應的即時性、準確性、有序化和隊列參數的合理化。因此,“時鐘設置”如同人類日常使用的各類“時鐘物體”,它能確保處于聯網系統中的每一輛自動駕駛汽車處于在線狀態。換言之,“時鐘設置”是通過“技術調節”讓自動駕駛汽車模仿人類進入一種“在世界之中存在”的“操心”的狀態。即使一輛自動駕駛汽車處于加油時間、充電時間、保養維修時間、模式升級時間、等待響應時間等,它也處于一種因時鐘調節而“在世”的狀態,除非它被“時鐘”列入報廢清單而不能提供服務。“時鐘設置”提供一種“時間性”的“技術調節”,因此它是“一切‘視見’能夠進入‘服務’”而“一切‘服務’得以成為‘行動’”(例如未來的共享自動駕駛汽車的預約服務系統就是如此)的關鍵性“技術調節”,其倫理重要性是不言而喻的。
(5)“具體服務清單”。自動駕駛汽車“技術調節”的“第三級倫理原則”是提供“具體服務清單”。這是“倫理即服務”的具體內容。它既有屬于駕駛功能專家級別的服務類別,也有一切人工智能行動者的智能設置所共有的服務類別。這些“服務清單”可能包括以下各項:①預約;②隱私保護;③反算法歧視;④可信醫護及心理調節系統;⑤提示工程師;⑥駕駛教練員;⑦高級私人助理;⑧駕乘陪伴者;⑨超級VIP;等等。
三、視見之“遠”:切近“視不可見”的路上道德
“視見”依賴于視覺功能——“看”,即運用“眼睛”的作用和功能,是整合全部智慧行動或智能行動的關鍵。當代德國哲學家海德格爾明確指出:“哲學的傳統一開始就把‘看’定為通達存在者和通達存在的首要的方式。”[1]在這句話中,海德格爾在“通達存在”這一短語下面加上了著重號。通過這樣的表述形式,他似乎要強調:就“視見”僅止于特定“存在者”而言,它屬于某種形式上的“近視”;而就“視見”能達于“存在者存在”而言,它需要某種形式的從整體上看待世界的“遠見”。這里談論的“視見”,當然只是一個具體的讓自動駕駛“見責任”“見決斷”“見后果”的行動倫理問題,但它顯然已經不只是一般意義或日常意義上的“路上道德”的“看見”,而就其“視”日常所“視而不見”或日常所“視不可見”而論,這項研究已經是走在探問“技術調節”如何轉換出“道德調節”的路上了。為此,我們期待進一步的探索能夠開拓出一個面向自動駕駛的“遠見”。
“警惕人工智能”,可能是在發展自動駕駛汽車時需要開拓出的一個霍金式的“遠見”[2]。它來自對通用人工智能(AGI)的懷疑和恐懼,同時也來自對“人工智能宣傳術”的洞察和擔憂。有學者稱之為自動駕駛汽車的“芝諾悖論”:人們一直在被告知自動駕駛汽車即將駛入街區,它引發的期待與日俱增,在有關它的概念和測試的新聞報道中這一天似乎日漸臨近;但人們擔心,這一天似乎永遠不會到來[3]。“芝諾悖論”大概源自兩個擔憂:一是對自動駕駛汽車之“不現實”的擔憂。這個擔憂認為,人們對自動駕駛汽車的普遍期待是由自動駕駛AMAs或通用人工智能的技術預設所支持的,而僅就“超級算力”所需要的電力支持而言,如果不解決電力支持問題,人類進入自動駕駛時代就是不現實的。二是對自動駕駛汽車“被操控”的擔憂。這個擔憂認為,人們對自動駕駛汽車的普遍期待是被由資本和權力控制的“人工智能宣傳術”操縱的。實際上,就技術治理而言,人們真正需要認真對待的是“人工智能宣傳術”背后的“資本操控”或“權力之手”的支配性動機。
不可否認,合理的擔憂是必要的。杰瑞·卡普蘭談道:“自動駕駛卡車的技術今天已經存在,而且已經可以用非常合理的價格改裝到現有的車隊上了。裝備有這種技術的卡車可以‘看到’所有方向,而不僅僅局限于前方的視野,這些車輛可以在完全黑暗或燈火管制的情況下行駛,它們會即時分享路況、附近的危險以及它們自己的意圖。”“更妙的是,它們的反應時間接近于零。”[1]如果注意到卡普蘭描述的這個自動駕駛卡車的場景(雖然是“人-機”合作型的自動駕駛場景)是在十年前,那么,我們對于自動駕駛汽車的“芝諾悖論”便會有更直觀的理解。因為,經過十年時間的快速發展,自動駕駛汽車已經提升到完全自動駕駛級別(L5),但是這個級別的自動駕駛汽車投入運營或使用仍然需要時間。如果把自動駕駛的“視見”從駕駛行動和“路上的道德”轉換到社會行動和“人類的道德”,我們就會發現,更為深層次的挑戰并不來自“技術調節”,而是來自“技術調節”無法協調的諸多社會行動或價值觀。完全自動駕駛是否會出現在我們的生活中?它在向人工道德行動者演變發展的進程中會演變成為“相對于人而言”的“他者”嗎?它會完全取代人類駕駛員嗎?它會改變整個交通和運輸行業的結構形態嗎?它會重構人類社會的交通方式、出行方式、工作方式和生活方式嗎?它產生的“異質性”影響會帶來對于自動駕駛汽車的信任危機嗎?過渡期(同一時間同一路段既有自動駕駛汽車又有人工駕駛汽車)的責任問題會導致不可避免的歸責困境嗎?顯然,技術的變革不能自動地帶來社會的變革。《未來道德》一書的作者大衛·埃德蒙茲直截了當地寫道:“我并不希望無人車證實芝諾悖論,我希望無人車盡快實現其目標(出現在路上)。如果無人車真的投入使用,將會挽救許多生命。”[2]然而,如果人類社會還沒有準備好擁抱自動駕駛汽車,“芝諾悖論”便無法根除。
四、結語
ImageNet的發明者李飛飛從計算機視覺算法專家的角度對“視見”問題的回應,令人深思。在近期TED演講中李飛飛說道,地球上第一只眼睛——“三葉蟲的眼睛”,大約在五億四千萬年前出現,經過漫長演化,大自然才發展出人類的視覺,而今天,機器“看見”的探索還只是剛剛開始[3]。這意味著,我們談論“‘視見’即行動”的自動駕駛的倫理,似乎為時過早,因為機器“看見”,仍然只是人類對自動駕駛汽車的一個關于“路上的道德”的期待。
李飛飛寫道:“人類的感知力雖然有種種局限,但與機器截然相反。我們從整體上看待世界,不僅能識別世界的內容,更可以進一步理解不同事物之間的關系、意義、過去和未來。這就是‘要點’。我們不僅是見證者,更是故事講述者。是時候讓算法也學習一下這種本領了。”[4]長久以來,人們習慣于把人工智能視作純粹的科學技術和工程問題。應該看到,這只是一種囿于“存在者層次”的“視點”,不可避免地帶有技術主義的“淺見”或“近視”。在《我看見的世界:李飛飛自傳》中,李飛飛用了很多不同尋常的詞來談論人工智能及其產品,這些詞包括“現象”“顛覆”“謎題”“特權”“自然之力”等,相關的表述已經切近一種“視不可見”的“存在”層次。這對于思考自動駕駛汽車的倫理尤其重要。自動駕駛之“視見”,唯有在這一“存在”的道路上,才能讓“責任”回歸自動駕駛行動自身。由此,我們才有可能領會李飛飛的話:“現在,一個新詞占據了我的思維。如今,人工智能是一種責任,是我們所有人共同承擔的責任。”[5]
〔責任編輯:洪峰〕
[1]這個標準由國際汽車工程師協會(SAE International)發布。根據該標準自動駕駛分為5個級別。L1為部分駕駛輔助級別,L2為組合駕駛輔助級別。這兩個級別的自動駕駛能實現簡單駕駛行為并處理簡單駕車場景。L3為有條件自動駕駛級別,L4為高度自動駕駛級別,L5是完全自動駕駛級別。參見\"Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles J3016_202104\", SAE International, 2021-04-30, https://www.sae. org/standards/content/j3016_202104/。
[1]2017年,德國率先頒布自動駕駛法并修訂《道路交通法》。同年,美國首部自動駕駛汽車法案在眾議院通過。2018年,我國工業和信息化部、公安部、交通運輸部三個部門聯合發布《智能網聯汽車道路測試管理規范(試行)》,明確了針對智能汽車道路測試的主體、駕駛人、車輛以及流程規范等方面的要求,并對在測試中的交通違法、事故認定等問題做出了相應規定。2021年我國交通運輸部出臺了《交通運輸部關于促進道路交通自動駕駛技術發展和應用的指導意見》《關于科技創新驅動加快建設交通強國的意見》,指出要開發新一代智能交通系統,促進自動駕駛技術的研發。2022年我國工信部印發了《關于開展智能網聯汽車準入和上路通行試點工作的通知》,對于目前的智能汽車允許上路行駛的準入做出規劃。
[2]維貝克在談到拉圖爾的技術能動性觀點時指出:“在拉圖爾的對稱式研究路徑中,人和非人都是行動者,且非人的行動者也能通過促進塑性道德行動而彰顯道德性。”在此基礎上,維貝克提出了“道德物化”概念,他認為抽象的道德規則、道德理念能夠借由人的設計體現在技術物之中。因此,技術物是有道德意義的,不能被簡單地理解為工具性存在。參見彼得·保羅·維貝克:《將技術道德化:理解與設計物的道德》,閆宏秀、楊慶峰譯,上海交通大學出版社2016年版,第65頁。
[3]溫德爾·瓦拉赫、科林·艾倫:《道德機器:如何讓機器人明辨是非》,王小紅等譯,北京大學出版社2017年版,第10頁。
[4]D. Collingridge, The Social Control of Technology, London: Frances Pinter(Publishers)Ltd., 1980, p.11.
[1]以上對自動駕駛技術的三個層級的概述,參見王建、徐國艷、陳競凱等:《自動駕駛技術概論》,清華大學出版社2019年版,第78頁。
[2]科林·艾倫、加里·瓦爾納與杰森·澤辛爾在《未來人工道德主體導論》中使用“人工道德行動者”(artificial moral agents,簡稱AMAs)一詞來界定包括完全自動駕駛汽車(L5)在內的能夠實現完全自動化的智能機器行為者。參見C. Allen, G. Varner, J. Zinser, \"Prolegomena to any Future Artificial Moral Agent\", Journal of Experimental and Theoretical Artificial Intelligence, 2000, 12(3), pp.251-261。
[3]這些“硬件”包括高精密傳感器、高精度地圖、高清衛星、高靈敏度雷達系統等感知層級的各種“硬件”。
[4]常見的計算機視覺算法涉及目標檢測、人臉識別、三維重建、深度學習等,這些模型通過運用復雜的技術完成對二維或三維圖像信息的分類、識別等任務,在自動駕駛、醫學影像、虛擬現實等多個領域都得到了廣泛的應用,日常辦公或學習中的智能識圖、圖像文檔轉換等功能也都離不開計算機視覺算法的參與。
[1]海德格爾:《存在與時間》,陳嘉映、王慶節譯,商務印書館2018年版,第211—212頁。
[2]溫德爾·瓦拉赫、科林·艾倫在《道德機器:如何讓機器人明辨是非》一書中以自動駕駛為例,從機器道德自主性(autonomy)和道德敏感性(sensitivity)的角度出發,提出了操作性道德(operational morality)與功能性道德(functional morality)兩個層次,人工智能道德行動者的發展是一個在坐標軸上由操作性道德到功能性道德再到完全自主體道德的過程。參見溫德爾·瓦拉赫、科林·艾倫:《道德機器:如何讓機器人明辨是非》,王小紅等譯,北京大學出版社2017年版,第19—29頁。本文此處討論的自動駕駛AMAs的“責任流程”三個層級,參考了瓦拉赫和艾倫的觀點。
[1]溫德爾·瓦拉赫、科林·艾倫:《道德機器:如何讓機器人明辨是非》,王小紅等譯,北京大學出版社2017年版,第53頁。
[1]“技術調節”關注行動和知覺,而不是道德認知。它在實踐上積極響應并幫助人類塑造道德行為和決定。因此,技術物的意向性必須以人的意向性為支撐,“是與在人-技術-世界的關系中分布著人與非人的元素一起的‘復合意向性’。不是從人類行動者中‘衍生’出來的意向性,這種意向性在人和非人的關聯中產生”。參見彼得·保羅·維貝克:《將技術道德化:理解與設計物的道德》,閆宏秀、楊慶峰譯,上海交通大學出版社2016年版,第73頁。
[1]海德格爾:《存在與時間》,陳嘉映、王慶節譯,商務印書館2018年版,第208頁。
[2]據說著名科學家霍金的遺言中,就有“警惕人工智能”這么一條。參見《霍金的遺愿清單:離開地球和警惕人工智能》,2018年3月14日,https://www.thepaper.cn/newsDetail_forward_2028339。
[3]大衛·埃德蒙茲:《未來道德:來自新科技的挑戰》,蔣蘭譯,中國科技出版社2023年版,第295頁。
[1]杰瑞·卡普蘭:《人工智能時代:人機共生下財富、工作與思維的大未來》,李盼譯,浙江人民出版社2016年版,第136頁。
[2]大衛·埃德蒙茲:《未來道德:來自新科技的挑戰》,蔣蘭譯,中國科技出版社2023年版,第306頁。
[3]F.-F. Li, \"With Spatial Intelligence, AI Will Understand the Real World\", TED, April 2024, https://www.ted.com/talks/ fei_fei_li_with_spatial_intelligence_ai_will_understand_the_real_world/transcript?trigger=0s.
[4][5]李飛飛:《我看見的世界:李飛飛自傳》,趙燦譯,中信出版社2024年版,第298頁,第392頁。