譚九生,胡健雄
(湘潭大學 公共管理學院,湖南 湘潭 411105)
自動駕駛是人工智能技術在交通領域的前沿應用。智能算法嵌入駕駛系統,能夠賦予車輛自主性,降低車輛能耗,增強人、車、路、云的交互性。近年來,隨著自動駕駛技術的推廣普及,改善交通安全、提高運輸效率、優化駕乘體驗等社會積極效應不斷釋放。然而,在具體實踐中,剎車失靈、軟件故障以及用戶隱私泄露等現象時有發生,自動駕駛的安全風險不容小覷。習近平總書記指出:“要加強人工智能發展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控。”[1]在我國全面推進交通強國戰略的時代背景下,厘清自動駕駛的多重安全風險樣態,系統地探析安全風險的成因和治理路徑,對于未來構建智慧交通系統、提升技術治理效能都具有極為重要的理論價值和實踐意義。
自動駕駛指的是通過車輛自身對環境進行感知并開展智能決策而在沒有人員干預的情況下由車輛自動完成行駛的駕駛行為。從技術上講,它依靠人工智能、計算機視覺、激光雷達以及高精度地圖的緊密協作,讓機動車輛自己安全地操作行駛。[2]參照國際汽車工程師學會(SAE International)制定的自動駕駛汽車分級標準,本文所稱的“自動駕駛”意指由L3及以上自動駕駛系統所主導和完成的駕駛活動。其中,L3對駕駛員有接管要求;L4不需要人為接管,但駕駛活動必須在運行設計范圍內展開;L5則覆蓋了所有駕駛模式,所有動態駕駛(接管)任務皆由智能系統完成。
自動駕駛比傳統駕駛更安全嗎?一方面,從交通安全層面來看,自動駕駛的數字安全敘事(the safety-in-numbers narrative)認為自動駕駛更為安全。該敘事始于一個簡單的計算:我們知道人類駕駛的安全隱患,自動駕駛旨在消除這種隱患,因此,只要有數據表明這項技術能夠奏效,駕駛的安全性能就會得到提高。歐洲議會的調查數據表明:95%的交通事故是由人為失誤或不當駕駛行為造成的,具體原因包括魯莽、分心、酒駕、疲勞、壓力等。[3]通過將駕駛任務從人類轉移到更可靠的數字控制系統,自動駕駛能夠規避人類生理、心理等方面的限制,消除交通安全事故的人為因素,從而降低事故發生率,挽救無數人的生命。另一方面,在網絡系統安全和隱私保護層面,自動駕駛面臨的安全挑戰更為嚴峻。傳統汽車主要由孤立的硬件系統支撐,而自動駕駛汽車的正常運行則需要與其他設備交換數據,交換對象包括其他汽車、智能手機和終端控制系統等。駕駛員的行為偏好等相關數據也會被車輛內嵌的機器學習算法技術檢索、存儲和分析。在自動駕駛汽車運行過程中,一旦出現技術漏洞或安全防范措施缺位,就容易誘發網絡安全風險和隱私泄露風險。有數據顯示,目前智能網聯汽車遭受的遠程攻擊數量遠遠超過物理攻擊數量,占比達到80%以上[4]。自動駕駛汽車內嵌的智能系統越復雜,聯結的設備和平臺越多,面臨的安全威脅就越大,因為這實際上擴大了網絡攻擊的暴露面,增加了安全威脅入口。綜上,與傳統駕駛相比,自動駕駛雖然在促進交通安全方面具有獨特優勢,但也存在網絡安全風險和隱私泄露等新興風險。
目前,關于自動駕駛的安全風險,學界已經取得了不少研究成果。其一,在安全風險表征上,除交通安全風險外,自動駕駛還容易引發隱私安全風險、信息安全風險、數據安全風險和網絡安全風險,“上述風險之間并沒有清晰的界限,而可能出現遷移和疊加,形成高度復雜的風險樣態”[5]19。其二,在成因剖析上,自動駕駛安全風險的誘因可以歸結為自動駕駛系統的技術缺陷[6],技術設計和部署中的道德困境[7],汽車研發主體的認知能力限度、治理監管制度真空和逐利型企業文化[8]2003-2013。其三,在風險治理上,應將“負責任創新”理念嵌入自動駕駛技術的所有環節[9],秉承以人為本的價值理念而確立“級別適配”的規制路徑[10];要加強數據法治安全保障,探索“分層次的數據治理”[11],并“構建以自動駕駛算法為核心的安全監管框架”[12]31。
雖然有關自動駕駛安全風險的類型化分析逐漸增多,但既有研究多基于“物理-網絡”和“技術-倫理”的維度劃分來闡述安全風險,缺少具有層次感的分析視角,對安全風險樣態的整體性把握有待加強。同時,既有研究對自動駕駛安全風險的成因剖析不夠深入,往往局限于靜態的成因分析,缺少動態的系統性分析,未能厘清風險生成過程中技術因素與社會因素之間的互動關系,在很大程度上限縮了安全風險治理的探索空間,不利于提升安全風險治理效能。有鑒于此,本文首先從個體、社會、國家三個層面對自動駕駛的安全風險樣態進行類型化呈現,然后基于風險生成的一般邏輯,運用“社會-技術系統”分析框架探析自動駕駛安全風險的成因,最后從倫理、技術和制度等方面提出自動駕駛安全風險的治理路徑。
安全風險實質上是人的身心健康受到侵害、社會和國家的有序發展受到威脅的可能性。近年來,自動駕駛技術在賦能交通出行安全的同時,也引致了彌散在個體、社會及國家領域的新興安全風險,相關風險認知對于實現安全、可靠、可控的人工智能發展具有重要意義。
1.交通出行安全風險
交通出行安全是人們日常生活的基本價值訴求。為了降低由人為因素導致的交通安全事故發生率,特斯拉、谷歌的Waymo、通用的Cruise等主要的汽車研發生產企業紛紛推出自動駕駛汽車產品和相關服務。但應認識到,不可能實現絕對的安全。囿于軟硬件的固有缺陷以及與其他道路使用者的相互影響,自動駕駛汽車仍會給人們帶來交通出行安全風險,無法實現零事故。一旦自動駕駛汽車的傳感器、通信裝置、制動器和算法控制系統出現技術漏洞或偏差,就容易導致處于自動駕駛模式中的汽車忽視道路中的行人、障礙物和其他車輛,給人們的交通出行埋下安全隱患。例如,2016年1月,一輛開啟自動駕駛功能的特斯拉汽車在京港澳高速邯鄲段與前車追尾,致車主死亡。2018年3月18日,美國坦佩市一輛“優步”(Uber)自動駕駛汽車與一名白人女性行人相撞,致其死亡,專家認為事故的主要原因是該車的雷達設備將受害者歸類為靜止物體以外的事物。[13]2022年11月24日,在美國舊金山海灣大橋的高速公路上,一輛特斯拉“Model S”變道后,車內搭載的全自動駕駛軟件突然對車輛進行剎車,使車速驟然降至約20英里/小時,導致8輛汽車連環相撞。[14]在以上案例中,個體為自動駕駛的技術缺陷付出了財產和生命的代價,揭示了自動駕駛的交通出行安全隱憂。進言之,當面對不可避免的交通事故時,尤其是面對兩難處境時,自動駕駛算法會面臨“是選擇最小化人員傷亡,還是不惜代價地保護車乘人員”[12]29的難題。自動駕駛技術應當遵循何種倫理原則?是義務論還是功利主義?這就是人們經常討論的自動駕駛“電車困境”,內蘊著交通出行領域中自動駕駛技術特有的倫理安全風險。
2.公民隱私安全風險
作為一種文明象征,隱私指的是人們私密信息不被竊取和公開、自主決策不被外界干擾的自由狀態。在自動駕駛汽車進入公眾視野之前,私家車曾被視為個人空間的一部分。人工駕駛的車輛通常被比喻為“移動的角落”(mobile nooks),坐在車里的乘客和駕駛員可以合理地預期自己不被外界觀察、研究、監視或打擾。從這個意義上說,人工駕駛的車輛能夠保護個人隱私、增強個人自主。然而,一旦為汽車裝上自動駕駛智能系統,則可能會對人們的隱私安全構成威脅,因為自動駕駛汽車的硬件設備和智能系統使汽車具備了看和聽的能力,由此生成大量關于我們如何生活、去哪里、買什么等問題的個人數據。這種數據規模之大超乎人們想象。據芯片巨頭英特爾公司介紹,一輛全自動駕駛汽車每天記錄大約4TB的數據,留下的數據痕跡相當于3 000多個普通人用智能手機處理日常事務而產生的數據規模。[15]在智能系統設計存在漏洞或者監管不力的情況下,無數個體將面臨隱私“裸奔”的尷尬境地,進而觸發隱私安全風險。例如,2022年底,網上有人明碼標價,公開兜售蔚來公司員工和車主的大量數據,包括車主身份證、地址、貸款數據等私密信息[16]。無獨有偶,據路透社報道,在2019—2022年,特斯拉公司員工通過內部信息系統,私下分享汽車攝像頭記錄下來的視頻和圖像,包括高度私密的內容,如一位男子全身赤裸地接近一輛汽車的畫面、人們的私人車庫和個人物品圖片、車禍和“路怒”事件的現場視頻[17]。可見,在自動駕駛汽車面前,個人隱私變得無處遁形,公民隱私安全岌岌可危。
1.技術性失業的風險
充分就業是社會安全穩定的基石。汽車產業作為當代世界大部分國家國民經濟發展的支柱型產業,吸納了大量的社會勞動力,為社會健康有序發展作出了貢獻。自動駕駛汽車的推出和普及“不僅會給傳統汽車行業的商業模式和盈利模式帶來巨大的沖擊,無疑也會使得相關從業人員失業”[18]。可以預見,傳統汽車和專職司機的數量會大幅減少,汽車制造、汽車租賃、汽車金融、汽車零售、加油站等道路運輸支撐行業的從業人員也將面臨失業危機,由此引發社會層面的大規模失業潮。根據美國勞工部的統計數據,美國有88.4萬人從事汽車及其零部件制造,302萬人從事汽車經銷和維修,600萬人是專職司機,這些人的工作在未來十至十五年內將被淘汰很大一部分。[19]人工智能和計算機專家蘇巴什·卡克(Subhash Kak)表示,在一些發達經濟體中,大約三分之一的勞動者在交通運輸行業工作,隨著智能時代的到來,他們的工作很可能被自動駕駛汽車所取代。[20]雖然從理論上講這些潛在的失業群體可以在自動駕駛技術創造的新興行業中再就業,但近年來,隨著工作自動化趨勢從工廠操作工到白領分析型崗位的延伸,普通勞動者的重新就業變得困難重重。由此看來,面對如此大規模的技術性失業,如果缺少相應的職業培訓和再就業扶持等公共服務,則失業群體難以獲得基本的生活保障和穩定的心理預期,容易成為影響社會和諧穩定的不安定因素。
2.社會公共安全風險
作為人民安居樂業的前提條件,社會公共安全主要指社會有條不紊運行、不發生極端事件的應然狀態。自動駕駛汽車的推廣應用可以顯著減少汽車逃逸、飛車追逐和盜車劫車等涉車犯罪,但自動駕駛汽車本身也可能成為威脅公共安全的“炸彈”,引致公共安全風險。與區塊鏈、深度偽造和生成式人工智能等新興技術不同,自動駕駛技術是人工智能在交通運輸場景中的具體應用,其可能產生的社會公共安全風險具有一定的獨特性,即并不局限于虛擬網絡空間這個單一的作用場域,而是延伸到了物理空間,現實生活中的人、車、物都成為自動駕駛汽車潛在風險的影響對象。一是違法人員蓄意破壞外部交通基礎設施,以迷惑或扭曲自動駕駛汽車智能算法。自動駕駛非常依賴完善的交通基礎設施,如交通信號、道路標線、指示標志等。當這些基礎設施被人為破壞或惡意篡改時,自動駕駛汽車的智能系統將會接收到無效的或者存在偏誤的數據信息,并相應地生成不符合交通規則實際要求的行駛指令,誤導汽車行駛,使得整個交通系統面臨紊亂甚至崩潰的風險。邁克菲(McAfee)公司的技術人員做過一項實驗,在“35英里/小時”路標上數字“3”的左邊貼一條黑膠帶,就能騙過特斯拉汽車,使其誤以為限速是85英里/小時而突然加速。[21]二是黑客非法入侵自動駕駛汽車內嵌的智能算法系統,遠程控制和操縱車輛,使其成為恐怖襲擊的工具。通過操縱自動駕駛算法系統,不法分子可以實現各種犯罪目的,例如遠程控制車輛行駛方向而使其墜毀,或者引導車輛駛至偏僻之地以恐嚇或綁架司乘人員。一輛自動駕駛汽車或者一個裝滿炸藥的自動駕駛車隊,可能被極端主義分子利用,他們通過編程的方式控制車輛高速駛入人員密集的公共場所,讓汽車肆意沖撞人群,或者直接引爆汽車,會嚴重威脅人民群眾的生命財產安全,對社會公共秩序造成毀滅性影響。
1.跨境數據安全風險
自動駕駛企業的跨境數據流動事關國家數據主權,是影響國家安全穩定的重要因素。由于自動駕駛技術的前沿性和復雜性,單一企業主體僅憑自身有限的研發實力和生產力,難以在激烈的自動駕駛產業競爭中脫穎而出。與跨國公司共同興辦合資企業來實現優勢互補,目前已成為大部分自動駕駛汽車企業的現實選擇,例如:2020年3月,韓國現代汽車集團與美國無人駕駛技術研發企業安波福(Aptiv)設立合資公司“Motional”,旨在推動全球性能最優、安全性最高的自動駕駛汽車的開發和商業化進程;2022年底,德國大眾集團旗下的自動駕駛公司“CARIAD”宣布與中國自動駕駛芯片企業地平線公司設立合資企業,致力于在一個芯片中整合眾多自動駕駛功能。跨國合資就不可避免地涉及數據跨境流動問題。眾所周知,為了提高汽車安全性能,自動駕駛汽車需要基于海量數據進行學習和優化,不斷訓練和改進軟件算法。當國內收集的數據信息被傳送到國外的自動駕駛技術研發合作企業,便存在數據泄露和不當運用的風險。美國發生的“棱鏡門”事件警示我們,境外自動駕駛企業可能迫于政治壓力,為本國國家安全部門提供跨境數據庫的訪問權限,使后者能輕松監控其他國家公民的行蹤、聊天對話和業務往來等私密活動,從中窺探其他國家的國防軍事信息和戰略規劃數據,嚴重威脅他國的國家安全和社會穩定。此外,部分自動駕駛企業為了自身發展,會積極尋求在海外掛牌上市,而一旦上市成功,企業就必須遵守上市所在地的市場規則和行政規定,公開披露相關數據信息,稍有不慎就可能危害本國的國家安全。例如,在我國境內開放自動駕駛服務的“滴滴出行”赴美上市后,國家網信辦等部門對其進行了網絡安全審查,認為其存在非法傳輸國內重要數據的安全風險,甚至可能被迫交出關乎國家主權的部分數據,對我國的國家安全和公共利益構成威脅。
2.國家機密泄露風險
自動駕駛特有的360度無死角感知探測、高清視頻圖像采集、快速數據傳輸等便捷功能在個體和社會層面可賦能智慧出行、智能交通管理,但同時也容易引發國家機密泄露風險。一般而言,國家機密意指關系到國民經濟命脈、重大民生、軍事布局、國防科技等重要方面的國家核心數據。自動駕駛汽車通常會配備高分辨率攝像頭,攝像頭雖然是為了實現安全行駛,但也能通過收集、存儲和傳輸周圍環境視頻的方式充當監視攝像頭。一旦與遠超人類的感知識別能力相結合,汽車就可能成為“機器人間諜”。自動駕駛汽車行駛中除了收集公民個人數據信息,還“會采集包括軍事管理區、港口等敏感區域信息,構成對國家安全的威脅”[22]80。有鑒于此,在對特斯拉公司生產的電動汽車進行安全審查后,我國明確禁止特斯拉汽車出入政府機構、軍工部門等涉密場所,并限制軍事人員、國家公務員和主要國企員工使用特斯拉汽車。[23]例如,湖南岳陽三荷機場停車場禁止特斯拉汽車入內,引起社會廣泛關注,據機場工作人員解釋,“特斯拉有哨兵模式,存在泄密的風險”。此外,需要警惕的是,普通數據也有可能包含情報信息,僅需通過加工處理,使其以一種有意義的方式呈現出來,一些普通數據就會成為情報信息。因此,在缺乏嚴格的數據安全措施的情況下,一些別有用心的人就可能盜取自動駕駛汽車所持續收集的交通運輸行業領域重要數據,繼而從中提取有價值的國家機密信息,并將其傳送到國外,導致國家機密泄露。
對自動駕駛安全風險的成因進行剖析,既要契合風險生成的一般邏輯,也應考慮自動駕駛技術應用的系統性和獨特性。我們將自動駕駛技術研發和應用視為“社會-技術系統”,社會因素與技術因素在自動駕駛實踐中集聚并產生互動耦合,由此引發安全風險事件。以社會放大機制為中介,安全風險事件被社會公眾所感知,經過利益權衡后,超過社會公眾容忍限度的安全風險得以顯現。概言之,自動駕駛的安全風險遵循“因素集聚—互動耦合—社會放大—風險顯現”的生成路徑(如圖1所示)。

圖1 自動駕駛安全風險的成因
自動駕駛治理必須將自動駕駛技術視為一種社會技術現象(sociotechnical phenomenon)。這一視角的核心前提是,作為一種實用的人工物(artifact),智能技術與外部的社會文化和制度環境緊密相關,其發展迭代由人類價值觀、社會制度等因素之間的動態互動所支撐和塑造。智能技術在復雜的人類、社會和組織系統中得以開發和部署,因此,與該技術相關的風險完全是社會技術性的。自動駕駛作為人工智能技術的重要應用范例,其安全風險因素也可從社會技術方面分析。
其一,自動駕駛安全風險的技術因素包括設備硬件和算法軟件兩方面。從設備硬件方面看,以雷達、攝像頭、激光雷達和超聲波傳感器等環境感知技術設備群為依托,自動駕駛汽車能感知和理解周圍環境,這是實現汽車智能的基本前提。但應認識到,沒有任何一種傳感器能保證在任何情況下都提供完全可靠的信息。傳感器以機械方式從車內和汽車周圍環境中采集數據信息,這一過程容易受極端天氣、惡劣道路條件等不可控因素影響,加之硬件設備本身存在脆弱性和不穩定性,最終可能導致設備故障或失靈。一旦無法收集數據或最終采集的信息有所偏頗,則自動駕駛汽車容易出現功能紊亂,作出危險駕駛決策,威脅道路交通安全。從算法軟件方面看,自動駕駛智能算法系統能取代人類駕駛員完成定位、感應、規劃路線、作出并執行駕駛決定等主要駕駛任務。然而,算法黑箱的存在使得車輛運行數據容易被吞噬,導致數據保全出現紕漏,因而阻滯算法的深度學習進程。車輛運行中的某些關鍵數據(如事故中的剎車踏板位移數據、發動機助力數據)無法獲取,導致難以通過數據訓練和模型迭代優化等過程提升算法安全性能。同時,自動駕駛的算法系統設計可能存在缺陷,數據安全措施缺位,容易導致公民個人信息數據泄露,用于行人、車輛、障礙物、交通信號標志等方面檢測識別及其他圖像處理任務的深度學習算法為黑客攻擊提供了渠道。
其二,自動駕駛安全風險的社會因素主要包括經濟利益、倫理價值、社會矛盾/問題、社會制度結構和行為主體等方面。首先,經濟利益和倫理價值是安全風險成因的一對基本要素。自動駕駛汽車研發生產企業趨向于以自動駕駛技術為中介重塑人們的行為方式、生活習慣以及城市的空間布局,從而實現收益最大化和成本最小化。企業天然的逐利性容易侵蝕社會倫理價值,這具體表現為體驗性產品投入擠占安全投入,社會秩序穩定讓位于經濟效益最大化。以安全穩定為核心的社會倫理價值能否成功嵌入自動駕駛汽車產品的研發設計,直接關系到能否有效筑牢自動駕駛的安全底線。其次,階層分化、數字鴻溝等社會問題可能成為自動駕駛社會安全風險的催化劑。伴隨著自動駕駛的推廣應用而來的技術性失業風險容易加劇階層分化,擴大數字鴻溝,給社會的安全穩定埋下隱患。面對自動駕駛技術所引發的社會變革,由法律法規、行政規制和倫理規約組成的社會制度結構能否有效應對,也是自動駕駛安全風險生成的關鍵變量。最后,部分自動化駕駛活動的相關行為主體(如司機、乘客等)的技術認知和不當行為以及公眾的安全風險感知構成了安全風險的引爆點。行為主體對自動駕駛技術的盲目信任容易引發完全托管和延遲接管駕駛任務等現象,造成“駕駛危險臨近卻無法及時化解”的人機交互困境,難以確保行駛安全。黑客和不法分子的技術惡用、技術濫用是自動駕駛安全事件爆發的導火索。若是境外人員盜取了國家核心數據,則會進一步威脅國家安全。社會公眾對自動駕駛安全事件的風險感知構成了風險生成的主觀面向。安全風險事件造成的價值減損一旦超出公眾的容忍限度,就會生成嚴重的風險后果,使得風險意識和不安情緒在全社會蔓延。
社會風險在人類實踐活動的發展和變遷中生成。自動駕駛實踐活動是安全風險的生成場域,所有潛在的安全風險因素在自動駕駛汽車的生產研發、推廣應用和監管治理等具體實踐中集聚并產生聯系。由于自動駕駛的各項技術要素之間的強依賴性,單一要素無法與社會系統中的各要素發生實質性相互作用,因此,我們不再細分技術系統的構成要素,而是將自動駕駛的技術系統視為一個整體分析單位,重點探究自動駕駛的技術系統與社會系統各要素之間的互動耦合。
1.自動駕駛技術打破倫理價值平衡,安全價值難以嵌入自動駕駛技術
技術人工物(technical artifact)并非“價值中立”,而是具有很強的政治、倫理意蘊的。作為一種技術人工物,自動駕駛汽車之所以備受推崇,是因為它在一定程度上能夠促進安全、效率、公平等社會價值,這些價值之間的動態平衡是實現自動駕駛技術可持續發展的關鍵。然而,自動駕駛技術也有可能暗中貶低或消解某些特定的價值觀,以致打破價值平衡。例如,為了改善乘客體驗,自動駕駛研發企業不惜降低或者限制技術系統的安全性能。在新的“乘客體驗指標”發布之際,“優步”曾將自動駕駛系統設計成“在即將發生碰撞的情況下無法啟動緊急制動,從而減少突然制動的頻率”,目的在于減少乘客每次乘坐汽車的“糟糕體驗”。[8]2009又如,有研究表明,自動駕駛技術存在種族偏見,使得自動駕駛汽車更可能撞向黑人[24],這會加劇社會分裂,破壞社會團結。應當將倫理價值嵌入自動駕駛軟件,但問題在于,安全價值與算法規則之間存在齟齬,前者難以嵌入自動駕駛算法軟件。自動駕駛汽車編程的算法架構始于“if-then-else”規則,這些規則定義了特定條件下應當采取的駕駛行為。但駕駛活動復雜多變,不適合采取算法“預測和提供”(predict-and-provide)的規則架構。當駕駛途中遭遇突發情況時,人類司機主要依靠經驗和常識予以應對。不幸的是,沒有人知道如何將常識推理和實踐理性植入汽車智能算法當中。機器學習只能處理已經明確編碼到自動駕駛系統軟件中的邊緣案例(edge cases),在高度復雜且不確定的現實世界,汽車智能算法無法用一套軟件編碼將所有可能發生的突發情況囊括在內。因此,安全價值無法以軟件代碼的形式嵌入自動駕駛系統。當遇到自動駕駛算法工程師未曾預料到的邊緣情況時,自動駕駛汽車可能作出錯誤決策,威脅交通出行安全。
2.自動駕駛技術沖擊挑戰社會結構,規制制度無法回應自動駕駛技術
社會結構既是人類行動的結果,又作為橋梁和中介而反作用于人類行為。[25]隨著自動駕駛的大規模商業化應用逐漸成為現實,原有的產業布局將不可避免地受到沖擊,產業升級、就業市場轉型接踵而至,為結構性失業浪潮埋下伏筆,“現在的經濟不再需要大量的勞動力,它已經學會了在減少勞動力及成本的同時增加利潤和產出”[26]。轉型后的社會結構能否成功吸納失業者,直接關系到整個社會的和諧穩定能否實現。一旦廣大失業群體的生存和發展訴求在社會體制內得不到基本滿足,且由此產生的憤怒情緒得不到妥善安置,那么,憤怒的情緒就容易催生極端行為,即失業群體出于對社會體制的不滿,可能滋生報復社會的極端心態。他們可能以自動駕駛汽車為工具或對象,實施破壞交通系統、網絡黑客攻擊等違法犯罪行為,嚴重危害社會公共安全。與此同時,作為社會結構的重要組成部分,已有的規制制度體系無法回應自動駕駛技術帶來的沖擊和挑戰。一方面,自動駕駛監管通常面臨“制度真空”困境。例如,目前我國尚未構建以數據分級分類安全規范、數據共享和(跨境)流通規范為核心的自動駕駛數據基礎制度體系,對自動駕駛汽車跨境數據安全和國家機密泄露風險的治理往往只能援引其他法律規定,如《網絡安全法》和《數據安全法》關于跨境數據安全的規定,《軍事設施保護法》和《測繪法》關于國家軍事機密的規定[22]81。但這些法律并未對自動駕駛汽車數據中“重要數據”和國家秘密相關數據的范疇進行明確界定,這就給自動駕駛數據規制留下了模糊地帶。這種制度漏洞為自動駕駛跨境數據安全事件和國家機密泄露行為提供了空間。另一方面,“前智能化時代”的行政規制體系與自動駕駛安全風險的防范需求之間存在張力。例如:“以部門為中心的分隔式組織形式不敷應用”[5]22,無法有效防范高度復雜的自動駕駛安全風險;面對日新月異、充滿不確定性的自動駕駛技術,規制主體對技術標準的認知把握有限,“技術標準規制模式遭受挑戰”[5]24。概言之,規制制度的缺位和僵化為自動駕駛安全風險的生成提供了溫床。
3.自動駕駛技術規訓監視行為主體,行為主體盲目服從或惡意利用自動駕駛技術
規訓是一種權力,它通過一系列技術和手段作用于人體,使人體在變得更有用的同時(從功利的經濟角度看),也變得更順從(從服從的政治角度看)。[27]一種典型的規訓機制是“全景敞視”。車內外人員的任何言談舉止和外部環境情況都無法逃脫自動駕駛汽車激光雷達、攝像頭等感知設備的監視,人類司機和乘客的身體不再是自然意義上的身體,而是被權力操縱的身體,以技術研發工程師預先設定好的方式開展交通出行。監視和權力的結合會給國家機密和個人隱私帶來極大的安全威脅。同時,自動駕駛汽車收集的多源“聚合數據”(aggregated data)被用來建構生物政治意義上的用戶畫像,借助智能技術對用戶進行社會排序,能夠生成關于用戶的“統計真理”(statistical truth),據此將用戶變成馴順的數據實體,以用戶數據的附加價值助力經濟效益提升。[28]在人機共駕模式下,馴順的用戶容易沉浸于汽車智能系統為其量身打造的個性化駕乘體驗,以至于過度信任自動駕駛系統的安全性能,盲目服從自動駕駛指令。很多人在第一次使用自動駕駛功能時還會全神貫注,但隨著美好體驗次數的不斷增多,他們會變得越來越放松,直到發生不幸。諸多自動駕駛事故都是由人類司機接管不及時引致的,他們在車內從事非駕駛活動,如讀文章、看電影、玩手機等,嚴重分散駕駛注意力,以致危險臨近時渾然不知。此外,自動駕駛技術為行為主體采取危害社會公共安全的行為提供了可能。行為主體可以利用自動駕駛汽車的技術漏洞,對汽車進行黑客攻擊。自動駕駛汽車的軟件漏洞和硬件漏洞可能是廣泛存在的,這意味著網絡攻擊會被放大,例如,黑客可能侵入并控制搭載著同一自動駕駛系統的所有智能汽車[12]28,并以智能汽車為工具,開展大規模違法犯罪活動。
風險的社會放大理論認為,除非被人類觀察到并將其傳播給其他人,否則風險事件的影響力將會不斷降低,甚至變得無關緊要。風險、風險事件以及兩者的特點通過各種各樣的風險信號刻畫出來,經過個人、社會團體、公共機構、新聞媒體等“放大站”的再解讀,風險信號中部分信息分量顯著增大,并逐漸在社會公眾中廣泛傳播。[29]
自動駕駛安全風險的社會放大機制包括以下幾個方面:其一,媒體報道。如2018年3月,媒體對特斯拉和優步的兩起自動駕駛車禍進行了廣泛報道,此后不久,人們關于自動駕駛技術的負面推文增加了32個百分點(從14%增加到46%)[30],公眾對自動駕駛汽車安全隱患的擔憂可見一斑。其二,抗議維權。就“機器替換人”這一社會問題,美國出租車司機、公交車司機等群體曾充滿敵意地辱罵自動駕駛出租車經理,摧毀自動駕駛車輛,并有組織地在加州山景城的Waymo總部外面請愿和抗議。[31]該事件不僅增強了公眾對自動駕駛可能引發的技術性失業風險的感知,還會影響當地的市場經營秩序和社會穩定,加大社會治安成本,導致社會公共安全風險與失業風險產生疊加效應。其三,風險治理。企業對自動駕駛安全風險的治理活動在一定程度上會凸顯不同的風險信號源,例如:針對上海車展曝出的剎車失靈維權事件,特斯拉公司采取的治理舉措是公布維權車主事故發生前30分鐘的行車數據,該措施后來遭到維權車主丈夫的強烈反對,反對的理由是公布數據的行為侵犯了隱私權。[32]在媒體的跟蹤報道下,公眾的注意力從交通出行安全風險轉移到數據安全問題上,自動駕駛可能存在的隱私安全風險和數據濫用風險得以放大,并與交通出行安全風險交織疊加。
在社會放大機制的作用下,自動駕駛安全風險事件的信息分量顯著增強,社會公眾的風險感知由此被喚醒。他們繼而對風險事件造成的安全價值減損進行評估權衡,當安全價值減損超過容忍限度時,就會通過制度性或非正常渠道,將小概率或局部性的安全風險事件外顯為普遍意義上的安全風險,個體、社會和國家層面的自動駕駛安全風險由此得以生成。反之,當安全價值減損仍在公眾容忍范圍之內時,自動駕駛的安全風險則會處于隱匿狀態,不會對人們工作生活和國家政策變遷造成實質影響。
以自動駕駛安全風險的社會-技術風險源為邏輯起點,可從倫理治理、技術治理、制度治理和公民治理層面抑制安全風險的產生和蔓延。
面對自動駕駛安全風險與挑戰,企業和政府監管主體需要樹立審慎平衡的治理理念。一方面,自動駕駛汽車生產企業應做好安全風險預警工作,審慎分析自動駕駛中可能出現的問題,合理界定安全風險邊界,即根據自動駕駛汽車安全方面的隱患和利益相關者反對的原因來界定風險等級和維度,在此基礎上前瞻性地做好風險預案,針對不同維度的安全風險采取相應的風險治理策略,例如對技術維度的不確定性交通安全風險采取預防策略,征求利益相關者的意見,有針對性地采取技術改進措施,以防止意外的發生。另一方面,妥善平衡自動駕駛安全與技術發展需求之間的矛盾和張力。鑒于自動駕駛對高精度地圖的高度依賴,政府應在確保國家安全的前提下,有條件地開放地圖測繪資質,對不涉密、不危及國家安全的地圖及測繪進行分類審批。同時,為了提高自動駕駛技術的安全性能,智能算法系統需要從經驗中學習,這就不可避免地涉及海量測試數據、真實行駛數據和事故信息數據的流動和共享問題,監管機構應在數據共享需求與確保司機和乘客隱私安全的基本要求之間作好權衡。
強化專家系統的道德責任感,是風險社會自我拯救的內在要求。[33]自動駕駛汽車的軟件系統和硬件設備均由技術專家研發設計,因而汽車的總體安全性能與技術研發主體的道德責任感緊密相關。不難想象,假若技術研發主體秉承僅對資本和利潤負責的研發理念,則其研發設計的自動駕駛汽車的安全性能必然相對較低。為避免技術研發主體單純將效率和乘客體驗等商業價值作為自動駕駛汽車的設計理念,應強化技術研發者的公共責任意識,使他們不僅深刻認識到人的生命安全、隱私安全價值的重要性,還能對自動駕駛實踐應用與公共安全、國家安全之間的內在聯系形成總體把握。在責任踐行實踐中,自動駕駛汽車企業可通過組建“負責任創新”中心團隊、成立隱私顧問委員會、開展科技倫理培訓和創建“倫理黑客”(“白帽黑客”)社區等多元化舉措,將安全價值融入自動駕駛汽車設計、評估、開發、部署的全生命周期,定期開展產品運行安全監測和隱患排查,實現責任倫理與技術創新的深度融合。
與傳統汽車的人車二元系統不同,自動駕駛汽車是一個高度復雜的人-車-路-環境強耦合系統,其安全運行面臨惡意攻擊、零部件失靈、軟件漏洞、道路破損、極端天氣等諸多不確定性因素的挑戰。自動駕駛技術能否成功抵御這些潛在風險因素的干擾和侵襲,是安全風險防范的關鍵所在。因此,我國應當抓住汽車行業智能化轉型的戰略機遇期,加大對自動駕駛基礎技術的研發投入,著力構筑多重安全防護措施,持續提升汽車智能算法的安全性能。
其一,完善自動駕駛安全冗余系統設計。為了避免自動駕駛汽車由于單點故障而陷入整體性崩潰,有必要對車輛的傳感器、計算單元和控制系統等關鍵子系統采用冗余設計,實現冗余系統對子系統的實時安全監控,確保冗余系統在某一子系統發生故障的情況下能立即承擔起相應的駕駛任務,從而最大限度地降低因自動駕駛車輛功能失效而導致的交通安全風險。不僅如此,自動駕駛硬件傳感系統的冗余設計還能防范黑客攻擊,例如:備用激光雷達輸出的非重疊波長增加了黑客攻擊的難度,因為黑客難以同時對多個信號展開攻擊;配置多個備用攝像頭則使探測感知系統更難被攻破,因為攻擊者無法將光源同時對準所有攝像頭。[34]目前,我國自主研發生產的帶有自動駕駛功能的大部分汽車品牌(車型),如長城WEY摩卡、蔚來ET系列、理想汽車L8/L7 Max等,均配備了覆蓋感知、控制、制動和轉向等基本功能的冗余系統。這些冗余設計為智能汽車安全行駛提供了最后一道防線,但其整體性和全面性仍有待提高。未來,智能汽車企業和科研院所應當加大自動駕駛安全冗余系統的研發力度,力求完善自動駕駛汽車的冗余設計,并使之體系化。
其二,通過數據共享提升算法安全性能。自動駕駛機器學習算法以數據為支撐,無人駕駛系統收集的數據越多,其駕駛技術就越高明。鑒于各級政府部門掌握著交通、氣候等方面的海量原始數據,因而“需要在行業與政府之間實現B2B、B2G、G2B等形式的數據共享,尤其是與安全事故、網絡安全、自動駕駛系統脫離等安全事件相關的數據”[12]32。應將收集和共享的數據用于訓練深度學習算法,使算法從實踐經驗和安全事故中學習,從而提高物體識別準確率,增強檢測和預防網絡攻擊的能力,進一步改進總體安全性能。同時,應當對涉及公民個人信息的數據進行匿名化處理,并以數據加密、身份認證等技術手段合理限制數據訪問,“加強對云端數據安全的管控,綜合應用區塊鏈、數據安全標記、強制訪問控制、資源隔離等技術構建具有較強數據安全防護能力的云平臺”[35],從而有效防范公民隱私安全風險和跨境數據安全風險。
自動駕駛的安全風險治理需要建立健全與之相適應的監管制度體系,從而紓解制度真空所帶來的監管困境。《深圳經濟特區智能網聯汽車管理條例》已于2022年6月23日通過,同年8月1日起施行。這是國內首個對L3及以上自動駕駛的權責、定義等重要議題作出詳細規定的官方管理法規。該條例從道路測試、準入登記、使用管理、交通違法及事故處理等方面對自動駕駛的安全監管進行了全鏈條立法,為國家層面監管制度的構建提供了重要參考。目前,我國已出臺一系列相關新規,如《信息安全技術 汽車數據處理安全要求》與《智能網聯汽車生產企業及產品準入管理指南(試行)(征求意見稿)》等,主要聚焦于自動駕駛汽車數據安全、產品準入和道路測試等方面的監管要求。2023年5月5日,工業和信息化部發布了《汽車整車信息安全技術要求(征求意見稿)》與《智能網聯汽車 自動駕駛數據記錄系統(征求意見稿)》,對車輛通信、軟件升級、數據出境等方面的安全要求作了初步規定,公開征求社會各界意見。已有的政策法規、標準規范為推進自動駕駛的商業化應用和安全風險防控提供了制度依據,但其中大部分制度尚處于試行或意見征求階段,監管細則有待完善,規制效力有限,自動駕駛汽車正式商用的整體性制度和監管框架尚未建立。接下來,應當結合社會各界意見和政策試行情況,進一步細化相關要求和標準,并將其上升為正式制度,從事前審批、事中使用、事后調查等監管階段入手,構建涵蓋自動駕駛汽車全生命周期的監管框架,從而健全自動駕駛監管制度體系。
針對自動駕駛推廣應用可能引致的技術性失業風險,政府主體應采取切實有效的措施,完善社會就業保障體系。一方面,應當健全社會救助體系,加強失業人口的兜底保障,通過發放失業補貼和最低生活補助等方式,確保因自動駕駛汽車替代而失業的專職司機群體能夠滿足基本生活需要。另一方面,根據自動駕駛技術的市場滲透步伐,提前設計就業培訓制度和方案。在自動駕駛汽車市場份額較高的省份和城市,政府應當有針對性地開展規模化的勞動技能提升和轉崗培訓活動,使專職司機等失業群體具備再就業能力,如從事與汽車行業相關的車輛清洗、維修等服務行業工作的能力;在自動駕駛行業起步較晚的城市,政府應加強勞動力市場公共服務,及時對接勞動力市場需求方,為潛在失業群體提供職業咨詢、工作介紹等就業幫助,促進勞動力資源的有效利用,以此積極應對自動駕駛可能引發的技術性失業風險。
風險具有社會建構性,公眾對風險的主觀感知是風險生成的重要因素。“在技術成熟并得以大規模部署之前,社會對自動駕駛技術的風險容忍閾值的不確定性將一直存在。”[36]有鑒于此,應當提升社會公眾的風險感知能力,及時阻抑自動駕駛安全風險的社會放大,盡可能將公眾對安全價值減損的感知水平控制在安全風險閾值內。一要積極開展多種形式的人工智能科普教育活動,加深公眾對自動駕駛技術的理解,使他們理性地認識自動駕駛的社會價值和局限性,引導廣大消費者、用戶規范地使用自動駕駛功能,避免盲信盲從自動駕駛的功能指令。二要加強對媒體機構的監督,使其以客觀中立的立場對自動駕駛安全風險事件進行報道,杜絕刻意夸大安全風險后果的行為,避免激發公眾的技術恐慌情緒。三要強化政策宣傳教育,充分利用政府網站、電視媒體等官方平臺,及時向公眾發布、講解與自動駕駛相關的政策法規,幫助公眾充分了解自動駕駛的潛在安全風險及其監管舉措,增強公眾對安全風險官方治理的信心。
提升公眾風險感知能力雖然有助于抑制技術恐慌和焦慮情緒的社會蔓延,但無法從源頭上遏制自動駕駛安全風險的生成。因此,應在技術設計階段推動技術決策的民主參與,對技術塑造的相關社會價值觀進行公共辯論,讓所有相關的社會群體都參與自動駕駛汽車技術開發的關鍵對話和決策。一方面,要拓寬公眾參與渠道,運用線下討論與線上參與相結合的方式,讓利益相關群體參與自動駕駛技術的研發設計,推動技術承載安全價值。在線論壇、網絡沙龍等線上參與方式能夠有效突破公眾參與的時空限制,是專題座談會、現場意見征求等傳統線下公眾參與方式的重要補充,具有很大的推廣價值。另一方面,應提倡開放自由的協商對話形式,為公眾與技術專家的持續對話創造條件,將公眾參與落到實處。在對話過程中,鼓勵參與者挑戰自動駕駛技術的主流觀點(如“自動駕駛意味著更安全的道路交通安全”),督促技術專家及時回應公眾的疑問和擔憂,并將公眾的安全價值訴求和建設性意見整合到技術設計中。
我國《數字交通“十四五”發展規劃》提出,到2025年基本建成“一腦、五網、兩體系”的數字交通發展格局,其中“一腦”即數據大腦,旨在通過綜合運用大數據、云計算、人工智能、區塊鏈等新技術,實現交通運輸數據資源的整合共享、綜合開發和智能應用。作為數據、算力和算法等核心技術要素與傳統汽車深度融合的產物,自動駕駛無疑是打造綜合交通運輸數據大腦的助推器,并將徹底改變數十億人的生活、工作和出行方式,重塑人們的日常生活結構。因此,自動駕駛安全風險的認知和防范對于我國成功構建數字交通系統具有重要的現實意義。
通過降低人為因素對交通運行的消極影響,自動駕駛能夠提高交通運輸的安全性。然而,與傳統汽車相比,自動駕駛汽車作為“車輪上的機器人”和“車輪上的數據中心”,面臨著軟件系統和信息數據等方面的新興安全威脅,一旦防范應對措施缺位,就可能引發侵犯公民隱私、技術性失業、危害公共安全、跨境數據安全風險和國家機密泄露等一系列安全風險,對個人權益、社會秩序乃至國家利益構成多重的復合型危害。自動駕駛安全風險遵循風險生成的一般邏輯,是技術系統與社會系統各要素互動耦合的結果。對安全風險成因的系統剖析為風險治理提供了有益思路,治理主體應當瞄準自動駕駛安全風險的社會-技術風險源,從倫理、技術、制度、公民等層面協同推進,采取針對性的治理舉措,抑制安全風險的產生和蔓延。
任何技術的發展和應用都不是絕對安全的,自動駕駛技術的商業化落地也與安全風險相伴而生,我們不能因噎廢食。目前,自動駕駛在我國已經進入商用階段,政府應采取積極主動的治理舉措,最大限度地降低自動駕駛的安全風險,為自動駕駛技術造福社會保駕護航。未來需持續關注自動駕駛技術的發展動態,結合具體實踐案例,細化自動駕駛新興安全風險樣態的類型化分析,不斷探尋行之有效的治理方案。