中圖分類號:B82-05;U491 文獻標識碼:A 文章編號:1003-1502(2025)04-0052-16
一、引言
自動駕駛是指利用車載傳感器獲取環境信息,依托人工智能等新一代信息技術,實現車輛在道路交通中的自主安全行駛。隨著端到端大模型等人工智能技術的創新和應用,自動駕駛技術開始進入產業化關鍵時期,以人類駕駛和傳統機動車為對象構建的規則體系,逐漸顯現出與自動駕駛產業發展不相適應、難以提供有效保障的問題。近年來,社會公眾對自動駕駛示范運營過程中出現的行車安全、數據保護、算法解釋、責任主體困境、人機關系失調以及就業替代等倫理風險的討論,成為推動自動駕駛技術市場化進程中影響相關政策和規則體系構建的重要因素。
自動駕駛屬于新興技術,在動態發展過程中,社會公眾對技術產品功能的感知和對相關倫理風險的認知可能出現偏差。研發企業和社會公眾在技術成熟度方面的信息不對稱,一方面可能引發自動駕駛企業對技術和產品的虛假宣傳,另一方面也可能降低消費者對新興技術的認知興趣和接受意愿,阻礙自動駕駛產業化發展。解決這一問題的途徑之一是通過開展示范運營,在技術和產品持續迭代和成熟的過程中,借助豐富實際駕乘體驗來改善社會公眾對自動駕駛技術及其風險的認知,進而推動技術和產品的市場化。
截至2023年底,我國已建成17個國家級智能網聯汽車測試示范區、7個車聯網先導區、16個智慧城市與智能網聯汽車協同發展試點城市,開放測試示范道路22000多千米[2]。自動駕駛汽車的試點示范運營為社會公眾正確形成對自動駕駛倫理風險的認知提供了實踐環境,同時也為深人探究不同社會群體的自動駕駛倫理問題認知差異提供了極具價值的實證場域。
通過理論分析與社會實驗調查,本文旨在梳理當前我國社會公眾在自動駕駛倫理風險方面的認知現狀,進而分析具備不同自動駕駛乘坐及體驗經歷的社會公眾群體在倫理風險認知層面的差異。在此基礎上,有針對性地提出旨在有效消解自動駕駛倫理風險認知偏差的可行性建議,為制定符合技術和產業發展實際的政策和規則提供依據。
二、文獻綜述
技術系統不能獨立于社會系統而存在,技術系統的變化又會引起社會系統的變化[3。在社會技術系統中,明顯落后于其他組分或與其他組分明顯不協調的部分被稱為“退卻突出部\"(reverse salient),它是技術系統變革的本質和動力[4]。退卻突出部未必直接來自技術本身,支撐技術系統的組織制度、科學知識或經濟要素等都可能成為推動社會技術系統演化的關鍵因素[5]。
新興技術創新是具有較快增長速度的根本性創新,其技術特征和發展方向具有動態性和不確定性,新興技術的產業化可能對社會經濟產生顛覆性影響。隨著新興技術與社會深度融合發展,社會技術系統日益增長的復雜性、多樣性和動態性對新興技術社會化治理和產業化發展帶來新的機遇和挑戰[。如果技術創新及其產業化過程不能被社會所接受,社會環境就會對技術創新活動產生抑制作用,從而誘發社會嵌入性風險[8]。
作為新興技術的典型代表,自動駕駛正在加速走向大規模商業應用和產業化發展階段。科學技術創新是自動駕駛產品研發和產業發展的技術前提,但在自動駕駛推廣和產業持續增長的過程中,社會公眾在倫理決策、事故應對和算法透明度等方面的接受程度反而更為重要,這是自動駕駛退卻突出部的具體表現。
已有研究認為,社會公眾在技術使用和體驗過程中形成對技術的理解和對風險的直觀感受,進而導致不同的認知和信任水平是影響社會公眾接受新興技術程度的重要因素[10]。從“風險感知一公眾認知一信任水平一技術接受”的邏輯鏈路來看,社會公眾對自動駕駛風險的感知以及由此形成的認知是自動駕駛技術系統與社會系統良性互動的“源頭”。
有研究從社會福利、個人收益和技術倫理三個方面理解新興技術產生的風險,認為倫理風險對公眾的新興技術接受度具有重要影響I1。新興技術倫理風險是指新興技術因其內在復雜性、高度不確定性以及外在因素等多重影響而產生的人與自身、人與人、人與社會、人與自然層面的倫理負效應,表現在社會秩序失調、人類主體威脅、生態環境破壞等方面[12]。自動駕駛倫理風險產生于技術系統與社會系統各要素的互動耦合過程,在社會放大機制的作用下產生疊加效果,并被公眾感知[13]。社會公眾對自動駕駛相關風險的認知水平以及由此導致的對自動駕駛技術的倫理寬容度和容忍度,是制約自動駕駛技術社會化推廣的重要因素[14]。
認知是人類獲取、加工、存儲和應用相關知識和信息的過程。通過“認知”,人們可以理解世界、適應環境并采取行動[15]。知識經濟時代,多元創新主體對知識、技術及其相關要素的\"認知\"是\"技術路徑創造過程\"的生成力量。社會公眾對自動駕駛倫理風險認知和決策的機理,就是以技術本身的不確定性與復雜性作為客觀基礎,通過“知識路徑”和“信任機制\"賦予風險以意義和等級的過程[17-I8],該過程同時受到技術成熟度和自身價值觀及知識水平的制約。技術的實體性屬性與人類的主觀性解讀共同塑造了自動駕駛倫理風險的全貌[19]。當技術發展速度與知識創造速度存在顯著差異,新興技術的應用與發展使社會公眾產生不確定性2。這種不確定性表現在因對新興技術的基本知識和信息缺乏了解,人們無法預估其影響并規劃風險解決方案,從而在主觀上降低對新興技術的信任水平[21]。
技術需求主體與技術供給主體之間的信息不對稱,以及社會公眾的知識體系、價值觀念與技術現實之間的不匹配,會導致社會公眾的風險認知出現偏差。認知偏差可能表現為全體社會群體價值觀念對現實風險的“錯誤”匹配,也可能指不同社會群體對同一對象超出正常范圍的認知差異。就前者而言,社會公眾對風險的“高估”會招致對新興技術的抵觸情緒,不利于科技賦能社會發展;反之,對技術過度信任也容易產生人類過度依賴自動化智能系統等倫理風險[2]。后者通常源自社會群體間的個體差異[23]。不同的社會個體在知識基礎、動機和情感等方面具有異質性,在風險事件的性質、媒體宣傳渠道等因素的影響下[24],不同社會個體形成的差異化認知將導致不同的風險決策。當多種顯著不同的風險決策交織,新興技術的推廣可能引發社會公眾立場和利益的沖突,倫理風險成為制約技術產業化的關鍵因素。尤其需要指出的是,當公眾認知形成過程中出現突發性公共事件,輿情卷人風險感知帶來的認知偏差可能導致公眾的非理性行為2]。在數字經濟時代,社會公眾既能夠利用社交媒體參與制造輿論,同時認知形成又會受到輿情演化的影響而反對和限制創新[2],因此突發性公共事件輿情與公眾認知的復雜互動給政府有效治理帶來了挑戰。
通過梳理現有研究發現,自動駕駛領域的倫理風險主要指人工智能技術運用在交通運輸場景所引發的人與人、人與社會、人與機器等關系的失調,具體表現在自動駕駛行車安全、數據保護、算法黑箱、責任主體困境、就業替代等方面。
首先,行車安全風險。行車安全風險是指汽車在執行裝載、運輸等功能的過程中,因涉及汽車與行人、其他交通運輸工具、道路交通設施的交互,對人類駕駛員、道路交通參與者及其財物或外部環境可能造成的傷害。自動駕駛系統可以通過輔助人類駕駛員改變汽車與外部主體、環境的交互效率,但無法完全消除行車安全風險。行車安全水平是直接影響社會公眾認知形成的風險因素,因而自動駕駛應致力于盡最大可能避免交通事故的發生[2]。能夠提供人類駕駛員所能實現的安全水平是對自動駕駛系統的基本要求[28]。
其次,數據保護。現有研究關注到數據不正當收集與過度收集、數據存儲和流通環節中的隱私泄露等數據安全風險[29,并認為數據標注質量、預訓練語料庫代表性、數據集時效性等數據質量風險給生成式人工智能時代的數據治理帶來了挑戰[30]。本文中的數據保護包含“數據記錄\"和“數據泄露\"兩個方面。
再次,算法黑箱。算法黑箱是指在算法運行的某個階段所涉及的繁雜技術導致部分主體無法了解和解釋相關算法,可能引發社會恐慌甚至算法監管失靈[3]。算法黑箱可能帶來算法歧視風險。由于汽車生產商與消費者存在巨大的利益牽絆,在市場競爭和商業利益的驅使下,自動駕駛汽車制造商與算法開發者可能預設\"一刀切地堅持車內人員安全至上”的算法,這種算法若不能被及時揭示,容易造成對車外人員安全利益的歧視性鎖定[32]。同時,算法黑箱也會導致技術供給方與需求方之間的信息不對稱,擁有信息優勢的汽車廠商可能過分夸大自動駕駛能力,加劇社會公眾的認知偏差。
此外,在責任主體困境方面,算法黑箱還可能通過技術復雜性和人機關系失調兩條路徑導致事故責任主體的歸因、追責困境。從技術層面看,自動駕駛功能的實現依賴感知系統、決策系統和執行系統等多模塊子系統的相互協作,在算法黑箱的作用下,對復雜的算法體系進行決策追溯更加困難[33]。從人機關系的角度看,已有研究認為,自動駕駛與人類的關系可能存在兩種情形:其一是人類通過算法掌握車輛的操控權;其二是自動駕駛汽車是人類的合作伙伴,作為自主道德主體,在科技倫理難題中具有完全的自主權[34]。前者通常出現在深度學習算法大規模應用之前。算法是處理和分析數據的規則,是人類表達自身道德選擇、實現技術價值的手段。但當算法具備自我生成能力后,駕乘人員與自動駕駛系統的關系可能轉向第二種形式。在自動駕駛工具理性和價值理性張力的作用下[7],行車決策所體現的倫理道德究竟是汽車自身的道德選擇還是乘客的道德傾向難以明晰。如果賦予自動駕駛系統獨立的道德責任主體地位和法律責任主體地位,對作為機器的自動駕駛系統進行追責就會產生實施困難,導致自動駕駛領域出現“責任主體空缺”\"懲罰空缺”\"多手問題”①[35]等問題。如果認為自動駕駛系統仍是使用者自身價值的表達載體,那么就必須通過“價值對齊\"等方式確保機器真正成為人類的價值代理[3。當機器決策和人類決策陷入道德一致性困境,人機關系的失調將放大社會公眾感知的倫理風險,引發社會對自動駕駛的信任危機。
最后,在就業替代方面。智能駕駛汽車的變革性力量不僅體現在單個汽車產品本身,而且體現為連接成網的汽車網絡以及相伴隨的新業態。比如,自動駕駛的廣泛應用可能促使傳統駕駛崗位減少和新興崗位涌現,對就業結構和勞動力市場造成沖擊[3,,就業受影響的群體可能轉變既有的風險認知和接受技術立場。此外,自動駕駛促成交通領域“共享經濟”的普適化是一個漫長過程,不同群體和不同區域在技術獲得和公平使用方面可能出現“鴻溝\"和分化[38],進而影響社會公眾倫理風險認知的形成。
三、自動駕駛社會實驗分析
自動駕駛是一種社會技術系統,社會公眾的認知和選擇對技術具有形塑作用。基于自身獨特的知識水平、體驗經歷和價值取向,不同社會群體對自動駕駛技術及相關風險的認知具有差異性,在媒體報道、企業宣傳等機制的作用下形成的“認知偏差”可能導致對自動駕駛技術和產品不同的寬容度和忍耐度,進而影響甚至制約自動駕駛產業的發展方向和路徑。隨著我國自動駕駛從試點示范運營向大規模商業化推廣過渡,社會公眾能夠通過親身體驗自動駕駛汽車,直觀感知自動駕駛的技術成熟度和風險水平,從而免受信息不對稱對公眾倫理風險認知的消極影響。社會實驗是系統性認識自動駕駛社會影響、獲取公眾認知的重要途徑[3。通過對不同社會群體的社會實驗調查,可以獲取社會公眾對自動駕駛倫理風險認知的一手資料,為提出消解和治理自動駕駛倫理風險的針對性建議提供思路。
(一)社會實驗設計
考慮到武漢市作為“國家智能網聯汽車測試示范區”“智慧城市基礎設施與智能網聯汽車協同發展試點\"\"交通強國建設試點\"等多個自動駕駛和智能網聯汽車先行示范區,其自動駕駛汽車產業的發展經驗具有典型性、先進性和帶動性,因而作者團隊將研究視野聚焦于武漢市,于2023年開展社會實驗探究自動駕駛乘坐經歷對倫理風險認知的影響②。以是否乘坐過L4級別自動駕駛汽車為依據,將受訪群體分為實驗組和對照組③,調查累計回收有效問卷359份,包含實驗組調查問卷192份和對照組調查問卷167份。
結合前述文獻,本文重點關注社會公眾對\"行車安全\"“數據記錄”\"數據泄露\"\"算法歧視\"“責任主體歸因困境”\"人機關系失調”“就業替代\"等倫理問題的認知情況。社會實驗以調查問卷形式進行,問卷設計9個與“自動駕駛倫理風險”相關的陳述性語句,采用李克特5級量表法由受訪者對設問內容進行主觀評分,分值從1到5分別代表從“非常不同意\"到“非常同意”五級認同水平。其中,對“數據泄露”“責任主體困境”“人機關系失調”“就業替代”四個問題采取“我擔心\"等“負向設問\"方式進行提問,其余問題采取“正向設問”方式進行提問。上述問題中,作者設置了相關問題以探究社會公眾對倫理風險的整體認知水平和對風險轉移機制的認識(見表1)。
表1自動駕駛倫理風險認知社會實驗調查問題設置
(二)實驗結果分析
在359個受訪對象中,實驗組和對照組受訪者的性別比例均衡,年齡集中分布在19—45周歲,學歷以專科和本科為主,多數受訪者為企業普通員工,并且 34.90% 的實驗組受訪
者和 32.33% 的對照組受訪者具有6年以上駕齡, 53.65% 和 16.17% 的實驗組受訪者和對照組受訪者認為自己對自動駕駛有一定的了解。
為了探究實驗組受訪群體與對照組受訪群體在倫理風險認知水平上的差異顯著性,本文首先計算了兩組受訪者在不同問題上的Cohen's d 效應值。計算公式為:
其中, X 為得分均值, s2 為得分方差, N 為樣本量(見表2)。
表2自動駕駛社會實驗倫理風險效應值
根據Cohen的研究[40],效應值 d=0.2,d=0.5 和 d=0.8 分別對應小、中、大的效應量。由此可以認為,除了“責任主體困境”和“人機關系失調”,實驗組和對照組受訪群眾對其他倫理風險的認知水平存在顯著的認知差異,表明通過乘坐自動駕駛汽車,社會公眾得以直觀感受自動駕駛風險,這明顯改變了公眾對自動駕駛的認知。
圖1刻畫了實驗組和對照組受訪群眾對社會實驗問卷每個問題平均得分的對比情況。箱體的高度表示實驗組和對照組受訪群眾對相應問題的認知差異程度,箱體內部的標識符號對應的數值表示全體受訪群眾對該問題的平均得分。在“負向設問\"的四個問題中,實驗組受訪群眾在“數據泄露”“責任主體困境”\"就業替代\"方面的認同程度低于對照組受訪群眾,因而用虛線箱體繪出;在其他問題上,實驗組受訪群眾的認同程度高于對照組受訪群眾,因而用實線箱體繪出。
圖1顯示,根據社會公眾的認知水平和差異程度,可以將自動駕駛倫理風險分為四種類型。第一類是實驗組和對照組受訪群眾的認知差異不顯著的倫理風險,包含“人機關系失調\"和“責任主體歸因困境”兩個問題。第二類是實驗組和對照組受訪群眾的認知雖然存在顯著差異,但兩組對相關風險的認同得分都比較低(全體平均得分低于3.6)的倫理風險,如“就業替代”問題。第三類是實驗組和對照組受訪群眾的認知存在顯著差異,且兩組受訪群眾對相關表述的認同程度位于居中水平(全體平均得分位于3.8附近)的倫理風險,包含“行車安全”和\"數據泄露”兩個問題。第四類是實驗組和對照組受訪群眾的認知存在顯著差異,且兩組受訪群眾對相關表述的認同程度位于較高水平(全體平均得分高于或等于4.4)的倫理風險,包含“數據記錄\"和“算法歧視\"兩個問題。
圖1 自動駕駛倫理社會實驗結果分析
在第一種類型中,在“人機關系失調”方面,雖然實驗組受訪群眾對“自己在未來有可能被人工智能替代”的認同程度高于對照組,但這種差異并不顯著。圖1顯示,實驗組和對照組對“人機關系失調”的擔憂程度都很低,說明至少在當前階段,社會公眾認為自動駕駛不會引起“人機關系失調”。在“責任主體困境\"方面,實驗組和對照組受訪群眾的效應值檢驗得分為0.18,逼近較小差異的臨界值水平,說明雖然當前的認知差異在統計標準上還不顯著,但經過實踐發展,實驗組和對照組受訪群眾在這一問題上可能出現認知差異。從兩組受訪群眾的差異來看,實驗組受訪群眾更不擔心自動駕駛汽車在發生交通事故時產生法律責任認定困難。
在第二種類型中,實驗組受訪群眾對“自動駕駛技術的大規模應用會引發失業等社會問題”的認同程度顯著低于對照組,說明經過乘坐自動駕駛汽車,社會公眾對“自動駕駛替代人類司機”這一問題的認知被大幅度改變。不僅如此,實驗組受訪群眾在就業問題方面的擔憂程度在所有倫理風險中最低,說明社會公眾對自動駕駛給就業市場帶來的變化呈樂觀態度。為了驗證該結論的穩健性,作者團隊于2024年面向武漢市的市民群體以及出租車、網約車司機群體開展了關于“就業替代\"的專項社會實驗調查④。結果顯示,就“自動駕駛技術對就業市場的總體影響\"這一問題而言,實驗組市民群體中持有積極態度、中立態度、消極態度的占比分別為 48.65%.42.70%.8.65% ;對照組市民群體的對應比例分別為 32.21% 、53.85%.13.94% ;司機群體的對應比例分別為 50.52%.26.32%.23.16% 由此可見,乘坐過自動駕駛汽車的市民群體和對自動駕駛汽車更為了解的司機群體對自動駕駛汽車的“就業替
代\"問題確實更為樂觀。
在后續調研訪談過程中我們發現,這種現象出現的可能原因首先在于自動駕駛的大規模普及是一個漫長的過程,技術產業化初期僅會對少部分職業形成替代,同時產業漸進式發展特征形成的緩沖期為被替代就業者的職業轉換提供了可能。其次,對受影響的群體而言,自動駕駛在替代部分工作的同時提供了新的就業機會,且新的就業機會能夠明顯改善勞動環境和工作待遇。
在第三種類型中,對照組和實驗組受訪群眾對“自動駕駛比人類駕駛更安全”的認同得分分別為3.54和3.95,說明無論是從實驗組還是對照組受訪群眾來看,社會公眾在技術上都對自動駕駛呈現樂觀態度,而且經過乘坐、體驗自動駕駛汽車,社會公眾的支持程度進一步提高,這為我國自動駕駛產業的進一步推廣奠定了基礎。在\"數據泄露\"這一風險認知中,對照組擔憂個人數據隱私被泄露的得分為4.05,雖然實驗組受訪群眾經過乘坐自動駕駛汽車對數據泄露的擔憂程度下降至3.68,但仍處于中高水平,說明在后續產業化推廣過程中,數據泄露風險應當引起市場主體和監管主體的重視。
在第四種類型中,社會公眾對“通過給自動駕駛汽車配備數據‘黑匣子'以時刻記錄和存儲行車數據”具有極高的認同度,而且實驗組受訪群眾在經過體驗自動駕駛汽車后對這一措施更為支持,可見社會公眾對數據記錄這一問題具有較高的重視水平,該結果與受訪群眾對“數據泄露”擔憂程度較高的結論可以相互印證。由此可以推斷,在社會公眾的普遍認知中,行車過程的數據應當被妥善記錄,而且數據記錄之后的保管問題同樣重要,這要求政府和相關企業應當建立完整的數據收集、記錄、存儲、處置機制。此外,實驗組和對照組受訪群眾在“自動駕駛應當對所有個體做出一視同仁的決策”這一問題上均呈現較高的認同度,且實驗組受訪群眾的認同程度更高,這說明經過對自動駕駛場景的切身體驗,實驗組受訪群眾更加認為自動駕駛能夠處理好公平決策等問題,這對算法治理提出了更高要求。
在對自動駕駛倫理風險的整體認知水平上,對照組和實驗組受訪群眾對“與自動駕駛相關的法律和倫理問題能夠被很好解決\"的認同程度分別為3.72分和4.06分,兩組均表現出對“法律和倫理風險”的樂觀態度,這為我國自動駕駛的創新和推廣提供了包容的社會環境。而在自動駕駛相關風險的消解上,社會公眾對“社會保險\"等風險轉移機制抱有非常高的期待。
四、自動駕駛倫理風險認知偏差的消解機制
對于自動駕駛倫理風險的消解和治理,已有研究做出了諸多探索[13.35.41-42],但針對自動駕駛倫理風險認知偏差消解機制的探討相對較少。正如前文所述,自動駕駛倫理風險來自新興技術創新和產業化應用與現有社會秩序和價值觀的“摩擦”與“沖突”,其中社會公眾在體驗和感知自動駕駛技術的基礎上形成的倫理風險認知是形塑公眾價值觀乃至社會秩序的重要因素,因而消除社會公眾的認知偏差是消解和治理自動駕駛倫理風險的重要方式。
社會實驗調查結果表明,通過乘坐自動駕駛汽車形成的直觀感受和認知,能夠有效消解對自動駕駛倫理風險的認知偏差。然而,社會公眾的認知具有動態性,在自動駕駛汽車進一步產業化過程中,隨著技術倫理風險的進一步顯露以及突發事件的影響,社會公眾對自動駕駛倫理風險的認知方向可能遭受沖擊而“逆轉”,成為制約自動駕駛推廣的因素,因而通過制度創新暢通社會公眾形成合理、客觀的風險認知的渠道,對消解自動駕駛倫理風險的認知偏差具有深遠意義。
此外,社會公眾對不同類型的倫理風險的認知水平存在較大差異。比如,對于“人機關系失調\"等經常出現在高級別自動駕駛系統的風險而言,在自動駕駛起步階段,無論是實驗組還是對照組,對其感知程度均處于較低水平;對于數據隱私以及算法歧視和解釋等技術因素引發的風險而言,受訪群體表現出較高的關注度,并對通過技術手段消解相關風險存在較高期望;對于“就業替代\"等長階段演進性社會風險而言,社會公眾則表現出一定的寬容度。因此,整體來看,自動駕駛倫理風險認知偏差的消解需要考慮技術創新、觀念更新、制度構建等多種路徑。
(一)通過技術創新降低社會公眾感知的風險水平
自動駕駛技術是社會公眾認知的客觀對象,是決定社會公眾倫理風險認知水平的基礎性因素,通過技術創新提高自動駕駛系統的\"安全性\"表現,能夠有效降低公眾感知到的風險水平,進而形成對自動駕駛技術倫理風險的理性認知。
比如,數據隱私保護要求明晰各利益相關方在數據收集、存儲和處置等全流程中的權利和義務,在保證用戶知情權的同時保障用戶對自身數據的動態控制權。在算法治理方面,針對算法“黑箱化”導致的權責模糊問題,應在算法開發階段建立解釋性約束機制,使算法的決策依據、判斷邏輯能夠被人類理解與驗證。為避免算法價值觀偏離社會共識,需要在技術設計初期將社會普遍接受的倫理準則轉化為算法可識別的參數,并在系統迭代中引入公眾意見反饋機制。在上述過程中,應建立由技術供應商、監管機構乃至關鍵用戶共同參與的算法審查體系,通過公開算法決策原理、提交倫理影響評估報告等方式形成算法透明度提升與社會信任建構的雙向互動機制。
(二)在場景化交互中及時更新社會公眾的風險認知
自動駕駛是集合感知技術、通信技術、人工智能技術、汽車控制技術等多種技術的復雜技術體,感知、決策、執行等多環節的風險表現都可能影響社會公眾的倫理風險認知水平。與此同時,社會公眾在駕駛方面的認知結構與價值觀基礎通常在傳統駕駛階段形成,可能不適用于自動駕駛等新興技術。主客觀因素的相互作用容易導致既有社會價值觀與快速發展的新興技術“脫節\"甚至“沖突”。因此,為了調和技術動態演進與公眾認知滯后的結構性矛盾,需要構建多方協同的認知調適機制。比如,借助示范運營、公眾開放日等場景化實踐,使公眾在真實交通環境中形成對自動駕駛技術能力與風險的具象化認知。這種基于感官交互的認知建構能夠有效消解自動駕駛的抽象概念在傳播中的信息耗損,進而防止技術預判與現實圖景的錯位。
(三)通過客觀宣傳與信息校準消弭倫理風險認知偏差
在信息傳播過程中,研發企業、新聞媒體、監管主體等主體的風險應對策略可能加劇社會公眾的倫理風險認知偏差。比如,極度風險偏好型或功利型自動駕駛研發企業更可能采取“擦邊\"宣傳、刻意隱瞞等產品營銷方式,致使社會公眾對自動駕駛產品產生誤解,同時也增加自主系統爆發風險的概率。此外,與自動駕駛相關的突發事件的新聞報道和輿情演化可能引導社會公眾做出“過激”反應,使得在事故場景下的認知占據主導地位,引發社會公眾的認知對立和沖突。因此,對于企業等市場主體而言,保持技術能力聲明的嚴謹性是市場推廣的前提,因為逾界的營銷宣傳可能使其成為倫理風險的“創生者”,由此誘發的公眾認知偏差將加劇相關產品的信任危機,甚至對相關市場主體形成“反噬”,損害自動駕駛產品商業化的基礎。對于傳播媒介而言,既要構建科學傳播自動駕駛知識的常態化機制,也要建立突發輿情事件的解釋性報道機制,避免碎片化信息、誤導性信息對公眾風險感知的扭曲,承擔起知識中介與認知校準的雙重職能。政府等監管主體則需要規范相關主體的宣傳、傳播行為,避免公眾情緒被突發事件輿論裹挾而引發錯誤認知,通過加強輿情監測與引導實現對自動駕駛倫理風險的有效治理。
(四)實現技術系統與社會系統的協同演進
技術系統與社會系統的協同演進,既是自動駕駛的最終目標,也是消解自動駕駛倫理風險認知偏差的必要手段。技術系統與社會系統協同演進的形式并非簡單的線性適配,而是一種雙向建構的動態復雜過程。對于技術創新主體而言,要在研發過程中遵循“倫理嵌入技術”的原則,將對倫理道德風險的考量置于技術創新和產業化的全過程;對于使用主體而言,要根據技術研發的實際進程及時更新認知并向創新主體和治理主體做出反饋,為自動駕駛的產業化應用提供適當的包容度和容錯空間。因此,技術系統與社會系統的互構要求實現創新主體在技術成熟度曲線上的倫理自覺、社會公眾在風險認知和技術寬容上的動態適應之間的協同進化。這依賴于負責任創新(Responsible Innovation)[43]與適應性治理(AdaptiveGovernance)44l的融合。這種融合機制既可以避免技術決定論導致的社會主體被裹挾的風險,也能夠克服技術社會建構論可能帶來的創新阻滯效應,為破解新興技術倫理風險困境提供具有時空適配性的解決方案。
五、結論與政策建議
基于對自動駕駛倫理風險及其認知機制的理論梳理,本文認為社會公眾對新興技術的認知水平和由此形成的包容程度為技術創新和產業化提供的試錯空間,是支持自動駕駛等新興技術持續創新和發展的關鍵性社會因素。當社會包容程度低于技術成熟度閾值時,技術創新的社會容錯空間將被壓縮,導致新興技術難以突破“死亡之谷”;反之,若放任技術“無序擴張”,任其突破社會規范,則可能引發技術和社會規范的沖突,甚至造成社會價值體系的解構。在參與自動駕駛實踐的過程中形成對倫理風險的場景化認知,是影響社會公眾對自動駕駛包容度和接受度的重要機制。
通過在智能網聯汽車測試示范區開展社會實驗調查,本文得出如下結論。首先,相較于沒有自動駕駛汽車駕乘體驗的群體,乘坐過自動駕駛汽車的社會群體對自動駕駛倫理風險有著更高的包容性,說明在乘坐自動駕駛汽車過程中形成的風險感知和場景化認知是消除自動駕駛認知偏差的有效手段。其次,當前社會公眾對自動駕駛倫理風險的整體認知較為積極,且普遍認同可以通過創新風險轉移機制等方式為利益相關者提供風險保障,這為我國通過擴大自動駕駛運營范圍等方式為社會公眾構建場景認知環境提供了有利條件。最后,實驗組和對照組受訪群眾在不同的倫理風險認知方面存在顯著差異。比如,對于\"數據泄露”“算法歧視\"等由技術引發的風險,社會公眾有著非常高的關注度,更容易成為制約自動駕駛產業發展的“倫理硬約束”;而對于“就業替代\"等影響特定群體的倫理風險而言,相關主體的認知水平會隨實踐發展而不斷深化,因而公眾往往對其持有更加寬容的態度,從而風險認知偏差可以在產業的漸進發展過程中得以消解。
綜上而言,自動駕駛倫理風險的有效治理與消解,應兼顧技術發展的顛覆性與社會價值的包容性,通過技術系統與社會系統的動態調適和協同,推動技術進步與倫理規范的良性互動和共同成長。這一目標的實現既依賴于通過技術創新提高自動駕駛的安全水平,更依賴于公眾對自動駕駛倫理風險形成正確認知,消除認知偏差。為此,本文提出如下政策建議。
1.著重構建以“試點示范”為特色的階段化、遞進式和探索性政策支撐體系,為技術迭代與社會公眾認知的形成提供彈性發展空間。比如,在重點地區和代表性區域堅持開展開放道路測試、商業示范運營及產業化推廣工作,形成可復制、可推廣的經驗。根據技術現實和社會接受程度適時拓展測試和運營區域,推動構建從區域試點到全域覆蓋、從場景化探索到全面商業化落地的發展格局。
2.注重建設覆蓋自動駕駛技術研發、測試及商業化運營全流程的倫理指引與審查體系,推動研發與生產主體將倫理考量內嵌于技術創新與產業發展的全生命周期。首先,政府等治理主體可以整合各領域專家和社會公眾力量,適時編寫并發布反映技術現實的自動駕駛倫理指引和規范,為自動駕駛倫理風險治理提供文件指導。其次,通過建設公眾參與、適度公開和及時反饋等治理機制,將利益相關者的倫理訴求納入決策框架,確保技術發展與社會價值的協調統一。同時,應強化自動駕駛倫理風險的預警與評估機制,通過動態監測與科學評估,識別潛在倫理沖突,為政策制定與技術治理提供前瞻性依據,實現技術進步與倫理規范的平衡發展。
3.為消除公眾對自動駕駛倫理風險的認知偏差,應注重加強自動駕駛方面科普宣傳教育。建議構建政府主導、企業與媒體協同聯動的科普宣傳教育機制,通過技術原理大眾化解讀、應用場景直觀化展示等方式引導社會公眾形成科學理性的風險認知。此外還應注重技術信息披露規范建設,約束企業在商業化宣傳中的風險弱化傾向,也要規避因倫理風險的戲劇化渲染所造成新興技術的社會恐慌。科普宣傳應以客觀呈現自動駕駛技術的安全效益與社會價值為目標,培育公眾對技術迭代過程動態認知能力,為技術創新和產業化發展營造適度包容的社會環境。
4.完善自動駕駛公共事件輿情監測與引導機制,避免事故場景下的非理性認知引發社會公眾的認知偏差。自動駕駛作為一種顛覆性技術創新,產業應用過程中合理范圍內的試錯行為可能在社交網絡的催化下演化成為公共性輿情事件,擠壓新興產業的容錯和發展空間。為此政府部門應建立完善的輿情監測機制,及時掌握公眾對自動駕駛技術的認知、態度和訴求。在出現輿情事件時,政府應通過適當的輿論引導措施回應社會關切,及時澄清不實信息,避免輿情的過度發酵甚至誤導,幫助社會公眾形成理性認知。
注釋:
① 責任主體空缺是指自動駕駛系統的法律主體地位問題;懲罰空缺是指無法對自動駕駛系統實施法律規制意義上的懲罰行為;多手問題是指在多元責任主體之間劃分每個主體責任內容和程度的困難。見POELIVD,ROYAKKERSL,ZWARTSD.Moral Responsibility and the ProblemofManyHands[M].New York:Routledge,2015.
② 從2022年開始,本文研究團隊啟動關于智能網聯汽車的社會實驗調查。其中,2022年以北京、武漢、陽泉作為實驗組,以天津、鄭州作為對照組,著重關注設立智能網聯汽車示范運營區的社會公眾技術接受度的影響;2024年的社會實驗則在就業層面關注武漢公眾對自動駕駛的認知情況。考慮到文章研究主題與社會實驗主題的契合性,本文以2023年的社會實驗調查為主,并以2024年的社會實驗結果對相關問題進行輔助說明。
③ 調研團隊實地、隨機向武漢市民發放訪談問卷,問卷由受訪者獨立填寫,填寫完成后實時回收。
④ 其中實驗組市民群體、對照組市民群體、司機群體分別回收有效問卷185份、208份、95份。
參考文獻:
[1]中國信通院.自動駕駛戰略與政策觀察政策法規助力高度自動駕駛加速推進產業化(2024年)[EB/OL].[2025-05-10].http://www.caict.ac.cn/kxyj/qwfb/ztbg/202412/P020241205497259586610.pdf.
[2]智能網聯汽車“車路云一體化”應用將試點 [EB/OL].(2024-01-18)[2025-03-21].https://www. gov.cn/lianbo/bumen/202401/content_6926704.htm.
[3]TRISTEL,BAMFORTH K W.Some Social and Psychological Consequences of the Longwall Method of Coal-getting:An Examination ofthe Psychological Situation and Defencesofa Work Group in Relation to the Social Structureand Technological Content of the Work System[J].Human Relations,1951(1).
[4]HUGHES T P.The Social Constructionof Technological Systems:New Directions in the Sociology andHistoryof Technology[C].Cambridge:MITPress, 1987.
[5]HUGHES T P.Networks of Power:Electrification in Western Society,1880-1930[M].Baltimore : JHU press,1993.
[6]ROTOLO D,HICKS D,MARTIN B R.What isanemerging technology?[J].Research Policy,2015 (10).
[7]李磊,魯曉.新興科技的倫理治理:概念、框架與實踐路徑分析[J].自然辯證法研究,2023(9).
[8]喬軍華,楊忠直.技術創新的社會環境約束與社會嵌入性風險[J].現代管理科學,2015(5).
[9]SHARIFFA,BONNEFONJF,RAHWANI. Psychological Roadblocks to the Adoption of Selfdriving Vehicles[J].Nature Human Behaviour,2017 (10).
[10]宋艷,陳琳,李琴,等.人工智能倫理風險感知、信任與公眾參與[J].科學學研究,2022(7).
[11]朱旭峰,樓聞佳.公眾的風險感知與新興技術接受度——面向人臉識別技術的調查實驗研究[J].管理世界,2024(10).
[12]安慧影,黃朝峰,李陽.新興技術倫理風險協同治理研究[J].科技進步與對策,2024(7).
[13]譚九生,胡健雄.自動駕駛的安全風險及其治理[J].學術交流,2023(8).
[14]HANSSON SO,BELIN M A,LUNDGREN B.Self-driving Vehicles——An Ethical Overview[J]. Philosophy and Technology,2021,34.
[15]羅伯特·索爾所,奧托·麥克林,金伯利·麥克林.認知心理學[M].邵志芳,李林,徐媛,等譯.上海:上海人民出版社,2019.
[16]NIGHTINGALE P.A Cognitive Modelof Innovation[J]. Research Policy,1998(7).
[17]鄭煌杰.可信的人工智能:技術倫理風險下AIGC的治理基點[J].科技進步與對策,網絡首發2024-11-04.
[18]龐禎敬,邵而行.新興技術風險的社會建構機理及治理路徑研究[J].科學學研究,網絡首發2025-04-03.
[19]蘭立山.技術治理的倫理風險及其應對之策[J].道德與文明,2023(5).
[20]WIEK A,LANGD J,SIEGRIST M. Qualitative System Analysis as a Means for Sustainable Governance of Emerging Technologies:the Case of Nanotechnology [J]. Journal of Cleaner Production, 2008(8-9).
[21]KOPPENJAN J F M,KLIJN E H.Managing Uncertainties in Networks:A Network Approach to Problem Solving and Decision Making[M].London : Routledge,2004.
[22]段偉文.前沿科技的深層次倫理風險及其應對[J].人民論壇·學術前沿,2024(1).
[23]張鑫蕊,張海濤,張可欣,等.三元空間視域下重大突發事件的公眾認知建構研究[J].情報科學,2024(11).
[24]譚,張亦慧.突發事件中的風險認知偏差與應對[J].人民論壇,2011(17).
[25]劉曉晴,鄧春林.輿情卷入風險感知下社交媒體用戶非理性行為生成機理研究[J].圖書情報工作,2024(7).
[26]齊航,王光超,張運勝,等.自動駕駛出行服務的公眾關切與研究展望——兼評“蘿卜快跑”世界最大規模無人駕駛商業化運營[J].交通運輸工程與信息學報,2024(4).
[27]丁芝華.德國自動駕駛立法的邏輯內核與體系構造[J].河北法學,2023(10).
[28]鄭志峰.論自動駕駛汽車被動接管規則[J].華東政法大學學報,2023(3).
[29]陳兵.人工智能應用的科技倫理與法治化建設[J].人民論壇,2024(12).
[30]張欣.生成式人工智能的數據風險與治理路徑[J].法律科學(西北政法大學學報),2023(5).
[31]譚九生,范曉韻.算法“黑箱”的成因、風險及其治理[J].湖南科技大學學報(社會科學版),2020(6).
[32]鄭志峰.自動駕駛汽車“電車難題”的倫理困境與立法因應[J].法學,2024(11).
[33]COECKELBERGH M. Artificial Intelligence, Responsibility Attribution,and a Relational Justification of Explainability [J]. Science and Engineering Ethics,2020(4).
[34]陳兵,劉永集.科技倫理與法治因應:自動駕駛的安全發展[J].學習與實踐,2025(2).
[35]胡明艷,白英慧.自動駕駛汽車道德歸責困境及其消解[J].東北大學學報(社會科學版),2023(5).
[36]付長珍.智能與智慧:人機關系的倫理前瞻[J].求是學刊,2024(6).
[37]賈開,趙彩蓮.智能駕駛汽車產業的治理:發展、規制與公共政策選擇[J].電子政務,2018(3).
[38]楊燁陽,王元喆,蘇果云.自動駕駛技術的倫理風險、事故的歸責模式與責任規避[J].西華師范大學學報(哲學社會科學版),2025(4).
[39]瞿晶晶,王迎春,趙延東.人工智能社會實驗:倫理規范與運行機制[J].中國軟科學,2022(11)
[40]COHEN J.Statistical Power Analysis for the Behavioral Sciences[M]. London:Routledge,2013.
[41]霍佳鑫,李俠.負責任創新在自動駕駛行業的嵌入途徑[J].自然辯證法通訊,2022(12).
[42]劉成科,葛燕.走向“有意義的人類控制”自動駕駛汽車的主體懸置與責任錨定[J].山東科技大學學報(社會科學版),2023(1).
[43]HELLSTROEM T. Systemic Innovation and Risk:Technology Assessment and the Challenge of Responsible Innovation [J]. Technology in Society,
Future Research [J]. Government Information Quarterly,2018(2).
[44]MERGEL I,GONG Y,BERTOT J. Agile Government:Systematic Literature Review and
Cognitive Biases in Perceiving Ethical Risks of Autonomous Vehicles: Towards Mitigation Mechanisms
LIU Gang, ZHENG Fengyang, LIU Jie
Abstract: The integration of algorithms into driving systems, progressively replacing human control, may create friction with existing social norms and values. This technological shift potentially triggers ethical concerns including traffic safety,data protection,algorithmic discrimination,and workforce displacement. Divergent interpretations of technological maturity and conflicting value systems may foster cognitive biases in perception of the associated ethical risks across social groups. Such perceptual disparities manifest as divergent levels of public acceptance,potentially delaying autonomous vehicle commercializaiton by influencing industrial policy formulation. Our social experiment reveals that the Chinese public demonstrates notably high tolerance and acceptance rates toward AV technology, indicating a favorable sociotechnical environment for innovation. Crucially, significant percceptual gaps emerged between experimental and control groups in ethical risk perceptions across respondent categories,indicating that the experience of riding in autonomous rides fundamentally shapes ethical risk cognition. Advancing human centered artificial intelligence requires dual-track progress: conducting large - scale demonstration operations and acclerating technological innovation. These initiatives must simultaneously drive technical advancement and address public cognitive biases regarding ethical risks.This co-evolution of technological and social systems emerges as a viable pathway for expediting autonomous vehicles industrilization.
Key words: autonomous vehicles; ethical risks; cognitive biases; demonstration operation
責任編輯:鄧喆