中圖分類號:U471 收稿日期:2025-04-22 DOI: 10.19999/j.cnki.1004-0226.2025.06.002
Abstract:Artificialiteligencetechnologyrepresentedbydeplearingpromotes therapiddevelopmentoftheautonomous drivingindustry,ndteblackboxproblemofrtificialintellgencenetworksiscomiganimportatobstacletotepopularzatiofu tonomousvehicles.ExplainableArtfcialIntelligence(XAI)technologyisanefectivemethodtosolvethebackboxproblem.Facing theimmaturityofXItechnology,thispaperproposesthedefinitionofXAIforautomaticdriving,andcomprehensivelyanalyesthe relevantcasestudy.FurtherthispaperproposesaframeworkofXAIechnologyforutonomousdriving,andofersanin-depthelucidationofitskeyompoents.ThispaprsystematicallalyesXAItechologiesfoutoomousdriving,isussstetallenges,andlooksforwardtothefutureresearchdirection,hopingtoprovideguidanceandreferenceforthefuturedevelopmentofau tonomous driving and XAI.
Key words:Autonomous driving;ExplainableArtificial Inteligence(XAI);Technical framework;Black box
1前言
以深度學習為代表的人工智能技術(shù)是自動駕駛領(lǐng)域的核心技術(shù)。深度學習構(gòu)建了模擬人腦學習機制的深度神經(jīng)網(wǎng)絡(luò)模型,具備數(shù)據(jù)驅(qū)動的高維特征學習能力,已在目標檢測、路徑規(guī)劃等自動駕駛?cè)蝿?wù)中展現(xiàn)了與人類相當甚至更好的性能[1]。
人工智能技術(shù)雖然在自動駕駛領(lǐng)域取得了廣泛的認同,但它依然受到了一些質(zhì)疑,其中絕大部分質(zhì)疑都聚焦于人工智能技術(shù)的黑箱問題。人工智能技術(shù)是典型的黑箱模型,很難對其內(nèi)部工作原理進行深入的洞察和分析,這導(dǎo)致當人工智能技術(shù)在實際運行中出現(xiàn)錯誤時,錯誤點識別的難度陡然增加。在自動駕駛領(lǐng)域,安全穩(wěn)定的系統(tǒng)是極為重要的,它將會影響交通參與者的生命和財產(chǎn)安全。然而,人工智能技術(shù)的黑箱性質(zhì)給自動駕駛的安全應(yīng)用帶來了巨大挑戰(zhàn)。
面對該挑戰(zhàn),學界和產(chǎn)業(yè)界人士已提出一些措施來緩解安全問題。例如,文獻[2]提出具有充分理由的數(shù)據(jù)采集方案,但該方案在確保充分安全方面是否足夠仍然是一個懸而未決的問題;功能安全標準IS026262雖得到了普遍認可[3],但并不是明確針對數(shù)據(jù)驅(qū)動的人工智能系統(tǒng)及其獨特的特性而制定的;預(yù)期功能安全標準ISO21448可以應(yīng)用于基于人工智能技術(shù)的自動駕駛功能[4],但相關(guān)原則和內(nèi)容依然不夠清晰和完善。與自動駕駛領(lǐng)域日益涌現(xiàn)的人工智能新技術(shù)相比,人工智能技術(shù)所帶來的自動駕駛安全問題研究和探索仍極度缺乏。
可解釋人工智能(ExplainableArtificial Intelligence,XAI)是解決上述問題的潛在有效方法。可解釋人工智能技術(shù)可以為人工智能系統(tǒng)的行為提供人類可理解的見解[5],從而使自動駕駛相關(guān)參與方受益。可解釋人工智能技術(shù)能夠為人工智能開發(fā)人員提供識別和調(diào)試故障的重要工具[6]。可解釋人工智能技術(shù)能夠幫助汽車用戶根據(jù)自動駕駛汽車的實際表現(xiàn)校準他們對自動駕駛系統(tǒng)的信任度,有效避免自動駕駛功能的閑置和濫用[7]。可解釋人工智能技術(shù)也能夠幫助政府監(jiān)管機構(gòu)和保險公司實現(xiàn)事故可追溯性,從而更準確地評估相關(guān)責任[8]。隨著自動駕駛系統(tǒng)在未來的逐漸普及,可解釋人工智能技術(shù)將在未來保障汽車行駛安全中扮演更加重要的角色。
為此,本文對面向自動駕駛的可解釋人工智能技術(shù)進行了系統(tǒng)性的研究。基于可解釋人工智能研究現(xiàn)狀,闡述了面向自動駕駛的可解釋人工智能定義,并剖析了相關(guān)案例。同時,深入介紹了面向自動駕駛的可解釋人工智能技術(shù)框架和核心組成部分。最后,討論了當前存在的挑戰(zhàn),展望了未來的研究方向。
2面向自動駕駛的可解釋人工智能定義
當前,可解釋人工智能研究尚處于初級階段,尚未有統(tǒng)一的定義。文獻[9]將可解釋人工智能描述為衡量人類對人工智能學習模型所做決策背后原因的理解程度。文獻[10]將可解釋人工智能定義為人類可以從人工智能系統(tǒng)獲得其預(yù)測的決策依據(jù)和推斷,從而打破人工智能黑盒子,進而建立用戶與人工智能系統(tǒng)之間的信任。為了推動可解釋人工智能深人研究和應(yīng)用,我國于2022年提出了“可解釋、可通用的下一代人工智能方法”重大研究計劃,意在突破以深度學習為代表的人工智能算法黑箱現(xiàn)狀,以建立匹配不同領(lǐng)域的相關(guān)方法體系[11]。由上述可看出,可解釋人工智能技術(shù)雖然還未完全成熟,但核心理念在于瓦解人工智能算法黑箱壁壘,構(gòu)建用戶與人工智能系統(tǒng)充分信任。
最近,自動駕駛技術(shù)不斷取得重大突破。端到端自動駕駛[12]正逐漸成為自動駕駛領(lǐng)域主流技術(shù)方案之一。端到端自動駕駛將感知、預(yù)測和規(guī)劃等任務(wù)整合到統(tǒng)一的深度神經(jīng)網(wǎng)絡(luò)模型中,實現(xiàn)傳感器信號輸入后模型直接輸出車輛期望軌跡或期望動作。深度神經(jīng)網(wǎng)絡(luò)模型的表現(xiàn)將直接決定自動駕駛車輛的安全性。因此,面向自動駕駛的可解釋人工智能技術(shù)在當前自動駕駛最新發(fā)展變化下顯得尤為重要。
鑒于此,如圖1所示,本文將面向自動駕駛的可解釋人工智能技術(shù)闡述為:一種可以及時提供自動駕駛系統(tǒng)在不同交通場景下的行動決策解釋性信息從而保證系統(tǒng)決策在可接受的安全水平的人工智能技術(shù)。面向自動駕駛的可解釋人工智能技術(shù)主要目標為增強交通參與者對基于人工智能的自動駕駛系統(tǒng)的理解和信任,提升系統(tǒng)透明度,并賦予系統(tǒng)決策的可審查性和可問責性。

3面向自動駕駛的可解釋人工智能案例分析
面對自動駕駛對可解釋人工智能的迫切需求,不少學者已開始相關(guān)研究。隨著大語言模型技術(shù)取得顯著進展,文獻[13]作為面向自動駕駛的可解釋人工智能技術(shù)最新研究成果,介紹了一種基于多模態(tài)大模型的自動駕駛可解釋人工智能技術(shù)。如圖2所示,該技術(shù)充分利用多模態(tài)大語言模型對圖像和文本的強大理解能力,在輸出自動駕駛所需的車輛控制信號基礎(chǔ)上,能夠以擬人化語言描述自動駕駛系統(tǒng)當前所實施的動作和理由,從而一定程度上消解了自動駕駛中人工智能算法的黑箱特性,賦予了自動駕駛系統(tǒng)的可解釋性。
用戶問題 當前么在干么? 車速、方向盤轉(zhuǎn)角等。 期望的控制信號,例如 車輛制多模態(tài)大語言模型但需指出的是,單純依賴多模態(tài)大模型的研究難以構(gòu)建全面的面向自動駕駛的可解釋人工智能技術(shù)。多模態(tài)大模型的性能優(yōu)劣本身取決于海量數(shù)據(jù)的訓(xùn)練。如何構(gòu)建高品質(zhì)自動駕駛數(shù)據(jù)集是實現(xiàn)自動駕駛可解釋性的重要前提。此外,近期自動駕駛事故頻發(fā),正日益凸顯制度保障在自動駕駛汽車運行安全中的重要性,這也已成為社會普遍共識。制度保障是實現(xiàn)自動駕駛可解釋性的重要支撐。綜上所述,如何系統(tǒng)性完整構(gòu)建面向自動駕駛的可解釋人工智能技術(shù)依然是當前亟待解決的重要難點和痛點問題。
4面向自動駕駛的可解釋人工智能技術(shù)框架
如圖3所示,本文給出了一種面向自動駕駛的可解釋人工智能技術(shù)框架,該框架主要由數(shù)據(jù)治理、模型解釋和制度保障三部分組成。數(shù)據(jù)治理實現(xiàn)數(shù)據(jù)的有效管理,持續(xù)驅(qū)動人工智能模型迭代優(yōu)化。模型解釋是可解釋人工智能技術(shù)的核心,主要由自動駕駛系統(tǒng)、通用模型解釋方法和解釋大模型組成。通用模型解釋方法對自動駕駛系統(tǒng)所涉及的人工智能模型進行特征因素分析,實現(xiàn)模型精準化解釋。解釋大模型是用戶與可解釋人工智能的主要橋梁,實現(xiàn)人工智能擬人化解釋輸出。制度保障是技術(shù)長期穩(wěn)定發(fā)展的關(guān)鍵前提。

4.1數(shù)據(jù)治理
數(shù)據(jù)治理是指對自動駕駛系統(tǒng)涉及的數(shù)據(jù)進行合理管理。數(shù)據(jù)治理貫穿數(shù)據(jù)全生命周期,涵蓋數(shù)據(jù)采集、數(shù)據(jù)清洗、數(shù)據(jù)標注、數(shù)據(jù)轉(zhuǎn)換、數(shù)據(jù)集成與數(shù)據(jù)存儲等多個環(huán)節(jié),涉及數(shù)據(jù)標準、數(shù)據(jù)質(zhì)量、數(shù)據(jù)安全、數(shù)據(jù)服務(wù)等多項內(nèi)容。
數(shù)據(jù)是構(gòu)建人工智能算法的前提和基石。自動駕駛作為當前人工智能算法的前沿應(yīng)用領(lǐng)域,也伴隨著海量多樣的數(shù)據(jù)。以小鵬汽車為例,其于2024年5月披露的端到端自動駕駛訓(xùn)練數(shù)據(jù)已達到10億 km 。自動駕駛數(shù)據(jù)采集傳感器包含多個類型,包括且不限于RGB攝像頭、紅外攝像頭、激光雷達、毫米波雷達、超聲波雷達等[14]。自動駕駛數(shù)據(jù)涉及環(huán)境感知、場景建圖、軌跡預(yù)測與規(guī)劃等多項任務(wù)。因此,合理的數(shù)據(jù)治理對自動駕駛和人工智能算法是不可或缺的。
數(shù)據(jù)質(zhì)量直接決定了人工智能算法的優(yōu)劣,從而影響自動駕駛系統(tǒng)的實際性能表現(xiàn)。為此,數(shù)據(jù)治理應(yīng)具備以下能力:
a.敏感數(shù)據(jù)保護。自動駕駛數(shù)據(jù)往往會涉及不少敏感數(shù)據(jù),例如用戶人臉、車牌信息等個人隱私數(shù)據(jù)。除個人數(shù)據(jù)外,自動駕駛數(shù)據(jù)也難免包含部分涉及國家安全信息的內(nèi)容。因此,數(shù)據(jù)的脫敏加密是數(shù)據(jù)治理極為重要的能力。
b.數(shù)據(jù)準確保障。自動駕駛數(shù)據(jù)的真實與準確是人工智能算法正確構(gòu)建的前提。基于規(guī)則的邏輯檢查和多方驗證能夠有效識別錯誤和無效數(shù)據(jù),是保障自動駕駛數(shù)據(jù)準確性的重要手段。
c.數(shù)據(jù)及時傳輸。自動駕駛數(shù)據(jù)類型多,數(shù)據(jù)量大,需要及時的采集和存儲。對于多傳感器數(shù)據(jù),還需進行準確的時間匹配。合適的數(shù)據(jù)處理、存儲和匹配策略能夠保證數(shù)據(jù)的快速采集和真實可用。
d.數(shù)據(jù)標準化。自動駕駛系統(tǒng)是一個持續(xù)迭代進化的系統(tǒng),相關(guān)數(shù)據(jù)也會持續(xù)不斷采集。為此,標準化的數(shù)據(jù)定義和格式是支撐自動駕駛系統(tǒng)快速迭代的支柱。
e.數(shù)據(jù)公平。為了避免人工智能算法潛在的偏見行為,基于多樣且合理數(shù)量的數(shù)據(jù)對人工智能模型進行訓(xùn)練是極為必要的,可有效防止人種、性別等相關(guān)歧視行為。
4.2模型解釋
模型解釋是指增強自動駕駛系統(tǒng)所涉及的人工智能模型的透明度,以便自動駕駛系統(tǒng)所做的決策能夠被理解。上述人工智能模型包括涉及自動駕駛環(huán)境感知、決策規(guī)劃和整車控制等所有環(huán)節(jié)的所有人工智能模型。
自動駕駛汽車所處的交通環(huán)境是復(fù)雜多變的,并且會隨著時間和空間的變化而變化。人工智能模型不僅需要對汽車物理駕駛條件的變化具有魯棒性,包括且不限于不同的天氣條件、零部件磨損等,而且還需要對其他道路交通參與者行為的變化具有魯棒性,包括且不限于行人、鄰道汽車等。此外,政府監(jiān)管機構(gòu)和保險機構(gòu)也能夠透明地認證和審查自動駕駛系統(tǒng),以便厘清潛在交通事故的復(fù)雜責任關(guān)系。模型解釋通過對人工智能模型決策輸出的及時說明解釋,提高了模型透明度,是應(yīng)對上述要求和挑戰(zhàn)的有效方法。
模型解釋決定了人工智能模型的透明度,是保障自動駕駛汽車安全運行的核心基石。模型解釋應(yīng)具備以下能力:
a.完備的理解。當自動駕駛車輛行駛時,保證安全的行駛距離以避免交通事故發(fā)生是極為重要的問題。面對這個問題,僅考慮本車運行是遠遠不夠的,還需考慮其他交通參與者的可能行動。為此,模型解釋不僅需要涉及本車決策,還需對其他交通參與者,包括車輛、行人等,進行未來可能行動的預(yù)測和解釋。對交通場景的完備理解是保障交通安全的核心前提。
b.合理的獎勵。人工智能模型訓(xùn)練流程可看作在一個人為設(shè)定的獎勵函數(shù)下通過多次獎懲以得到一個表現(xiàn)較佳的模型。合理的獎勵函數(shù)蘊含了人類對合理駕駛行為的理解,從而使人工智能模型呈現(xiàn)與人一致的相關(guān)決策。特別是當前,自動駕駛系統(tǒng)正進化為一個具有自適應(yīng)學習并具有強泛化能力的智能體,其獎勵函數(shù)的制定必須考慮到未來更加長遠的應(yīng)用場景,不局限于短期的安全駕駛目標。
c.魯棒的性能。交通環(huán)境復(fù)雜多樣,具有海量的邊界案例,全面完整的數(shù)據(jù)采集并不現(xiàn)實。高昂的數(shù)據(jù)采集成本也給真實數(shù)據(jù)采集增加不少阻力。仿真環(huán)境和合成數(shù)據(jù)的選用成為了選項之一。從仿真環(huán)境中完美遷移到真實道路場景一直都是學界和產(chǎn)業(yè)界的關(guān)注熱點。真實數(shù)據(jù)與仿真數(shù)據(jù)的合理平衡是目前確保人工智能魯棒性能和自動駕駛系統(tǒng)安全運行的有效途徑。
模型解釋作為面向自動駕駛的可解釋人工智能核心要素,實現(xiàn)模型不同特征因素的精細化解釋,主要包括以下技術(shù):
a.LIME方法[15]:該方法通過在選定的樣本點周圍生成新的樣本點,并使用新樣本點和黑箱模型的預(yù)測值來訓(xùn)練一個可解釋的模型;該方法主要為局部解釋復(fù)雜的人工智能模型,且是一種與模型無關(guān)的方法,可應(yīng)用于任何人工智能模型。
b.SHAP方法[15]:該方法借用了博弈論中的 Shapley值概念,核心思想是計算不同特征對模型輸出的邊際責獻,從而對黑盒模型進行解釋;該方法以公平性和一致性的理論保證而被廣泛認可,可應(yīng)用于幾乎任何人工智能模型。
c.Grad-CAM方法[16]:該方法利用熱力圖的方式實現(xiàn)深度神經(jīng)網(wǎng)絡(luò)預(yù)測過程的可視化,從而能更好地理解深度神經(jīng)網(wǎng)絡(luò);該方法主要針對卷積類神經(jīng)網(wǎng)絡(luò)。
d.LRP方法[17]:該方法基于梯度反向傳播過程分析不同輸入特征對網(wǎng)絡(luò)輸出的影響,從而實現(xiàn)黑盒模型解釋;該方法主要針對分層架構(gòu)網(wǎng)絡(luò)進行解釋。
4.3制度保障
隨著人工智能技術(shù)的快速迭代與進步,人工智能黑箱問題已成為未來自動駕駛?cè)嫫占暗闹饕系K。為解決該問題,除應(yīng)用上述可解釋人工智能技術(shù)外,相應(yīng)的制度構(gòu)建和保障也不可或缺。人工智能可解釋相關(guān)制度是自動駕駛系統(tǒng)研發(fā)和落地踐行以人為本的體現(xiàn),是建立人工智能系統(tǒng)與各利益相關(guān)主體之間信任的必經(jīng)路徑,是避免人工智能系統(tǒng)誤用濫用和維護相關(guān)方合法權(quán)利的有效手段。
面向自動駕駛的人工智能可解釋相關(guān)制度應(yīng)以層次化體系建設(shè),以滿足不同維度需求。自動駕駛場景復(fù)雜,不同的利益相關(guān)者眾多,人工智能模型解釋需求多樣。例如,監(jiān)管者需要及時獲悉人工智能系統(tǒng)是否有潛在的安全風險,避免相應(yīng)事故發(fā)生;使用者有權(quán)利了解人工智能系統(tǒng)基本運行原理從而建立合理預(yù)期,維護自身安全;開發(fā)者通過對人工智能系統(tǒng)更深入的理解可持續(xù)優(yōu)化模型設(shè)計和開發(fā),不斷提升系統(tǒng)可靠性。為此,應(yīng)根據(jù)不同利益相關(guān)者的專業(yè)背景和目標,基于不同相關(guān)者的實際需求,分類制定人工智能可解釋性的強制性制度和倡導(dǎo)性制度,充分考慮權(quán)利與義務(wù)相結(jié)合,保證基本安全的同時,防正因義務(wù)過重而阻礙技術(shù)創(chuàng)新,為人工智能技術(shù)的持續(xù)發(fā)展預(yù)留足夠的空間。
面向自動駕駛的人工智能可解釋相關(guān)制度應(yīng)以動態(tài)化為指導(dǎo)原則,以快速響應(yīng)技術(shù)發(fā)展需求。相較于傳統(tǒng)技術(shù),人工智能技術(shù)的演進速度極為迅速。自動駕駛當前主流的Transformer網(wǎng)絡(luò)結(jié)構(gòu)于2017年才被提出,
2021年就被特斯拉率先應(yīng)用于汽車智能駕駛,隨后國內(nèi)快速跟進并迅速實現(xiàn)量產(chǎn)落地[18]。在當前國內(nèi)外環(huán)境下,人工智能產(chǎn)業(yè)競爭極為激烈,技術(shù)迭代速度迅猛,靜態(tài)化的制度設(shè)計難以適應(yīng)技術(shù)發(fā)展的快速節(jié)奏。為此,應(yīng)動態(tài)化制定人工智能可解釋相關(guān)制度,通過實時技術(shù)跟蹤、應(yīng)用實情監(jiān)測和評估以及海量反饋結(jié)果及時靈活調(diào)整制度內(nèi)容,以響應(yīng)人工智能技術(shù)發(fā)展和應(yīng)用的實際需要。
5挑戰(zhàn)與展望
自動駕駛技術(shù)已取得令人鼓舞的成果,但可解釋人工智能技術(shù)仍處于初級階段,許多挑戰(zhàn)亟待解決。
當前,可解釋人工智能技術(shù)雖已獲得諸多成果,但相關(guān)方法的穩(wěn)定性尚待探究,仍需要理論基礎(chǔ)更為夯實的相關(guān)方法。為此,深入挖掘可解釋人工智能的理論基礎(chǔ),特別是從數(shù)學、統(tǒng)計學和物理學等多學科角度,探索其底層原理和機制,是面向自動駕駛可解釋人工智能技術(shù)研究的未來重要方向。
自動駕駛場景的復(fù)雜多變性將導(dǎo)致不同場景對可解釋人工智能的理解和要求存在顯著差異。如何在這些多樣化場景中有效評估可解釋人工智能方法的有效性,依然是亟待解決的難題。為此,構(gòu)建規(guī)范統(tǒng)一且多維度的可解釋人工智能評價體系,將是面向自動駕駛可解釋人工智能技術(shù)研究的未來重要方向。
自動駕駛技術(shù)和可解釋人工智能技術(shù)都需要廣泛的跨領(lǐng)域跨國家協(xié)作。然而,由于安全等原因,不同國家的數(shù)據(jù)和技術(shù)共享可能存在嚴格限制,彼此信任缺乏。為此,發(fā)展跨文化人工智能倫理框架,搭建確保個人隱私和國家安全的全球結(jié)構(gòu)化透明交流機制,是面向自動駕駛可解釋人工智能技術(shù)研究的未來重要方向。
6結(jié)語
隨著人工智能技術(shù)迅速發(fā)展,自動駕駛汽車有望成為最早普及的具身智能機器人。面對人工智能模型黑箱問題,可解釋人工智能技術(shù)是保障自動駕駛汽車安全行駛的必備方法。本文立足于可解釋人工智能研究尚不成熟的現(xiàn)狀,闡述了面向自動駕駛的可解釋人工智能定義,深入剖析了相關(guān)案例,并在此基礎(chǔ)上構(gòu)建了面向自動駕駛的可解釋人工智能技術(shù)框架,同時分析了當前的挑戰(zhàn)和未來的研究方向。
參考文獻:
[1] Mathew A,Amudha P,Sivakumari S.Deep learning techniques:anoverview[J].Advanced MachineLearning Technologiesand Applica-tions:Proceedings of AMLTA,2020,2021:599-608.
[2]WillersO,SudholtS,Raafatnia S,etal.Safety concerns and mitigationapproaches regarding the use of deep learning in safety-critical per-ception tasks[C]//ComputerSafety,Reliability,and Security.SAFE-COMP2020 Workshops:DECSoS 2020,DepDevOps2020,USDAI2020,andWAISE 2020,Lisbon,Portugal,September 15,2020,Pro-ceedings39.SpringerInternational Publishing,2020:336-350.
[3]邵廣亞.基于ISO26262的商用車整車控制器設(shè)計[D].南京:南京林業(yè)大學,2024.
[4]李杰.面向預(yù)期功能安全的智能車行為決策算法研究[D].成都:電子科技大學,2022.
[5]Langer M,OsterD,Speith T,etal.What do we want from explainableartificial intelligence(XAI)?- -astakeholderperspective on XAIandaconceptual model guiding interdisciplinary XAI research[J].Ar-tificialIntelligence,2021,296:103473.
[6]Dwivedi R,Dave D,Naik H,et al.ExplainableAI(XAI):core ideas,techniques,and solutions[J].ACM Computing Surveys,2023,55(9):1-33.
[7]WeitzK,Schiller D,SchlagowskiR,etal.“Do you trust me?\"Increas-inguser-trustbyintegratingvirtual agentsin explainableAI interac-tion design[C]//Proceedings of the 19th ACM International Confer-ence on Intelligent Virtual Agents,2019:7-9.
[8]Deeks A.The judicial demand for explainable artificial intelligence[J].ColumbiaLawReview,2019,119(7):1829-1850.
[9]Das S,Agarwal N,Venugopal D,etal.Taxonomy and survey of interpre-table machine learning method[C]/2O2O IEEE Symposium Series onComputational Intelligence(SSCI).IEEE,2020:670-677.
[10]趙延玉,趙曉永,王磊,等.可解釋人工智能研究綜述[J].計算機工程與應(yīng)用,2023,59(14):1-14.
[11]軼名.可解釋、可通用的下一代人工智能方法重大研究計劃2022年度項目指南[J].模式識別與人工智能,2022,35(5):481-482.
[12]陳妍妍,田大新,林椿眄,等.端到端自動駕駛系統(tǒng)研究綜述[J].中國圖象圖形學報,2024,29(11):3216-3237.
[13]Xu Z,ZhangY,XieE,etal.Drivegpt4:interpretable end-to-end au-tonomous driving via large language model[J].IEEE Robotics and Au-tomationLetters,2024.
[14]李弘揚,李陽,王暉杰,等.自動駕駛開源數(shù)據(jù)體系:現(xiàn)狀與未來[J].中國科學:信息科學,2024,54(6):1283-1318.
[15]張林飛.基于LIME和SHAP的可解釋性老年慢性病預(yù)測方法[D].海口:海南大學,2024.
[16]葉欽.基于Grad-CAM的模型解釋方法研究[D].哈爾濱:哈爾濱工程大學,2023.
[17]陳藝元,李建威,邵文澤,等.基于逐層增量分解的深度網(wǎng)絡(luò)神經(jīng)元相關(guān)性解釋方法[J].自動化學報,2024,50(10):2049-2062.
[18]郭俊飛.自動駕駛技術(shù)的現(xiàn)狀與未來發(fā)展趨勢[J].專用汽車,2024(8):46-48.
作者簡介:
邊靖偉,男,1992年生,博士研究生,研究方向為自動駕駛系統(tǒng)、智能座艙系統(tǒng)。
李振鵬(通訊作者),男,1989年生,博士研究生,高級工程師,研究方向為汽車系統(tǒng)設(shè)計、智能駕駛算法、操作系統(tǒng)。
