張成洪,陳 剛,陸 天,黃麗華
1 復旦大學 管理學院,上海 200433 2 卡耐基梅隆大學 約翰·海因茨公共政策與管理學院,賓夕法尼亞 匹茲堡 15213
近年來,人工智能(artificial intelligence,AI)技術的持續創新和廣泛應用,為人們在各領域的生產實踐活動提供了高效的智能化產品支持,極大地推動了人們生活方式的智慧化進程。而大數據時代豐富的數據資源更是催生了AI產業巨大的商業價值,據估算到2021年,全球范圍內針對AI的投資額將從2017年的120億美元增長至522億美元。據數據統計網站Statista分析表明,到2025年,全球AI市場的創收額將從2017年的4 800億美元增長至25 900億美元。然而,近段時間以來,隨著以深度學習算法為代表的“黑箱模型”取得巨大成功,學術界和產業界對增加AI可解釋性的呼聲日益高漲[1]。由此,一個全新的研究領域——可解釋人工智能(explainable artificial intelligence,XAI)應運而生。
可解釋人工智能是一套針對AI系統應用過程生成解釋性內容的技術方案,致力于解決AI系統中由模型可解釋性不足產生的可靠性、透明性、因果性、公平性和安全性等一系列問題[2]。可解釋性的增強為AI模型更加深入和廣泛的應用創造了有利條件,為大數據時代推動AI技術發展、深化AI技術應用、實現良好的人機協同和人機共生提供有利契機。
目前,可解釋人工智能已經受到來自學術界、產業界和相關政府部門的熱切關注,人們對發展可解釋人工智能的需求日益迫切。本研究從分析可解釋人工智能的興起入手,系統總結可解釋人工智能理論研究和方法研究現狀,追蹤可解釋人工智能在不同領域的應用動態;剖析目前可解釋人工智能方法層面和應用層面存在的不足,重點探究可解釋人工智能發展對管理學領域帶來的挑戰;最后,結合管理決策研究,指出未來可解釋人工智能領域的若干關鍵研究問題。圖1給出本研究的總體研究框架。

圖1 研究框架Figure 1 Research Framework
當前,可解釋人工智能概念已在社會各界引發巨大反響。在學術界,2017年國際人工智能聯合會議(international joint conference on artificial intelligence,IJCAI)舉辦了以可解釋人工智能為主題的研討[3];2019年針對可解釋機器學習研究的書籍《Interpretable Machine Learning》出版[4];2019年,人工智能領域期刊《Artificial Intelligence》發表了基于社會科學視角的可解釋人工智能理論研究成果[5]。在產業界,2016年美國國防高級研究計劃局(defense advanced research projects agency,DARPA)發布了可解釋人工智能項目計劃[2];隨后,可解釋人工智能在醫療、金融、交通、軍事、法律和安全等領域的應用陸續展開[6]。在政府方面,2017年1月美國公共政策委員會發布文件闡述了關于算法透明和可責性的7條原則,致力于解決算法帶來的偏見和歧視問題;同年2月,歐盟議會通過決議,就制定《機器人民事法律規則》提出具體建議;同年12月,紐約市議會通過了算法問責法案,以解決算法歧視性問題。然而,目前對可解釋人工智能的研究尚處于起步階段,一方面,研究者對可解釋人工智能缺乏統一的理解,就如何構建可解釋人工智能方案缺乏全面、有效的理論和方法論指導;另一方面,智慧醫療等AI技術應用的前沿業務應用領域已經展現出對可解釋人工智能的迫切需求,如重癥監護病房膿毒癥的準確預測[7]和不良藥物反應預測[8]等。
AI的核心內容是如何讓機器進行人性化的、合理的思考,并合理執行與人類思維相關的活動,如決策、解決問題和學習等[9]。自然語言處理、知識表示、自動推理、機器學習、計算機視覺和人機交互等共同構成了AI技術的核心。與這些技術相關的機器學習模型依靠其強大的學習能力為人們進行復雜任務的決策提供了強大的智能化支持。與此同時,大部分機器學習模型由于自身決策過程無法被觀察和理解,預測結果的準確性和可靠性也難以被判定和把握,因而在可信任性、透明性、安全性和公平性等方面深受AI系統應用者的詬病。
AI模型的可解釋缺陷主要包括:①信任缺陷,模型的黑箱特性使其決策過程難以被調控,模型存在固有偏差和隨機偏差,使預測結果不穩定,難以被信任;②透明性缺陷,模型復雜的學習機制使輸入數據與輸出結果之間的決策流程難以具體化和形象化,這種學習過程的不透明性導致用戶無法理解模型運行狀態的好壞,從而無法對預測結果的準確性做出判斷;③因果性缺陷,模型無法提供對輸入數據與輸出結果之間因果關系的解釋,如利用模型輔助醫療診斷時,當模型的預測結果與領域專家的決策結果發生沖突時,通常需要依靠模型內在的因果邏輯對是否采納、采納何種決策結果做出判定;④公平性缺陷,由于模型對不同目標的預測能力存在不均勻分布,使其在特定目標上的決策結果產生偏移,進而引發一系列公平性問題,如在AI系統的實際應用中,曾經出現過AI模型對人種和性別等造成歧視的案例;⑤可視化缺陷,現有深度學習模型復雜的學習機制使對模型決策過程進行可視化變得異常困難,隨著AI技術應用的推廣和普及,可視化成為幫助大眾用戶理解AI模型的最有效的手段之一,此外,AI技術研究者也需要通過借助可視化方式對模型的學習性能進行調節和改善。伴隨著“無法被理解”的缺陷和隱患,機器學習模型為基于AI系統的決策、應用以及管理AI系統帶來諸多挑戰,甚至造成網絡安全[10]、數據隱私[11]、數據安全[12]、醫療安全[13]和法律安全[14]等方面的損失。
對AI模型進行解釋的現象背后,是人們對AI技術發展方向的思考,是對機器學習模型應用價值的質疑,是對理解機器模型決策過程的訴求[15]。具體來看,可解釋人工智能研究通過回答4個方面的問題,對AI系統可解釋性不足的缺陷進行突破。①是否做(Whether)、誰需要做(Who)和何時做(When)。給定某個AI系統的應用場景時,是否需要增強AI模型的可解釋性,AI模型的學習過程和預測機理是否可以理解,AI模型的預測結果是否可以信任和使用[16];面向誰進行AI模型的解釋,誰需要AI模型的可解釋性[17];AI系統的應用在什么時候需要可解釋,AI模型什么時候可以信任、什么時候需要調節、什么情況下會出錯[5]。②為什么(Why)。可解釋人工智能系統的另一個目標是要告訴用戶為什么是這個結果,為什么不是其他結果,結果為什么正確或為什么錯誤等[2]。③怎么做(How)。AI模型的學習過程是如何進行的,AI模型的預測結果是如何得到的[6]。④做什么(What)。MOLNAR[4]認為,構建可解釋人工智能系統的關鍵是告訴用戶預測結果是什么,即需要為用戶對AI模型的學習結果的理解提供解釋;哪些AI系統的應用場景需要可解釋性,同一應用場景下的預測結果中哪些是可以信任和使用的[18]。
綜合看,可解釋人工智能不僅對AI的可解釋性進行了突破,也為AI的發展產生積極影響。可解釋人工智能的興起催生了一系列可解釋人工智能方法和方案,為構建兼具學習性和可解釋性的AI模型奠定了基礎。因此,有必要梳理可解釋人工智能的相關概念和理論,探究其發展脈絡和趨勢,厘清可解釋人工智能的研究現狀,從而為推動可解釋人工智能的進一步發展提供指引和借鑒。
本研究對已有研究進行梳理,過程如下:首先,對可解釋人工智能的概念進行基本檢索和理解。其次,以基本檢索結果中的重要文獻為支撐依據,確定準確和全面的可解釋人工智能相關檢索關鍵詞。檢索關鍵詞的重要支撐文獻包括4類:①以機器學習透明性[19]和機器學習中的可解釋模型[20]等為主題的可解釋人工智能相關出版書籍;②可解釋人工智能相關綜述性期刊文獻[5];③人工智能領域和深度學習領域重要的國際會議[21](如AAAI等)的論文集中與可解釋人工智能相關的文獻[22];④以可解釋人工智能為主題的國際研討會,如ACM on Conference on Information and Knowledge Management[23]、Explainable Computational Intelligence(XCI)[24]、Workshop on ExplainAble Recommendation and Search(EARS)[25]等。最后,以Explainable Artificial Intelligence(XAI)、Interpretable Artificial Intelligence(IAI)、Explainable Machine Learning(XML)、Interpretable Machine Learning(IML)、Explainable Deep Learning(XDeep)和Interpretable Deep Learning(IDeep)等為搜索關鍵詞,在多個數據庫中進行文獻檢索,最終保留249條結果作為核心文獻。
本研究對可解釋人工智能研究現狀的分析圍繞理論、方法和應用3個層面展開,基于大量已有研究總結了關于可解釋人工智能研究現狀的脈絡框架,見圖2。

圖2 可解釋人工智能研究現狀分析框架Figure 2 Analysis Framework of Research Status Regarding XAI
2.1.1 可解釋人工智能概念研究
可解釋人工智能概念的起源要追溯到2004年,VAN LENT et al.[26]首先運用英文縮寫XAI表示可解釋人工智能,可解釋人工智能的概念由此誕生。然而,VAN LENT et al.[26]對可解釋人工智能的研究僅局限于探討全譜命令(full spectrum command,FSC)系統在軍事仿真和電腦游戲中的應用,這與現在人們對可解釋人工智能的理解存在較大差異。在隨后的幾年里,零星出現了提及可解釋人工智能概念的文獻,研究內容涉及軍事[12]和教育[25]。綜合看,早期的相關研究并未對可解釋人工智能理論和方法的發展提供實質性見解。直至2016年,美國國防高級研究計劃局發布了可解釋人工智能研究計劃,正式拉開了可解釋人工智能快速發展的帷幕。之后的幾年中,可解釋人工智能在人工智能、計算機、人機交互、醫療和金融等多個領域掀起了研究熱潮。
圖3給出本研究收集的可解釋人工智能核心文獻數量隨時間(年份)變化的趨勢,可以看出,2016年是可解釋人工智能研究的“爆發之年”,可解釋人工智能相關文獻數量自2016年起大幅增長,并呈現出逐年增長的態勢,該趨勢從一定程度上反映了可解釋人工智能正逐漸成為AI領域的新主題。同時,本研究通過對收集的文獻進行總結后發現,DARPA發布的可解釋人工智能研究計劃是被引用的熱點文獻,由此可見,“DARPA事件”是引發可解釋人工智能研究熱潮的重要原因之一。

圖3 可解釋人工智能核心文獻收集數量的時間變化趨勢Figure 3 Quantity Changing Trend of Collected Core Literature Concerning XAI Over Time
本研究對收集的文獻進行統計分析發現,已有的大部分可解釋人工智能文獻為會議論文,期刊論文的數量較少,說明目前針對可解釋人工智能的研究尚處于起步階段。分析結果還表明,大部分文獻都集中于可解釋人工智能的理論和應用研究,說明當前對可解釋人工智能方法的研究正處于探索階段。綜合看,目前針對可解釋人工智能的研究方興未艾,研究者對可解釋人工智能的定義也尚未形成統一認識。2016年,DARPA在其可解釋人工智能研究計劃中首次較為完整和明確地闡述了關于AI可解釋性的概念,即一整套能夠產生更多可解釋模型,能夠維持高水平學習性能,能夠使用戶理解、信任和有效管理AI的機器學習技術[2]。在IJCAI出版的可解釋人工智能研討會報告中提到,可解釋人工智能旨在應對來自不透明機器學習模型的挑戰,使這些模型更好地用于解決分析(如分類)或合成(如規劃和設計)等任務[3]。MILLER[5]將可解釋人工智能定位為AI、人機交互、社會科學三者的交叉,并將其描述為一種為自身或其他系統決策過程的潛在原因提供解釋性因素的可解釋代理。在可解釋人工智能的研究中,還出現了一些與可解釋人工智能含義相近的概念,如可解釋機器學習[4]、可解釋深度學習[27]、可解釋推薦系統[17]、可解釋的計算智能[24](explainable computational intelligence,XCI)和可解釋人機交互[19]等。縱觀這些概念,其核心要義都是在給定決策目標的AI系統的應用中,面向用戶生成對機器學習模型的解釋性描述。
可解釋人工智能的目標是對AI系統進行解釋,其構成可以理解為一個由包含AI系統要素在內的多個要素構成的有機整體。GUNNING et al.[2]提出的可解釋人工智能系統包含用戶、學習任務、可解釋模型、可解釋接口和決策結果等模塊;ZHANG et al.[17]基于個性化推薦提出的可解釋人工智能系統包含社會化信息、特征提取、推薦模型構建和推薦結果的解釋等模塊;ESCALANTE et al.[20]提出基于視覺計算的可解釋人工智能系統,包括用戶、模型、可解釋性學習、模型的集成和事后推理等功能模塊;MILLER[5]則從社會科學的角度給出可解釋人工智能的理論框架,即理論、模型、數據、對象實體和各要素之間的解釋性連接關系。
總的來看,①解釋性描述的生成是可解釋人工智能系統的核心模塊,涉及可解釋模型、可解釋性評估和人機交互過程等內容。②機器學習模型是可解釋人工智能的主要解釋目標,其包含從數據處理、特征提取、模型構建到預測結果輸出等多個環節。③AI系統用戶是可解釋人工智能系統面向的對象,包含AI系統的構建者、測試者和終端用戶等。④可解釋人工智能研究是AI研究在可解釋性方面的重要拓展,對于改善AI技術的應用效果、提升人機協同效率和增強人機互信有著重要意義。⑤雖然AI系統與可解釋人工智能系統在構成上都包含數據、模型和決策任務等要素,但AI研究與可解釋人工智能研究有本質區別。從研究目標看,傳統的AI研究注重模型學習性能和預測效果的提升,而可解釋人工智能的核心目標是對AI系統的學習過程和預測結果進行解釋。從研究內容看,AI研究的核心是機器,致力于實現對復雜任務的智能化決策,如自然語言處理、模式識別和機器學習等;而可解釋人工智能以AI系統用戶為主,通過提升算法透明性、因果性、穩定性、安全性和公平性等,實現對傳統AI模型學習過程難理解、預測結果難解釋等缺陷的突破,為用戶更好地信任、理解、管理和應用AI系統開辟全新的視野。由此可見,二者是定義在不同目標和內容框架下的兩種研究范式。
2.1.2 可解釋人工智能中的可解釋類型研究
常見的可解釋人工智能分類依據是可解釋性程度和范圍不同。SHEH et al.[28]將可解釋人工智能劃分為源、深度、范圍3個維度,①源維度是指可解釋性的來源不唯一,有可能來自模型自身的決策過程,也有可能是來自其他的外部模型;②深度維度描述可解釋目標的不同層次,其解釋對象可以是特征,即解釋特征在模型決策中的作用,也可以是模型,即解釋模型如何訓練以及如何生成預測結果;③范圍維度包含兩種,當可解釋目標集中在某個特定的決策過程時,稱之為證明型解釋,否則稱為教學型解釋。LUNDBERG et al.[29]著眼于從機器學習系統中提取有用的語義信息這個學習目標,為可解釋性定義了深度(或程度)和類別兩個維度,深度(或程度)維度考慮模型必須在多大程度上完成決策過程才能生成解釋或滿足可解釋性要求,具體包含對輸入特征的解釋、對特征使用的解釋和對模型的解釋3個方面。類別維度包含多種類型的可解釋,例如,①教學型解釋,將人所掌握的概念和知識遷移到機器,可用的方式包括利用代理生成假設、邏輯規則、對話框和狀態空間的可視化等;②基于反省性信息的解釋,當機器的決定與領域專家的期望之間存在差異時,提供少量的信息,使用戶能夠確認機器決策是否正確,并知道錯誤可能發生的地方;③事后型解釋,引入可解釋模型生成對“黑箱模型”的解釋,而不對“黑箱模型”自身基本的決策過程進行展示等。
針對有些模型自身具備一定可解釋性的情況,研究者將可解釋人工智能的可解釋類型劃分為內部(直接)可解釋和外部(間接)可解釋。模型自身的可解釋性被稱為內部可解釋,如MOLNAR[4]列舉了多種具備自身可解釋性的模型,包括正則化稀疏模型、線性回歸模型、邏輯回歸模型、廣義線性回歸模型、決策樹模型、樸素貝葉斯模型和K近鄰(KNN)模型等;間接可解釋是引入外部代理模型為決策過程提供解釋力,如機器輔助診療決策中引入領域專家,通過運用專家掌握的領域知識對模型的學習過程進行解釋,同時對模型學習結果的合理性進行評判[30]。也有研究者根據可解釋目標和效果的不同將可解釋人工智能劃分為全局可解釋型和局部可解釋型兩類[6],全局可解釋型強調從整體視角出發,對模型的框架和參數進行分析調整,以提高其學習性能[27],如引入透明性算法作為可解釋代理算法,但無法對模型特定和局部的預測結果做出合理解釋;局部可解釋型更專注于單個或局部樣本和特征的預測效果,致力于提供對某個特定預測結果的解釋,如特征重要性評估[31]等。此外,還可根據學習任務的不同將可解釋人工智能理解為基于個性化推薦的解釋、基于特征的解釋、基于文本分析的解釋、基于圖像分類的解釋和基于社交媒體信息等不同場景下的可解釋性生成[17]。表1總結了可解釋人工智能可解釋性的不同類型。

表1 可解釋人工智能可解釋性類型Table 1 Types of XAI′s Interpretability
2.1.3 可解釋人工智能中的可解釋性評價研究
對可解釋人工智能可解釋性的評價,即如何判定一個模型的可解釋性程度大小,可解釋人工智能方案的構建和可解釋性的生成包含哪些具體內容,是當前可解釋人工智能研究關注和探討的熱點。
可解釋性評價指標的作用可歸結為對模型(算法)可解釋性能的評價和對模型應用效果的評價兩個層面。在模型可解釋性評價方面,MOLNAR[4]為機器學習模型學習性能和可解釋性的測量定義了5種指標,①公平性,預測過程和預測結果是否刻意偏向于某組對象;②安全性或隱私性,模型是否能夠保障敏感信息的安全;③可靠性或魯棒性,輸入數據的微小變化是否引起模型預測結果穩定性的變化;④因果性,模型學習過程中的因果關系是否易于理解;⑤可信任程度,模型學習結果是否可以信賴。模型應用效果的評價主要是對安全性和公平性進行考量,即模型的應用是否給用戶帶來安全隱患和公平性挑戰[32]。
研究者對模型可解釋性的評價涉及多個維度,HAGRAS[18]從人機交互的角度,將AI的可解釋性定義為準確性、因果性、透明性、公平性和安全性,準確性為定量指標,因果性、透明性、公平性和安全性為定性指標。MILLER[5]從社會心理學角度定義了5種定性的可解釋性指標,包括:①因果關系,即兩個事件互為因果,并且可以通過干預原因事件實現對結果事件的變動;②解釋,即認知過程中對事件原因的識別和對所得結果的解釋,以及社交過程中解釋者與被解釋者之間的知識遷移;③對疑問的回答結果,如是什么、為什么、怎樣、是否等問題;④推理的解釋,觀察事件、做出假設、判斷假設的合理性、選擇最優的假設作為最終的解釋(因果模型);⑤解釋力和合理性,解釋力負責對決策過程進行解釋,合理性提供對決策好壞的說明。此外,可視化也被認為是評價可解釋性的重要方面,通過可視化方法將深度學習的網絡學習過程和學習結果的解釋和分析形象化。例如,建立可視化分析范式,從而有效評估模型驅動分析系統中人為干預的潛在后果[33];探究視覺分析對深度學習方法研究的影響[34];基于可視化分析和信息可視化視角分析機器學習的可解釋性[35]。
綜合已有的可解釋人工智能理論研究可知,①從定義角度,可解釋人工智能的核心內容是在保持機器學習優良性能的基礎上,進一步為用戶提供更高程度的對機器決策過程和決策結果的解釋,進而為人類信任和管理AI系統提供決策支持。②從可解釋人工智能系統的構成方面,一個完整的可解釋人工智能系統應包含用戶、數據、模型、決策任務和可解釋性生成模塊,其中對可解釋性的生成和描述是可解釋人工智能系統區別于AI系統的顯著特征。③針對可解釋人工智能中可解釋性的評價,本研究提出一般性指標框架,見表2。同時,從各評價指標相關的統計分析研究中可以明顯看出,在可解釋人工智能領域,人們關注的核心已不僅是模型的準確性,模型的可靠性、因果性和透明性等指標正在發展成為衡量AI系統性能優劣的新的重要指標。

表2 可解釋人工智能可解釋性評價指標Table 2 Evaluation Indicators of XAI′s Interpretability
可解釋人工智能方法研究是提高模型穩定性和透明性的根本途徑之一,是保障模型在應用中的安全性和公平性的重要手段,只有借助可解釋人工智能方法,用戶才能更好地理解和判斷模型的內在運行邏輯,進而管控和信任模型的表現。AI模型可解釋性的生成途徑并不唯一,可以通過引入理論模型,對機器行為的因果關系進行理解和認知;可以改進機器學習模型本身,提高算法的透明性;也可以使用外部知識推理模型,以特定的歸納或演繹策略對模型的復雜過程進行推斷,使其形象化和可觀測。因此,本研究將對可解釋人工智能方法的分析劃分為理論模型、機器學習和知識推理3個方面。
2.2.1 基于理論模型的可解釋人工智能方法研究
基于理論模型的可解釋人工智能方法是在行為和認知等理論的驅動下,基于一系列用戶行為假設,對模型內部存在的因果邏輯關系進行抽象,使模型的關鍵概念、屬性和結構等顯性化,從而更易被用戶感知和理解。該類可解釋人工智能方法主要目標是提高模型可解釋性指標中的因果性,本研究對已有研究中常見的基于理論模型的可解釋人工智能方案進行梳理,總結如下:
(1)可解釋系統和框架
可解釋系統和框架的目標并不是提出某個可解釋模型,而是通過建立一個由多種模塊或組件構成的統一的理論框架或系統來滿足用戶對模型可解釋性的需求,這樣的可解釋人工智能系統中通常包含系統發布者、終端系統用戶、領域知識、學習模型、人機交互接口和解釋性推理等模塊[37]。
(2)基于概念模型的可解釋人工智能方案
通過對機器的學習目標、學習過程和學習結果等進行抽象,繪制出概念模型圖,進而對模型中的關鍵概念、重要屬性以及學習過程與預測結果的關聯關系等提供解釋。例如,DORAN et al.[38]構建基于概念模型的可解釋人工智能方案對可理解性、可解釋性和透明性的屬性以及三者之間的連接關系進行抽象。
(3)基于認知模型的可解釋人工智能方案
描繪模型對輸入特征的感知過程,以及用戶對模型學習經過和輸出結果的感知過程,該方案的核心在于回答為什么、是什么、如何等問題。例如,NEERINCX et al.[39]構建基于感知模型的可解釋人工智能系統,基于反事實衡量人機交互中AI系統對用戶行為感知的可信程度。
(4)基于因果模型的可解釋人工智能方案
通過在模型的輸入數據與輸出結果之間建立對應關系,進而對模型內在的因果邏輯作出解釋。例如,ESCALANTE et al.[20]構建因果生成式神經網絡模型,該方法通過對生成樣本與觀測樣本之間的最大平均誤差進行建模,以二者的聯合分布概率最大化為目標學習得到生成式模型,為用戶從“原因到結果”的推斷提供了可解釋性決策支持;KLEIN[16]運用因果模型,通過原因因素的影響力得分和可逆性得分(反映消除這一原因的容易程度),判斷其對學習結果的影響程度,從而簡化了對復雜模型學習過程的理解。
(5)基于心智模型的可解釋人工智能方案
通過應用領域專家的主觀經驗或知識,對用戶如何進行功能性推理(理解機器做什么)和結構性推理(理解機器是如何工作的)做出解釋。例如,GARCIA et al.[40]在不同決策場景下運用Likert 7點評分法測量用戶內在的推理過程,以此作為生成模型可解釋性的依據。
2.2.2 基于機器學習的可解釋人工智能方法研究
基于機器學習的可解釋人工智能方法的主要思想是引入具備一定可解釋性的外部模型,或通過二次建模(學習)的方式生成對模型的解釋性內容,其核心目標是提高算法的透明性,使其能夠被用戶理解。顯然,該類可解釋人工智能方法與機器學習方法之間存在對應關系。目前,研究者對機器學習模型的可解釋性研究主要集中在深度學習模型[41]。對深度學習模型可解釋性的研究涵蓋了卷積神經網絡(CNN)[42]、多層感知網絡(MLP)[43]、循環神經網絡(RNN)[44]、深度信念網絡(DBN)和自編碼機網絡(AE)[45]等多種網絡。本研究將基于深度學習的可解釋人工智能方法總結為3類。
(1)基于定性解釋的方法
以定性描述或定性探測的方式解釋網絡的內部結構,如參數傳播路徑、數據的輸入、隱含層的激活狀態和結果的輸出等。ZHANG et al.[25]認為,對深度神經網絡的解釋應當是一種由用戶驅動生成的解釋路徑,即用戶對深層網絡如何工作進行解釋,無需打開整個底層網絡,對連接權重、隱含層和特征矩陣等進行解釋。具體的解釋方案包括:①伴隨變動。通過改變某個輸入變量確定其對結果產生的影響,并以此探究二者之間潛在的因果關系,如用戶將圖片的某個區域輸入到卷積神經網絡特定的卷積過濾中,觀察分類結果的變化,由此可以判斷出該區域是否為網絡提供判別信息。②基于一致性的方法。結合用戶知識,對深度網絡進行自上而下的檢查,如某個圖片在輸出層的類別被預測為鳥,則可以人為判定由中間過程產生的裁剪特征中是否有人類可理解的關于鳥的信息,如喙、翅膀、眼睛和腳等。③基于分歧的方法。對深度網絡進行自下而上的檢查,用戶可以將某個網絡已能正確分類的圖片(設類別為1)與其他某個圖片(設類別為2)進行拼接,形成一張新的圖片后輸入網絡,如果該網絡仍將新圖片分類為1,則考慮其對何種信息進行忽略,如果將新圖片分類為2,則考慮其對何種信息進行利用。④基于調節的方法。對網絡進行投射測試,如對圖片數據進行變形、添加噪聲和平滑等,使網絡具備對未學習目標的分類能力。
(2)基于定量解釋的方法
對網絡中的輸入、隱含層、輸出和傳播關系進行定量測評,以理解網絡學習過程與輸出結果的關系。層相關性傳播(layer-wise relevance propagation,LRP)算法是此類可解釋方法的重要代表[46],該方法對深度網絡在樣本上的預測結果進行逆向分解,得到其與單個輸入維度(如圖像的子像素)的相關度分數。通過這種方式,用戶能夠借助輸入的相關度分數判斷網絡分類過程的合理性,即判斷網絡是依據哪些輸入(區域)做出的決策,以圖像輸入為例,其輸入像素的相關度分數常以熱力圖的形式呈現。在MONTAVON et al.[47]提出的可解釋CNN模型中,從輸出層開始,將輸出類別通過激活函數進行反向映射,將卷積特征逆向映射到輸入空間,進而得到每一個類別的主導反射路徑及其在輸入空間中對應的專注性響應區域,以此實現對網絡預測機制的理解。
(3)基于可視化解釋的方法
可視化是一種簡單通俗的深度學習可解釋方法。CHOO et al.[35]總結了可視化技術在深度學習中的應用,并提出基于可視化的可解釋深度學習方案,包括外部知識的注入,應用基于外部專家的交互式逐步可視化方法調節深度學習訓練過程中出現的偏差,基于專家知識對深度學習的輸出結果進行交互式指導(用戶驅動的生成模型)等。在利用循環神經網絡預測患者狀態時,KWON et al.[44]基于可視化提出交互式深度學習模型,實現了模型與領域專家的交互,為預測過程提供了合理的解釋和指導;HOHMAN et al.[34]以用戶為中心,提出基于可視化的深度學習問詢框架,即以深度學習可視化為核心的“6W”框架。具體包括:①Why:為什么使用深度學習可視化,用于對模型的調試和改進、模型的對比和選擇、深度學習的概念教學等提供可解釋性。②What:深度網絡中什么樣的數據、特征和關系能夠被可視化,計算路徑、網絡結構、模型參數和神經元等元素的可視化。③When:何時需要用到深度學習可視化,訓練過程中和訓練完后。④Who:誰能夠使用或得益于深度學習可視化,模型的構建者、模型的使用者和非領域專家用戶。⑤How:如何對深度學習進行可視化,通過節點連接、散點圖、特征降維方法、折線圖、交互式實驗和特征的可視化算法等。⑥Where:深度學習可視化用在什么地方,學術研究領域和業務應用領域。
2.2.3 基于知識推理的可解釋人工智能方法研究
基于知識推理的可解釋人工智能方法是面向AI系統應用,基于擬人化的推理方式,借助已有的概念化知識,以特定的歸納或演繹策略對機器模型復雜的訓練和預測過程進行理解,使原本不可解釋的模型變得可觀測。該類方法主要的可解釋目標是實現對模型過程的可視化。在可解釋人工智能方法的構建中,常被用到的知識推理模型有知識圖譜、案例推理和模糊推斷等。SILVA et al.[21]在由自然語言詞典定義組成的圖知識庫中引入一種基于詞嵌入方法的導航算法,對圖知識庫中概念之間的連接關系進行搜尋,以此為用戶提供可解釋的語義關系識別結果;FUJI et al.[48]將深度張量與知識圖譜相結合,以此識別和觀測深度結構中的可推斷性因素;LAMY et al.[49]的研究結合定量可視化和定性可視化兩個視角,提出一種基于案例推理(case-based reasoning,CBR)的可解釋方法,該方法利用可視化接口對相似案例的查詢結果以及結果之間的相似度在用戶界面中進行顯示,為用戶的查詢和推理提供可解釋依據;FERNANDEZ et al.[50]根據Why、When、What for和Where to提出基于進化模糊系統的可解釋人工智能方案,并論證了模糊邏輯方法對于構建可解釋人工智能系統的意義,即能夠有效解釋復雜模型中的不確定問題,雖然解釋可能是模糊(不夠精確)的,但足以被用戶采納和接受。
2.2.4 可解釋人工智能方法研究現狀總結
圖4給出對已有可解釋人工智能方法研究進行分類的分析。由圖4(a)可知,目前研究者對可解釋人工智能方案的構建主要基于機器學習、理論模型和知識推理3類方法,基于機器學習的可解釋人工智能方法占據主導地位,占被調查的可解釋人工智能方法研究類數量的68%。這3類方法針對AI模型生成的可解釋性具有不同特點,基于機器學習的可解釋人工智能方案通過定量分析和精準(二次)學習的方式增強原始模型決策過程的透明性,基于理論模型的可解釋人工智能方案更加注重用戶對模型內在因果關系的感知、體驗和理解,基于知識推理的可解釋人工智能方案強調依靠知識(經驗)的歸納和演繹使復雜的模型邏輯顯性化。3種類型的可解釋方案相互協調,滿足不同用戶對可解釋性差異化的需求,共同促進人機協同,增進人機互信。
由圖4(b)可知,在基于機器學習的可解釋人工智能方法中,分類模型的應用最為廣泛,占比為88%,這與分類模型在AI系統中的廣泛應用密切相關。由圖4(c)可知,在基于分類模型的可解釋人工智能方法研究中,近半數研究都聚焦于深度學習模型的可解釋性,在對已有的可解釋深度學習的研究進行分析和總結后發現,研究者提出的深度學習可解釋方案主要是針對卷積神經網絡(圖像識別的可解釋)。以本研究調查的可解釋性深度學習相關研究為例,與可解釋性卷積神經網絡相關的研究數量占比達到43.55%。此外,由于規則模型和概率模型自身具備良好的可解釋性能,在可解釋人工智能方法的構建中也有廣泛應用。由圖4(d)可知,在基于知識推理的可解釋人工智能方法中,知識圖譜受到研究者的廣泛青睞,占被調查研究的44%,其與機器學習的結合在可解釋人工智能的發展中呈現出良好的發展前景。表3對可解釋人工智能方法的研究進行總結,其中列舉了最為核心的4種可解釋指標。

表3 可解釋人工智能方法研究Table 3 Research of XAI′s Methodology

圖4 可解釋人工智能方法研究分類分析Figure 4 Category Analysis on XAI′s Methodology
目前,學術界和產業界對可解釋人工智能的應用需求日益增長。學術研究領域對于可解釋人工智能的需求主要集中在模型的準確性和穩定性方面,研究者希望通過可解釋方案的探索和運用,對模型性能的了解更加明確、清晰,進而獲得更加準確和穩定可靠的模型表現。可解釋人工智能在業務應用領域的需求主要體現在安全性和公平性兩個方面,AI系統用戶希望借助可解釋人工智能,實現對模型更加精準的操控和管理,從而消除其在使用過程中存在的隱患,降低可能造成的損失。本研究對可解釋人工智能在學術研究領域和業務應用領域的應用分別進行分析,結果見圖5。

(a)XAI在學術研究領域中的應用 (b)XAI在業務應用領域中的應用
由圖5(a)可知,可解釋人工智能在視覺計算領域的研究和應用較為廣泛,這與模式識別已經成為當前AI發展的核心和前沿技術的事實是分不開的。在已有研究中,大部分深度學習模型的可解釋方法都是針對卷積神經網絡構建的,研究者對卷積神經網絡進行解釋最直接的目標便是獲得準確性和穩定性,準確性保證了模型在圖像識別中的有用性,穩定性保證了模型在實際動態變換的決策任務面前依然是可用的,可以發揮其準確的預測和識別功能。例如,層相關性傳播[46]、網絡測試和網絡調節[25]等可解釋方法的應用,其核心目標并不是測量模型對圖片分類的準確程度,而是通過在已具備預測能力的網絡上進行二次學習,確認網絡對圖片的分類過程是真正合理、可靠的,這樣經過用戶理解和判斷之后的網絡,其精確的分類性能才能被用戶信任。另一類可解釋人工智能領域的研究熱點為自然語言處理,因為文本處理和語義分析等學習任務天然面臨不確定性較大、模糊性較強等挑戰,因此它們對可解釋性的需求也較為明顯。不僅如此,可解釋人工智能在推薦系統領域也受到相當程度的重視,互聯網時代,各類社交平臺(社交媒體)和網絡零售平臺的繁榮在一定程度上推動了基于個性化推薦的可解釋人工智能研究的發展。此外,視覺計算、NLP、推薦系統、情感分析、異常檢測和語音識別等學術研究領域也陸續開始對可解釋人工智能的研究。
由圖5(b)可知,從業務應用的角度看,雖然人機交互、教育、交通、金融、法律和軍事等領域都已經開始對可解釋人工智能系統的應用和探索,但醫療健康領域對可解釋人工智能的需求最為迫切,可解釋人工智能系統的應用對于醫患雙方都有重要意義。一方面,因AI診療系統犯錯而造成的損失對于患者而言是難以承受的,患者必須依靠可解釋人工智能系統提供的可解釋性依據來判斷醫療專家或輔助診療設備的診斷結果是否準確、可信[7];另一方面,醫生需要應用可解釋人工智能系統為其診斷過程和診斷結果提供充足的解釋力,以此防范錯診和誤診帶來的道德或法律風險[13]。研究者為可解釋人工智能在醫療領域中的應用提供了大量方案,比較典型的有兩類:①以領域專家介入為主的可解釋人工智能方案,如通過醫學領域專家訓練可視化工具,以此幫助用戶探索數據隱含的基本解釋因素[30];②以機器學習為主的可解釋人工智能方法,如SHICKEL et al.[61]提出,結合循環神經網絡對流數據的挖掘優勢以及序貫器官衰竭評估分數框架對患者心血管、呼吸、神經、肝臟、凝血和腎臟等指標的可解釋優勢,基于重癥監護室電子健康記錄數據,共同預測患者的疾病嚴重程度和住院死亡率,從而高效地獲得準確、可信的預測結果,為診斷提供決策支持。
表4總結了可解釋人工智能在各領域的應用。

表4 可解釋人工智能在各領域的應用總結Table 4 Summary of XAI Applications from Various Fields
雖然可解釋人工智能作為一個新興領域正在吸引越來越多研究者的目光,但是可解釋人工智能的發展還面臨諸多挑戰,尤其是作為管理學領域的研究者,更需要清楚可解釋人工智能的發展給管理研究帶來怎樣的挑戰,以及隨著研究的深入可解釋人工智能又引發哪些新的管理問題。基于對已有研究的梳理和分析,本研究從管理學視角對可解釋人工智能研究面臨的挑戰進行分析。
(1)聚焦于事后可解釋
當研究者的目光都集中于深度學習模型的“黑箱”特性時,幾乎所有的可解釋人工智能研究者都將目光投向“深度學習模型的預測結果是如何得到的”這一最緊迫的可解釋目標。于是,大量的可解釋人工智能方法研究致力于探討如何根據預測結果對預測過程進行推理,進而解決預測結果與輸入數據之間的對應關系這一問題[46]。這類方法顯然屬于事后可解釋型方法,即對模型輸出結果的準確性進行理解和判定。雖然事后型解釋為用戶對預測結果的使用提供了可信任依據,但是很多模型在數據的輸入階段和訓練過程中同樣面臨可解釋性不足的缺陷。遺憾的是,目前事前可解釋和事中可解釋問題并未引起研究者的重視,如利用機器學習模型輔助風險管理時,在解釋決策結果的同時,還需要解釋針對風險決策構建的模型其邏輯是否合理。
(2)同質化的解釋
已有可解釋人工智能方法大都側重于對模型因果關系、透明性和可視化的解釋,而針對其他重要的可解釋性指標的研究尚無太大進展。這些指標趨于同質化,因為其目標都是明確模型內在的因果聯系,從而為用戶信任和采納模型的輸出結果提供依據。例如,模式識別領域傾向于將可視化作為構建可解釋人工智能系統的核心手段[46],人機交互領域傾向于將可解釋性歸結為人或外部知識的參與[68],醫學領域構建的可解釋人工智能方案更關注對因果關系的解釋[66],這些可解釋方案對模型自身性能的改進和增強并無直接影響。異質化的可解釋方案不僅要幫助增強人機互信,還要能夠促進人機協同,允許用戶與模型在不斷的“解釋-被解釋”交互中得到增強。例如,如何利用可解釋性提升模型的準確率和穩定性,以增加模型的可信任程度,進而緩解其不可解釋的缺陷[60]。
(3)輸入的可解釋性被忽略
從機器學習理論看,數據的獲取和特征的構建直接決定了模型假設空間和版本空間的分布,模型輸入的可解釋性缺陷不可避免地造成模型預測的偏差[72]。因此,對輸入模型的數據和特征進行解釋,如數據的描述統計和可視化、特征重要性評估、特征之間的相關性處理等,是保證模型訓練和預測過程可解釋的前提和基礎。然而,在已有可解釋人工智能方法研究中,輸入的可解釋性與模型的可解釋性并未實現良好的貫穿和統一。當研究者都聚焦于解釋模型的決策結果時,對用于刻畫決策目標的指標(輸入)合理性的解釋卻被忽略。
(4)準確性與可解釋性之間的平衡問題
該問題本質上是可解釋人工智能的興起為管理領域帶來的一個新的挑戰。已有的AI研究圍繞機器的學習性能展開,而可解釋人工智能研究首次將用戶作為AI系統的核心,致力于為用戶提供高質量的可解釋性,提升用戶對模型應用的滿意度。然而,這并不意味著可解釋人工智能系統不關注模型的學習效果,可解釋人工智能的發展恰恰需要以機器強大的學習性能為基礎。離開機器的學習性能談可解釋性,或者拋開用戶的理解和體驗談機器的學習性能,都是不可取的。因此,可解釋方案的構建需要兼顧模型性能和用戶對模型的使用行為。
(1)可解釋人工智能行業應用范圍的拓展
目前,可解釋人工智能的發展只在醫療等需求較為迫切的領域引發了熱烈反響,研究者對可解釋方法的探索也比較集中地面向醫療健康行業。然而,AI發展涉及的行業范圍很廣,這些行業對于AI技術的應用都面臨不同程度的可解釋性的需求。隨著可解釋人工智能的發展,更多領域將顯現出對可解釋性的需求,可解釋人工智能的應用范圍也將由醫療、計算機視覺和人機交互等熱點領域向其他領域擴展。
(2)可解釋人工智能行業應用程度的深化
已有可解釋人工智能研究對可解釋性的界定比較模糊,對可解釋性的評判也非常籠統,用戶應當如何理解透明性、因果性和可靠性這些可解釋指標,這些指標代表了多大程度的可解釋性,是否能夠滿足用戶實際的可解釋性需求,多個可解釋方案之間應該如何取舍,這些問題不僅阻礙了可解釋人工智能在方法層面的深入發展,也影響了可解釋人工智能在行業的深入應用,使可解釋人工智能始終停留在概念意義上。因此,對可解釋性的需求和評價有待進一步量化或具體化,只有當用戶能夠直接捕捉和利用可解釋性信息時,可解釋人工智能才能真正為AI技術在行業中的應用發揮作用。
(3)可解釋人工智能與AI系統的融合
AI技術的應用和推廣催生了一大批智能化產品,作為專門為AI系統提供解釋的可解釋人工智能系統,其在行業中的應用需要與具體的AI產品或AI場景相融合、相適應。就目前的可解釋人工智能研究看,其建立的多種可解釋方法相互之間是孤立的,方法的設計對模型的針對性太強,反而沒有很好地針對具體的AI系統或AI產品的應用。
(1)可解釋方案的效率低、成本高
已有研究中,可解釋人工智能方案的構建過度依賴外部模型或專家的參與,忽略了模型自身具備的可解釋性,使對模型的解釋成本升高。例如,對于K近鄰、決策樹和線性回歸等透明性較高的模型,可以通過內部可解釋的方式理解。需要指出的是,可解釋性較強的模型其學習性能通常也會遭遇更大的局限性。例如,當決策樹模型面臨高維特征時,當線性回歸模型的統計假設(線性關系、變量獨立性和正態分布等)不被滿足時,當貝葉斯分類器中的特征相關性較強時,這些模型的預測效果大幅下降,甚至不再具有可用性,因而可解釋也就失去了必要性。深度學習模型比傳統的淺層機器學習模型具備更強大的學習性能,雖然其可解釋性不高,但并不意味著需要不計代價地對其進行解釋,已有的可視化、外部知識和可解釋代理的引入以及模型的二次訓練等方法對深度網絡的解釋過程比較復雜,效率也并不高。因此,如何對可解釋人工智能系統要素和流程進行優化和控制以提高可解釋效率是一大挑戰。
(2)可解釋人工智能需要更加友好和普適
目前的可解釋方法雖然在一定程度上為模型的學習過程和預測結果提供了解釋,但是要理解這種解釋需要具備一定的領域知識。例如,當可解釋人工智能系統對模型的錯誤作出反饋時,用戶要更改錯誤仍需要一定的模型知識作為基礎,要求不具備領域知識的用戶理解模型的內部邏輯顯得不切實際。因此,如何為可解釋人工智能系統與用戶之間的交互構建友好的界面或接口是管理研究面臨的一大挑戰。
(3)構建可解釋人工智能系統的可行性和需求分析
雖然,對模型進行解釋可以在一定程度上避免其犯錯,減少安全性和公平性等方面的隱患,但對模型進行解釋的成本較高,解釋過程也比較復雜,勢必降低模型的使用效率。因此,在構建可解釋人工智能系統之前,需要對其經濟效益進行評估,需要進行可行性和需求分析。需要說明的是,可解釋是相對的,不同領域、不同模型或同一模型的不同應用場景對可解釋性的需求都是不同的,也并非所有的模型應用都需要可解釋。
(4)可解釋人工智能對人機交互模式的影響
可解釋人工智能的發展為促進人機協同提供了有利條件,其為用戶對機器的使用和管理行為創造了更加人性化的決策支持。而在可解釋人工智能環境下,人與機器的關系將發生什么樣的變化,智能決策模式將如何改變,這種變化對于人機共生有何影響,這些問題關乎可解釋人工智能的長遠發展,然而目前的管理研究并未對這些問題進行探討和回答。
經過對可解釋人工智能研究現狀進行梳理并對其面臨的挑戰進行分析后,本研究深入總結了可解釋人工智能發展為管理領域帶來的一系列新的重要研究問題。一方面,可解釋人工智能對管理決策理論和方法的發展帶來新的變革,可解釋人工智能賦能下的管理決策模式、智能增強模式、知識管理模式和信息管理模式等都呈現出新的特點和發展機遇。另一方面,管理決策理論和方法以及管理實踐應用為可解釋人工智能的發展起到積極的牽引作用,為可解釋人工智能技術發揮作用提供了具體的需求指引,也為推動可解釋人工智能技術的進步創造了有利條件。
(1)可解釋人工智能背景下的管理決策模式探究
目前,金融科技、智慧醫療、新零售和現代物流等熱點領域中的決策問題吸引了大量的管理研究者,這些領域的共同特點是以大數據和AI技術為依托,隨著可解釋人工智能技術的應用和推廣,管理研究將面臨新的機遇。根據西蒙的決策理論,可以將決策過程理解為信息收集、方案設計、方案選擇、方案的實施和評價4個階段。一個完整的基于AI系統的決策流程包含數據收集、模型設計、模型建立和模型評估等步驟,而基于可解釋人工智能系統決策的不同之處在于增加了對AI系統每個決策環節的解釋,導致原有的決策過程發生變化。例如,在可解釋人工智能背景下,信息收集的目標和范圍將更加明確,方案設計將遵從新的可解釋邏輯,方案的選擇有了新的可解釋依據,方案的實施和評價也將變得更加透明。因此,可解釋人工智能影響下的人機交互模式中蘊含著怎樣的決策規律,這種決策模式將為用戶對AI技術的使用帶來何種影響,與上述領域相關的管理決策問題又將發生什么樣的變化,這些問題亟待解決。
(2)可解釋人工智能背景下的智能增強模式探究
智能增強(intelligence augmentation)是推動AI技術發展和AI應用轉化的重要突破方向,在理想的智能增強模式下,機器能夠依靠不斷獲取的數據、經驗和知識,實現自我學習、自我更新、自我增強以及自適應地改善自身學習效率。在可解釋人工智能的影響下,用戶逐步將自身的理解能力與機器強大的學習能力進行優勢互補,這對智能增強模式的進化有何影響,對實現用戶與機器的深度互動和融合有何意義,這些問題值得深入探究。
(3)可解釋人工智能對知識管理的影響探究
知識管理作為知識經濟時代一種新的管理思想和管理方法,為企業的知識創造和應用提供了決策支持,為企業的智慧化成長和提升競爭優勢發揮了關鍵作用。在看到可解釋人工智能增進人機協同效率的同時,探討可解釋人工智能是否同樣促進知識在企業內部的收集、評估、流動、共享和應用等活動,對提升知識管理效率有重要意義。
(4)可解釋人工智能對信息管理的影響探究
大數據時代信息管理的核心任務是以AI技術為手段,對豐富的數據資源進行計劃、組織、領導和控制,從而達到對信息資源的開發和利用目標。基于可解釋人工智能方法,信息管理的效率將得以改善,信息管理的流程也被優化。因此,可解釋人工智能如何優化信息管理流程、如何提升信息管理的質量,這些問題值得深入研究。
(1)面向業務應用領域的可解釋方案構建
從AI系統的管理實踐看,不同業務應用領域的AI用戶通常面臨不同程度、不同類型的可解釋需求。例如,醫生在使用AI輔助診療系統對患者的病情進行診斷時,其是否采納或在多大程度上采納輔助診療系統的診斷結果取決于系統的決策過程是否符合專業的醫學邏輯。換言之,醫生需要判斷輔助診療系統是如何做出診斷決策的,即需要決策過程的可解釋。在人臉支付系統和人臉識別安檢系統等人臉識別系統的管理場景中,用戶更加關注系統出錯的情況,包括錯誤發生在哪里、什么樣的場景下識別會發生錯誤等,即用戶需要面向決策結果的可解釋。此外,在金融和法律等領域的管理實踐中,用戶也呈現出對與具體業務邏輯相適應的可解釋方案的需求。因此,未來的可解釋人工智能研究應當考慮結合領域知識構建符合特定業務邏輯需求的可解釋方案。
(2)適應用戶特點的個性化可解釋方案構建
從可解釋人工智能技術的管理和應用角度看,可解釋人工智能發展需要面向具體的用戶需求,只有可解釋方案被用戶理解和接受,可解釋人工智能才能真正發揮價值,才能實現對AI系統進行解釋的目標。然而,在實際可解釋人工智能系統的管理應用中,不同用戶由于性格和習慣等存在差異,其對可解釋方案的接受程度也不盡相同。例如,對AI醫療影像輔助診斷系統的決策過程進行解釋后,同一專業不同醫生面對同樣的可解釋結果時會產生差異化的認知,采納者與非采納者的認識之間可能存在差異,不同采納者采納的原因也可能不同。因此,未來的研究需要就不同用戶對可解釋方案的接受和采納機制進行深入探討,并基于此構建面向用戶個性化需求的可解釋人工智能方案。
(3)基于可解釋人工智能實現人機協同共生的決策提升模式
從管理決策模式看,隨著決策任務的工作量越來越大、復雜性越來越高、時效性和精確度要求越來越嚴格,決策主體逐漸由用戶向AI系統過渡。然而,在管理決策任務中,人與AI系統之間并非簡單的角色替代關系,人機協同的決策模式要求在人與AI系統之間實現優勢互補、合作共贏,最終達到人機共生的狀態[73]。立足于人機共生的管理決策需求,可解釋人工智能的發展應當起到促進人機共同成長的作用,可解釋人工智能方案的構建則需要以實現用戶與AI系統的良好協同、有機互動為目標。因此,如何使可解釋人工智能方案滿足提升人機協同決策質量、構建人機相容共生的管理生態模式的管理需求,是未來值得研究的問題。
(4)基于元決策管理理論的可解釋方案構建
可解釋人工智能的興起為管理理論、方法和實踐帶來了新的發展機遇,然而,要想使可解釋人工智能真正為管理決策創造價值,還需要以具體的管理理論作為引導,以支持可解釋人工智能技術的發展。例如,元決策理論表明,決策方案的構建需要考慮和選擇多個決策步驟[74],這為可解釋人工智能具體技術方案的構建提供了指引和依據,即可解釋方案的構建應當面向決策的全過程。因此,一個完整的可解釋方案應該是包含事前、事中、事后可解釋的全生命周期型可解釋人工智能方案。具體地,一個有效的可解釋方案應當輔助AI系統用戶理解模型輸入的合理性、模型過程的因果性和模型結果的可用性。因此,如何構建兼具事前、事中、事后可解釋的全生命周期型可解釋人工智能方案值得未來研究者深入探究。
可解釋人工智能已經受到學術界、產業界和政府部門的廣泛關注,研究可解釋人工智能對于促進AI發展和應用至關重要。本研究從可解釋人工智能的興起入手,分析其對AI發展帶來的影響和價值;從基礎理論、基本方法和應用3個方面對已有可解釋人工智能研究進行全面的梳理和分析;基于管理學視角,深入探討可解釋人工智能面臨的挑戰,總結了值得管理決策領域研究者深入探討的關于可解釋人工智能的未來重點研究方向。通過研究得到以下結果:
(1)就可解釋人工智能的影響而言,在學術界,可解釋人工智能已成為多個領域的研究熱點,但可解釋人工智能研究總體尚處于起步階段;在產業界,人們對發展可解釋人工智能表現出日益迫切的需求;各國政府也開始關注可解釋人工智能產生的積極效果,并配套出臺了一系列與可解釋人工智能相關的政策。可解釋人工智能最為明顯的價值在于它為AI的發展帶來了積極影響,一系列可解釋人工智能方法和方案被提出,有效回應了人們對AI可解釋性的關切和質疑,也為深化AI技術應用、實現人機良好協同和互動提供了契機。
(2)從可解釋人工智能研究現狀看,可解釋人工智能的核心主要包含模型的準確性、可靠性、因果性、透明性、安全性和公平性等指標,研究者針對可解釋人工智能方案的研究主要基于機器學習、理論模型和知識推理展開,其中以基于深度學習模型的可解釋方案研究最為常見。從可解釋人工智能應用研究看,學術研究對于可解釋性的需求主要集中在模型的準確性和穩定性方面,而業務應用領域對可解釋人工智能的應用需求主要體現在安全性和公平性等方面。
(3)從可解釋人工智能發展面臨的挑戰看,已有可解釋人工智能的方法研究局限于事后和同質化的可解釋,模型輸入的可解釋性被忽略,準確性與可解釋性之間的平衡問題尚未得到有效解決;可解釋人工智能在各行業的應用范圍需要進一步拓展,應用程度有待進一步深化,將AI系統的應用與可解釋人工智能相結合是亟待解決的問題;從管理研究的角度看,已有可解釋方案的效率低、成本高,有待進一步優化,需更加友好和普適,可解釋人工智能對于管理決策的影響值得深入探討。
(4)分別從可解釋人工智能對管理決策的使能作用角度和管理決策牽引下的可解釋人工智能角度,對可解釋人工智能研究進行深入探討并得出一系列關鍵研究問題。有必要探索可解釋人工智能背景下新的管理決策模式和新的智能增強模式,探究可解釋人工智能對信息管理和知識管理的影響對于管理決策研究有重要意義。同時,需要構建面向業務應用領域的可解釋方案,需要構建適應用戶特點的個性化可解釋方案,有必要探究基于可解釋人工智能實現人機協同共生的決策提升模式。進一步地,在元決策理論的牽引下,構建基于事前、事中、事后的全生命周期型可解釋人工智能方案。
本研究分析和總結了大量可解釋人工智能研究,梳理了可解釋人工智能發展的脈絡,探討了可解釋人工智能的概念和類型,為后續可解釋人工智能研究奠定了理論基礎;本研究總結并提出了可解釋人工智能可解釋性評價指標的一般性框架,為理解可解釋人工智能、評價可解釋人工智能提供了依據;本研究系統整理了可解釋人工智能方法研究,并提出可解釋人工智能方法的綜合體系和框架,為后續的可解釋人工智能方法研究提供了清晰的借鑒和參考;本研究深入剖析了目前可解釋人工智能研究面臨的諸多挑戰,為推動可解釋人工智能研究深入發展提供了有力的依據;本研究總結和指出了若干可解釋人工智能未來的重點研究方向,為后續開展有價值的可解釋人工智能研究提供啟發。
目前,可解釋人工智能研究尚處于起步階段,本研究所能獲取和分析的已有相關研究數量和范圍有限,隨著可解釋人工智能研究的不斷發展和深入,后續研究有必要基于更多已有研究對可解釋人工智能的發展、理論、方法和應用做更加全面的分析和梳理。同時,本研究重點對可解釋人工智能的概念、方法和應用進行總結,受篇幅限制,本研究未能逐一詳述可解釋人工智能某個特定維度的具體內容,僅針對可解釋人工智能的不同方面選擇最具代表性的研究成果對其進行具體分析,后續研究需要對可解釋人工智能概念、方法和應用做更為細致和深入的研究。