
【摘" 要】 在人工智能技術快速發展的背景下,人工智能參與決策過程的深度不斷拓展,這在提升組織決策效率和精準化的同時,也給社會治理帶來了嚴峻的挑戰。文章探析了人工智能參與決策過程中面臨的挑戰,并基于此闡述了人工智能參與決策過程的圖景。
【關鍵詞】 人工智能;決策過程;權責體系
人工智能的發展史可追溯至20世紀50年代,人工智能在經歷了系列進化和突破后,從簡單的圖像識別發展到如今的自主決策,簡化為四個階段(見圖1)。
2017年,我國頒發了《新一代人工智能發展規劃》,明確提出要把握住人工智能發展的重大戰略機遇,這為人工智能技術的發展指明了方向。此后,人工智能技術獲取了更為廣泛的應用,特別是廣泛地參與到決策過程中,提升了決策效率和質量,實現了決策的精準化。然而,人工智能參與決策過程中仍然面臨著較大的挑戰。
一、人工智能參與決策過程面臨的挑戰
(一)決策信息資源不足
與傳統人工決策相比,人工智能能通過大數據技術獲取大量的數據,并高效地對這些數據進行整理、分析,這是人工智能參與決策過程的重大優勢。然而,這并不意味著人工智能能獲取與決策相關的所有信息資源。相反,人工智能參與決策仍然面臨數據來源不足的問題,這在很大程度上影響了決策結果的科學性和正確性,甚至會出現較大的決策失誤。人工智能參與決策過程的信息資源不足主要體現在兩個方面。一方面,人工智能參與決策過程的信息獲取缺乏動態調整。人工智能在參與決策過程中,算法開啟后就按照程序的指定開始運行,而決策的信息資源大都是在算法開啟前獲取的數據,在決策過程中難以實現人類決策的溝通水平。也就是說,人工智能參與決策過程中既難以獲取外部環境的變化,也難以與利益相關者進行充分的交流與溝通,這在很大程度上降低了人工智能參與決策過程的科學性。另一方面,人工智能參與決策過程難以獲取非正式溝通信息資源。正式溝通是獲取信息資源的官方渠道,也是人工智能獲取信息資源的主要來源。然而,非正式溝通同樣蘊含著大量的信息資源,甚至在某些場景下,非正式溝通中才能獲取人員的真實想法和動機。因此,非正式溝通對于決策具有重要的意義。從這一維度來看,人工智能對非正式溝通信息資源的忽視,決定了人工智能參與決策過程面臨著巨大挑戰。
(二)人工智能系統的運作黑箱
傳統組織決策行為多發生在人與人之間,決策過程和決策結果都具有明確的理性邏輯和流程,因此決策具有很強的可理解性和可解釋性,這既是讓人感知到決策公平性的重要因素,也是影響決策公信力的重要條件。然而,人工智能系統存在著天然的運作“黑箱”。人工智能參與決策過程主要基于算法,這主要分為兩類:一是傳統算法,即邏輯嚴密的算法被程序員提前內置到系統中,從而根據獲取的信息進行決策;二是新算法,即人工智能具有模擬思維的能力,可以根據獲取的信息進行自我學習,實現算法的自我迭代,從而在更復雜的環境中做出決策。實際上,人工智能參與決策過程中,新算法所占的比例正逐漸加大,這也意味著決策結果只能依靠數據計算來解釋,而無法依靠理性邏輯去理解和解釋其中的邏輯關系,從而造成人工智能參與決策過程的透明度不足。這給人工智能參與決策過程帶來了挑戰。一方面,人工智能基于算法參與決策過程,將人進行物化,人類的情感、人性都轉化為可量化的數據,忽略了人的人格和情感。另一方面,人工智能參與決策過程由于缺乏可解釋性,這會讓相關利益主體感受到不公平,不利于決策的公信力,也導致大眾監督變得愈發困難。
(三)決策過程中的價值理性沖擊
人工智能在參與決策過程中按照既定的算法來得出決策結果,這無疑在很大程度上擺脫了人的情緒和感性方面的影響,使得決策結果更加客觀。然而,在人工智能的運行邏輯中,人的行為和思想都轉化為可量化的數據,而且程序只要開始運行,就會按照設定的算法運行下去,不會由于內外部環境的變化而輕易改變,即使決策過程和結果已經與社會價值觀產生沖突和偏離,這就可能導致人工智能參與決策過程中的價值理性沖擊。人工智能體系能為決策提供更豐富的信息,但往往無法確定哪方面的數據要給予更多的權重;人工智能體系能根據大數據技術迅速計算出哪個決策結果更有效率,更節約成本,但是卻從社會價值和社會倫理的維度去判斷,也無法量化人類的真實情感。由于人工智能體系可能脫離社會大環境,對人類的生活經驗和常識缺乏理解,也不具有這方面的矯正機制,因此相關的決策結果可能會違背常理,帶來道德風險和倫理風險。若人工智能體系在決策過程中處于輔助的作用,人類還可以進行人為矯正和價值調控,而在人工智能主導的決策過程中,價值理性會受到嚴重的沖擊。
(四)決策選擇中的權責體系失衡
組織決策是一項系統的工程,涉及眾多的利益相關者和復雜的數據,根據決策過程的不同會產生不同的備選方案。因此,如何去選擇出一個決策結果是一個重大的現實問題,作出選擇也意味著要承擔對應的決策責任。在傳統決策過程中,人類是決策的中心,遵循“誰決策,誰負責”的原則,同時在承擔決策失敗風險的同時,也能享受到決策成功的紅利。這意味著傳統決策過程中的權責體系是平衡的。然而,在人工智能參與決策過程中,決策選擇中的權責體系出現失衡的現象。特別是隨著人工智能參與決策的深度不斷拓展,并逐漸取代人類在決策過程中的主導地位,然而人工智能卻不具備承擔決策責任的能力。在決策過程中人類主導地位下降主要源于兩方面的因素:一是人類的主動讓渡,即人類認識到人工智能在決策上的高效率和高質量,主動將決策權讓渡給人工智能;二是被迫讓渡,即在信息爆炸時代,受限于現實條件,人類不得不將部分決策權讓渡給人工智能。即便人類具有強烈的自主決策意愿,但所獲取的信息實際上是人工智能處理過的,甚至部分“事實要素”也是人工智能參與的結果?;诖?,決策權威從人類轉變到人工智能,然而人工智能卻不具備作為責任主體的能力,這也意味著一些重大決策中沒有主體為其決策結果承擔責任,造成決策選擇中的權責體系失衡。
二、人工智能參與決策過程的圖景
(一)增強人工智能的信息獲取能力
人工智能參與決策過程中表現出整體上的信息獲取和處理能力優勢,但在某些領域的信息獲取上還存在短板,特別是在與人的實時交流和認知上存在障礙。因此,人工智能參與決策過程要增強信息獲取能力。首先,要強化人工智能參與決策過程的實時溝通能力。在信息時代,各行業、各領域外部環境變化迅速,正如美國作家斯賓塞·約翰遜所言:唯一不變的就是變化。在此背景下,組織決策要根據內外部環境變化來進行及時調整,才能保證決策結果的科學性。在人工智能參與決策過程的圖景上,要優化人工智能系統技術上的信息共享功能,并強化人與人工智能系統的交互功能,使人工智能系統通過人機交互,以及機機交互來獲取內外部環境變化信息,并應用于決策過程。其次,要強化人工智能獲取非正式溝通信息的能力。非正式溝通信息是決策過程中不可缺少的信息資源,因此人工智能參與決策過程中要充分了解各參與主體在非正式溝通場合表露出的態度和意見。實際上,非正式溝通信息難以獲取的一個重要原因是其中包含了大量的非結構化信息,包括語音、視頻和用戶畫像等,還包括人類在溝通過程中的肢體語言、微表情等。因此,人工智能技術要加強非結構化信息資源的收集和處理能力,進而提升獲取非正式溝通信息的能力,實現人工智能參與決策過程的科學性。
(二)建立“解釋與理解”雙向發展的人工智能體系
人工智能參與決策過程中,人類仍然占據著重要的作用和地位,因此要建立人工智能主動解釋和人類主動理解的雙向發展的人工智能體系。研究表明,信任和人工智能的可解釋性呈現出正相關的關系,可解釋性強的決策能得到更多人的認可。人類對人工智能可解釋性的訴求源于人工智能系統的運作“黑箱”,因此,人工智能要更好地參與決策過程,就要實現算法的公開與透明,采用通俗的、易懂的社會語言,而非抽象的、專業性強的計算機語言去向利益相關者闡釋人工智能參與決策過程的機理,提升人對人工智能決策的認知,從而更好地保障其監督權,實現人工智能參與決策過程的科學性。此外,現階段人與技術交互之間還存在一定的障礙,這對于技術水平不高的人來說,將自己的意圖傳達給機器存在較大的困難,同時也難以理解人工智能的運行邏輯。因此,要優化人與機器交互的端口,實現更人性化的人機交互機制,使人與機器的溝通、互動能更加便捷,從而增強人類對人工智能決策的可理解性。
(三)完善公共價值治理
人類以共同體的形式生活在社會之中,離不開所有社會成員共同的公共價值。無論人工智能技術如何發展,其落腳點都在于為人類的共同價值服務。因此,人工智能參與決策過程中,要不斷完善公共價值治理,實現決策實質上的價值理性。一方面,要明確人工智能技術的決策輔助地位。由于信息不對稱和算法的不透明性,導致決策責任很難被明確。若人工智能主導決策過程,很有可能造成決策結果與公共價值的背離。因此,要始終將人工智能作為人類決策的工具,明確人工智能在決策過程中的輔助性地位,降低不正確授權而對價值理性的沖擊。另一方面,要將公共價值內化于人工智能算法中?,F階段,公共價值如何量化到人工智能技術之中是一大挑戰,也是人工智能參與決策過程的偉大圖景。在信息獲取過程中,要對算法進行優化,采用賦予權重的方式來引導算法向公共價值靠攏,同時探索出更先進的信息獲取技術,對非結構化信息和非正式溝通信息進行準確識別。在決策過程中,要將是否遵循公共價值作為決策選擇的一票否決因素,保證決策結果與公共價值相匹配。
(四)健全人工智能決策的權責體系
由于人工智能無法成為決策的責任主體,因此在人工智能參與決策過程中,要將人類作為決策過程和結果的權責主體,明確人工智能在決策過程中所產生風險的具體責任人。政府機構可以采用嚴格的制度標準來落實責任體系,對于決策過程中的風險,若決策風險是由于違反開發準入制度造成的,則決策責任由技術開發者來承擔;若決策風險是由于違反生產制度標準造成的,則決策責任由技術使用者來承擔;若決策符合制度標準,仍然出現決策風險,則要反思準入制度是否科學、合理,根據實際情況對準入制度進行優化和調整。同時,要對符合準入制度的決策風險進行補救,由政府機構承擔治理責任。政府機構可以成立專門針對人工智能決策風險的專項委員會,除了對技術風險進行識別外,最主要的還是承擔著技術風險補救職責,對因人工智能決策造成損失的相關主體進行救濟,減輕相關主體的損失。
三、結語
隨著人工智能在各個領域的廣泛應用,人類與AI的協作開始變得普遍。AI可以提供建議和相關信息,因此其在決策過程中的角色逐漸凸顯。然而,人工智能參與決策過程并非一帆風順,面臨著決策信息資源不足、人工智能系統的運作黑箱、決策過程中的價值理性沖擊、決策選擇中的權責體系失衡等諸多挑戰。為了解決這一系列問題,需要增強人工智能的信息獲取能力、建立“解釋與理解”雙向發展的人工智能體系、完善公共價值治理、健全人工智能決策的權責體系。只有如此,才能充分發揮人類與AI協作的潛力,為AI輔助決策提供保障。
參考文獻:
[1] 王鋒,劉瑋. 人工智能參與決策過程的挑戰與圖景[J]. 求實,2023(03):18-29.
[2] 孫立會. 人工智能之于教育決策的主體性信任危機及其規避[J]. 電化教育研究,2023,44(03):21-27+43.
[3] 杜昕怡,肖澤晟. 人工智能算法輔助行政決策的法治風險及其化解路徑[J]. 學習論壇,2023(03):122-130.
[4] 蘇麗,張卓玉. 人工智能參與行政決策的法治風險探究[J]. 石家莊學院學報,2023,25(04):155-160.
[5] 余樂安. 基于人工智能的預測與決策優化理論和方法研究[J]. 管理科學,2022,35(01):60-66.
[6] 孔祥維,王子明,王明征,等. 人工智能使能系統的可信決策:進展與挑戰[J]. 管理工程學報,2022,36(06):1-14.
[7] 柳亦博,高潔,李軼倩. 人工智能參與決策對行政倫理的影響及其治理之道[J]. 中共天津市委黨校學報,2022,24(06):55-63.
[8] 吳進進,符陽. 算法決策:人工智能驅動的公共決策及其風險[J]. 開放時代,2021(05):194-206.