黃 剛,宗鐵巖
(中央財經大學 馬克思主義學院,北京 100081)
科學技術的蓬勃發展使人類社會進入智能時代,世界各國都在積極探索人工智能的價值潛力。習近平總書記在向國際人工智能與教育大會所致賀信中指出:“人工智能是引領新一輪科技革命和產業變革的重要驅動力,正深刻改變著人們的生產、生活、學習方式,推動人類社會迎來人機協同、跨界融合、共創分享的智能時代。”[1]人工智能不僅開辟了人類發展的新領域,而且實現了對社會各領域的全過程深度融合,人類社會正在經歷著前所未有的改變和轉型。
“人工智能”(又稱AI,Artificial Intelligence)實現了計算機科學、腦神經學、心理學等不同學科的有機融合。學界對“人工智能”的研究大體可分為三個階段:首先 是GOFAI(Good Old-Fashioned Artificial Intelligence),即有效的老式人工智能。在20世紀50年代中期到80年代末,有關人工智能的研究主要以符號主義為基礎。約翰·郝格蘭提出“GOFAI”一詞,泛指用最原始的人工智能的邏輯方法解決小領域的問題。其次是強人工智能概念與弱人工智能概念的提出。“強人工智能”由塞爾提出,他認為:“計算機不僅是用來研究人的思維的一種工具,只要運行適當的程序,計算機本身就是有思維的。”[2]“弱人工智能”是指人類無法制造出具有自覺意識的智能機器,這些智能機器一般只能應用于某一特定場域。再次是通用人工智能與超強人工智能的出現。“通用人工智能”是指一種能夠像人類一樣在不同領域中執行各種任務的智能系統。它可以通過自我學習、自我改進、自我調整,解決人類所面臨的各種復雜問題。“超強人工智能”指遠遠超越最聰明人類頭腦的智能,其擁有強大的運算分析和數據儲備能力。基于上述研究可知,人工智能是一種以現代科學為背景的應用技術,其通過整合與分析歷史數據,形成感知、推理、學習和決策的思維活動并按照預先設定的目標完成相應行為的計算系統。
目前,以美國為代表的西方國家在人工智能技術的研發和應用方面都處于世界領先地位,其實現了人工智能技術與經濟、政治等領域的深度融合,并使數字化和智能化理念深入人心。但當人類沉浸在人工智能帶來的便利和驚喜之中時,我們也會不禁思考:人工智能是否能夠介入民主政治領域?它的介入對民主政治的發展究竟是福是禍?對此,部分學者認為人工智能介入民主政治領域不僅能夠豐富民主訴求的反饋渠道,而且也為人的政治解放提供了科學的決策依據,應大力支持人工智能對民主政治領域的介入與賦能。還有學者認為,人工智能介入民主政治后,若智能技術得不到合理合規的使用,其極有可能反噬人類,出現侵蝕公平正義、弱化政治透明度、剝離人的主體性價值等問題。因此,將人工智能技術引入民主政治領域應慎之又慎。
以人工智能為代表的新興科技在推動經濟發展的同時,其與民主政治的融合也是大勢所趨、不可避免的,二者的結合將會勾勒出一幅新的政治圖景。但是,數智化的民主政治不僅會挑戰或顛覆人們對于政治的固有認知,而且也必將面臨諸多隱憂和風險。因此,我們必須給予其高度的重視,“不斷提升人工智能技術的安全性、可靠性、可控性、公平性”[3]。民主是全人類共同的價值追求,是現代文明社會的顯著標志。人工智能與民主政治領域的日益融合,意味著我們應剖析人工智能技術嵌入民主政治領域后所面臨的風險及風險產生的緣由,立足全人類的視角探尋防范與紓解路徑,進而推動民主政治向前發展。
“人工智能是一種具有開放性、革命性和顛覆性的技術,但是從當前發展狀況來看,還處在一種尚未定型和更未完全成熟的階段。”[4]人工智能介入民主政治領域后存在政治生態受損與社會公平正義遭到破壞、政治透明受朦與政府公信力下降、政治謠言肆虐與人的主體性價值消解的可能與風險。
智能技術與民主政治的融合,不僅能夠使公眾全天候、跨地域、低成本地參與到民主實踐之中,并且即問即答的互動模式也有利于激發公眾的民主參與熱情。但是,人工智能技術也會破壞政治生態的平衡性,使社會公平正義體系遭到沖擊。
政治生態一般指政治主體展開政治活動的時空場域及其環境氛圍,人工智能的嵌入將會對以理性對話為基礎的健康政治生態產生威脅。第一,政治認同感被削弱。政治認同感是指公民在參與國家政治生活中產生的情感歸屬,歸屬情感的強烈程度將關乎政治運行的穩定性。在智能時代,人的社會屬性逐漸被信息化、數字化和智能化,即從“現實的人”轉變為“數字化的人”。當核心程序與數據結構被不法分子掌控時,他們可以通過點對點、面對面的輸出形式向公眾傳遞虛假、消極的政治信息,消解公眾政治歸屬感,影響民主政治的良性運行。第二,政權的合法性出現危機。政權合法性是指政權存在的正當性和有序性,其是確保政治生態永續發展的關鍵。近年,利用人工智能技術破壞別國政權、實施政治滲透的例子屢見不鮮,主要表現為通過數智媒體進行網絡竊密、網絡攻擊、網絡勾連,煽動公眾逆反情緒,破壞別國政權的穩定。
人工智能的介入會使公平正義體系遭到沖擊。第一,人工智能的算法機制容易產生偏見和歧視。算法不具備獨立思考的能力,其會受到開發者價值習氣的影響。人的主觀性和情緒的不穩定性會侵蝕算法機制的客觀性,甚至干擾運算結果,這就是算法偏見。目前算法偏見主要分為“先行存在的算法偏見、技術性算法偏見以及突發性算法偏見”[5],其中“先行存在的算法偏見”是指人的價值觀念會影響算法的走向甚至運算結果,即個體或群體通過將自身價值觀念注入既有的規則之中,使社會規則喪失客觀公正性。實際上,“算法偏見本質是社會偏見在人工智能時代的投射”[6]。例如,網購平臺利用大數據“殺熟”,造成價格歧視;某網站智能算法系統對男性求職者有著明顯的偏好,對女性求職者則設置各項隱形門檻,造成性別歧視;國外某網站向白人推送高薪工作廣告的頻次明顯高于亞裔或其他人種,造成種族歧視……算法偏見會導致人類對自己的懷疑與否定遠超于對算法技術的質疑,進而成為引發社會矛盾的導火索。第二,權力失衡和資源分配不均問題加劇。“人工智能會拉大社會資源分配的差距,那些握有人工智能技術的知識精英會成為這種不平等現象的最終受益者。”[7]“那些在網絡政治表達中更具‘權威’的媒體機構或博主會獲得更多曝光、信賴以及話語權重,以致出現‘贏家通吃’的網絡聚集效應。”[8]換言之,作為技術優勢群體的社會精英、互聯網巨頭仍是民主政治領域的主導者,他們利用技術霸占大量政治資源,悄無聲息地拉大與其他社會階層的差距。除此之外,一部分人受年齡、外部環境等因素的影響與智能時代脫節。據外媒統計,“美國在2019 年有近40%的65歲以上老年人使用的是非智能手機,同時有27%的人群從來沒有使用過高速互聯網”[9]。截至2022年12月,“我國網民規模達10.67億,其中農村網民規模為3.08億,城鎮網民規模為7.59億。我國非網民規模為3.44 億,其中60 歲及以上老年群體占37.4%。非網民不上網的主要原因是不懂電腦/網絡、文化程度限制、年齡因素、設備不足,占比分別為58.2%、26.7%、23.8%和13.6%”[10]。這意味著人工智能在嵌入民主政治領域后非但沒有改變這類人群的處境,反而加劇了他們在獲取信息、表達利益訴求等方面的劣勢。
公信力不僅是政府維護良好形象的評價指標,同時也體現著政治運行的透明程度。得益于智能技術的賦能,公眾的民主監督權利相較于傳統的監督模式有所提升。但是,人工智能的介入也會使政治透明度和政府公信力受到負面影響。
“政治透明度即政治活動的開放程度,透明程度的高低成為當代政治學評價某個政治體系的重要指標。”[11]人工智能技術給人類的生產生活帶來了莫大便利,但人工智能的算法邏輯變得越來越復雜與晦澀,算法“黑箱”的存在更是引發了人們對數字智能化民主政治透明度的擔憂。所謂“黑箱”就是指不能從外部直接觀察其內部狀態的那部分內容,它是導致政治透明度降低的罪魁禍首。第一,算法決策的隱蔽性。隨著深度學習和神經網絡的發展,人工智能系統在更新迭代中逐漸具備了自主學習的能力,并且智能算法可以將無法解釋的事件通過客觀的數據加以解釋和呈現。特別是涉及政治利益和民主權利時,公眾根本不能閱讀到有關決策過程的細節,只能被動接受決策結果。第二,算法在收集和處理用戶個人隱私時也存在透明度問題。算法程序通過收集和分析大量用戶數據,為不同用戶群體提供個性化的產品和服務。然而在數據收集和處理的過程中,用戶根本不知道自己的個人信息被用于何處與何種目的,使個人隱私面臨被泄露的風險。
人工智能嵌入民主政治領域將會使政府面臨公信力下降的困境。第一,政府監管部門出現信任危機,這類現象突出表現在技術較發達的西方國家。智能算法的復雜性、隱匿性決定了其行為的不可控性和決策機理的抽象化,加之企業全程操縱算法設計、運行和測試程序,政府監管部門基本失去了對核心技術及關鍵數據的控制權和監督權。除此之外,個別平臺利用算法“黑箱”的特性侵犯民眾權益,但監管部門因算法規則的限制而無法及時、準確地進行問責與糾偏,可能就會出現“塔西陀效應”。第二,數據的偏頗失實會加大政府的治理難度。龐大的數據和信息充斥在虛擬空間中,政府要耗費大量的時間與精力對那些毫無價值的信息進行過濾、監管,這無疑加大了政府的管控難度。此外,負面輿情也會破壞政府的聲譽和形象,使公眾對政府產生不信任感。基于熱度導向下的算法推薦系統堅持“流量至上”“熱度第一”的原則,對于政治新聞的真偽和受眾效果閉口不談,政府需要時刻留意暗藏在身邊的“隱形炸彈”。
人工智能介入民主政治領域雖然加快了政治新聞和其他信息的傳播速度,但受信息過濾機制不完善和信息發布門檻較低的影響,政治“娛樂化”成為智能時代的普遍問題,人的主體性也因此逐漸消解。
智能技術為政治謠言的滋生和傳播提供了“溫床”。第一,深度偽造技術使眼見不一定為“實”。自深度偽造技術問世以來,人們一直擔心該技術可能會成為擾亂政治秩序或發動戰爭的工具。目前來看,這種擔心正在變為現實。美國共和黨全國委員曾使用深度偽造技術生成了一系列虛假圖像,虛構拜登連任后美國經濟崩潰、非法移民猖獗和犯罪浪潮迭起等情景;Facebook中充斥著大量由AI生成的虛假血腥的“警察開槍、警察打人”的照片與視頻,成為激起美國種族對立、擾亂政治秩序的“兇手”。第二,算法技術加劇了政治謠言的負面效果。平臺算法邏輯的商業屬性決定了其無條件地向資本妥協,當牟利之心戰勝理性之心時,政治謠言會在算法平臺的精心包裝下,通過點面對接的輸出方式傳遞給受眾,達到有的放矢的效果。
對人工智能技術“科學性”與“合理性”的盲目認同會使人逐漸失去理性。啟蒙運動標志著人類政治由以神為中心向以人為主體過渡,人的主體性價值達到以往從未有過的高度。在理性思維和主體性的作用下,人類擁有了使用工具和駕馭技術的能力。但隨著人工智能的出現和廣泛應用,其所具備的精準性、智能化的特點使人無條件地信任和依賴智能技術,人的自主選擇權逐漸喪失,并在智能算法的被動塑造中成為人工智能的附屬品。實際上,民主正在被人工智能吞噬。“2017年美國聯邦通信委員會就網絡中立性問題征求公眾反饋,共收到2170萬份回復。其中僅有6%的反饋信息具有特殊性,其余信息基本都是重復且無效的。”[12]經研究發現,半數以上的數據信息都是技術人員利用人工智能的深度偽造技術編造出來的,并且創造了若干個子虛烏有的意見領袖和數以萬計的推特僵尸,使民眾在毫無察覺的狀態下變成政治棋盤中任人擺布的棋子。
人工智能日益與民主政治領域實現深度融合,但在現實應用和操作過程中仍存在諸多隱憂。這是由技術系統的不確定性與不可解釋性、資本的侵蝕與人工智能的意識形態化、算法權力的裹挾與無限擴張性等因由引起的。
人工智能技術并不是完美和絕對的,其具有一定的不確定性。第一,技術漏洞依然存在。技術漏洞的存在會給網絡黑客提供“乘虛而入”的機會,極易造成政治機密泄露和重要數據的丟失,給國家信息安全帶來極大的風險。美國目前作為人工智能領域的領頭羊,其也難逃技術漏洞的“制裁”。根據美國國家標準與技術研究所(NIST)發布的信息數據,“美國2021年共報告18378個安全漏洞,其中高危漏洞3646 個,中危漏洞11767 個,低危漏洞2965個”[13]。第二,智能算法的預測性不是絕對的。智能算法可以通過深度學習構建相應的模型系統預測政治事件的基本走向和發展趨勢,但受涉事數據、模型本身以及外部環境等變量的影響,人工智能在嵌入民主政治領域后出現了決策精準性降低、治理效能低下等困境。可見,人工智能既可以成為社會變革和發展的助推器,也可能會成為各種風險的策源地與放大器。
人工智能技術因算法“黑箱”的固有缺陷而具有不可解釋性。算法的表達方式是由技術基礎層(輸入端)、技術程序層和技術結果層(輸出端)共同作用而成,因其具有較高的專業性和復雜性,絕大多數人難以理解智能算法的運行邏輯并對算法機制產生了懷疑情緒,認為在運算過程中存在著不為人知的算法隱層。實際上,從當前算法技術的發展形態來看,算法“黑箱”的存在使數智化民主政治的透明度遠不及傳統意義上的民主政治實踐。與此同時,輸入端對于民主政治數據的挖掘、采集以及輸出端對于政治主體行為的自動化學習,使人與技術逐漸走向彼此的對立面。因為只有監管部門和技術人員知曉人工智能采集了哪些政治信息,又是如何將這些信息、數據反哺于民主決策、民主管理環節的,普通人對此卻毫不知情。也就是說,算法不但沒有滿足公眾的知情權,反而將公眾的知情權變為技術的附加品,只要是智能算法得出的決策結果,公眾就必須無條件地接受它。至于無條件接受的理由,算法也無法給出解釋。
算法與資本的共謀會導致人工智能淪為資本的工具。人工智能技術“重構了人類的生存環境和活動條件”[14],但“技術不管再怎么飛躍,本質上依然屬于資本”[15]。在2016 年的美國大選中,推特(Twitter)中的社交機器人(Twitter Bots)成為制造假新聞擾亂視聽的主要工具。它們通過模仿不同用戶的風格和習慣,自動發布與政治活動相關的內容或直接參與投票。幕后人員通過預設的算法程序,影響大選走向。據統計,“總統大選辯論期間,推特機器人發送推文380 萬余條,占總發文量的19%。約23%的美國人分享了由推特機器人編寫的虛假新聞,其中約9%的美國人在毫不知情的情況下成為虛假新聞的傳播者,約7%的人明知新聞為假但仍繼續轉發”[16]。這些數據既證明了人工智能正在參與和影響民主政治,同時也展露出人工智能可怕的一面,即負責研發和操控人工智能的技術人員可能在資本的“威逼利誘”或“糖衣炮彈”的進攻下與其合謀。正如馬克思所講的那樣,“現代的資產階級財產關系靠國家權力來‘維持’,資產階級建立國家權力就是為了保衛自己的財產關系”[17]。西方國家憑借自身的技術優勢幫助自己和既得利益者壟斷各種政治資源,并維護其在上層建筑中的地位,使民主成為明碼標價的“商品”,間接撕毀了民主政治領域中的正義契約。
技術的進步將直接或間接地影響和服務于政治安全,但技術的意識形態化也將使政治安全面臨嚴峻的挑戰。人工智能在民主政治領域的應用容易被權力機構賦予特定意識形態并成為宰制民主政治的工具。第一,智能技術搭建的虛擬世界是對現實生活的情景再現。生成式人工智能通過“計算機語言”模擬人類的思維進行人機對話,其天然的意識形態屬性被技術掩蓋。人工智能之所以能夠對民主政治領域的各類信息和數據進行精準分類與高效處理,既得益于技術自身強大的邏輯分析能力,同時也離不開人對數據源的標記。換言之,人工智能技術雖然擁有使數字之“花”結出現實之“果”的能力,但“果實”的“香甜程度”還有待考究。這是因為精英階級憑借自身的權力優勢和社會地位,將個人與階級意志注入智能技術之中,利用智能技術和智能設備左右民主政治的發展趨勢。第二,智能技術對人類意識的“再造化”。當人工智能被視為完全科學化、合理化的產物應用于民主政治領域時,人的意識會在不知不覺中被人工智能影響和控制,即智能算法的預設性和既定性會使政治主體在技術所提供的“溫柔鄉”中逐漸喪失獨立性和自主性,人類社會也會在人工智能技術的“合理性”和“科學性”的特性下回歸至單向度社會。第三,智能技術引發主體意識異化。隨著社會的向前推進,人類對于人工智能技術及產品的要求也更高、更苛刻,即要求將研究成本和價值降到最低,同時也要保證技術和產品的性能和質量。這種不斷推進人工智能領域發展的行為,使人工智能技術成為抑制人性的產物,人逐漸被人工智能自身所攜帶的“人格化”所影響,成為人工智能的“寄生物”。
權力(權利)主體憑借技術優勢實現對算法權力的裹挾。在智能時代,公眾既是算法權力來源的數據生產基礎,又是算法權力作用和爭奪的客體。算法權力表面是為公眾提供最優的行為選擇,實則是為了消解公眾的自主性,并對其認知進行重塑。“自主性消解是指在獨立自主選擇的維度上,算法權力主體對公眾的‘微控制’消解了公眾的自主意識。”[18]算法權力通過日積月累的“微操縱”影響社會成員的認知,使每一個人都成為算法大師“玩弄”的潛在對象。當公眾沒有察覺到捆綁在自己身上的“操縱絲線”時,其會在算法權力的幫助下過上幸福美滿、富有成效的日子。一旦“絲線”被發現,我們很快就會意識到算法大師們極力地想將我們馴化為服從算法規則的客體,即通過彈性控制收益的選擇范圍或實際收益效果使公眾受到算法權力的干預和操縱,將公眾異化為算法權力及其規則的奴仆,借此滿足其成為專制獨裁者的欲望。
技術占優者利用算法權力滿足自身集權與擴張的欲望。第一,算法權力的向內集權。比如西方國家利用算法技術實現高度的集權,并持續拉大不同階層對技術占有和使用的差距,基于數據收集和算法治理模糊了公共領域和私人領域的邊界,將已獲取和掌握的私人數據轉化為政治資源。與此同時,技術占優群體將不斷侵占技術弱勢群體的民主權利。技術優勢群體具備絕對的話語權,以至于政治資源和民主權利無條件地向優勢一方偏移與傾斜,導致“數字鴻溝”的持續性存在。第二,算法權力的向外擴張,即社會達爾文主義將會在技術的助推下愈演愈烈。科學技術是決定國家話語權的首要因素,擁有頂尖人工智能技術的國家能夠在國際交往中占據主導位置。國家是追求“利益邏輯”的理性行動者,個別技術發達國家會憑借自身優勢不斷挑戰國際政治格局、干涉別國內政,將人類拉入一場看不見硝煙的戰爭之中。
針對人工智能介入民主政治的隱憂和因由,應通過加強核心技術攻堅,構建網絡空間命運共同體;完善算法運行規制,打破算法賦權失衡狀態;強化算法技術把關,提高技術監管水平;縮小數字鴻溝,提升公眾數字素養等途徑紓解困境。
各國應堅持以關鍵核心技術為主攻方向,將增強原創能力作為重點,加大對智能技術創新的支持力度,以此夯實新一代人工智能發展的基礎。第一,各國政府應為人工智能的發展提供充足的人力、物力和財力支持。其一,各國政府要把培養人工智能應用型人才擺在首位。一個國家技術人才的數量和質量決定著該國人工智能發展的程度。因此,各國政府應向社會傳遞技術人才極為重要的信號,并通過資金或政策的支持,為培養人工智能應用型人才提供堅實保障。其二,各國政府應為人工智能技術的創新提供充足的資金。技術的積累和發展并非一日之功,其需要大量的試錯和實驗,充足的資金和先進的設備可以使人工智能的發展事半功倍。因此,各國政府要加大對硬件設備、數據采集、算法研究等方面的資金投入,為人工智能的蓬勃發展提供基礎保障。其三,提升對算法漏洞的查找和修復能力,設立安全級別更高的網絡防火墻,防止黑客利用算法漏洞破壞民主政治的正常運行。第二,企業要注重人工智能技術在民主政治領域的應用程度。企業雖然是人工智能技術研發的核心力量,但是其不能代替政府在民主政治領域的主導地位,更不能利用人工智能技術干涉本國或他國內政。因此,企業在研發人工智能技術及將智能技術應用于民主政治領域時,必須明確自身角色定位,樹立健康的政企合作理念,及時將涉敏數據和關鍵政治信息傳遞給政府有關部門,做到“不越權”“不貪權”“不占權”,確保技術賦能下的民主政治保持向好的發展態勢。
為了避免在技術博弈下出現的新霸權主義和新殖民主義,必須推進人工智能領域人類命運共同體的構建。世界各國應該打通技術壁壘,搭建交流合作、共贏共享的世界智能科技平臺,即將技術視為助推人類政治文明實現跨越式發展的工具,而非作為搶奪資源的武器。第一,堅持公平普惠原則。掌握頂尖人工智能技術的國家不能利用各種借口阻撓他國技術發展或惡意制造技術壁壘。對此,各國要著力實現人工智能技術的全球化共建和共享,更好地造福世界各國人民。第二,堅持開放包容原則。若想解決人工智能技術的集中使用與權力擴張間的“治理悖論”問題,各國必須共商共議人工智能嵌入民主政治領域后產生的各種問題,為智能化民主政治的發展提供開放、包容的國際環境。第三,堅持和平使用原則。各國應合理合法使用人工智能技術,反對利用人工智能謀求國際霸權、破壞他國政治安全的行為。
各國政府應通過建立健全算法問責機制和風險預防機制,不斷提高算法運行的透明度。算法問責是指“算法技術相關主體對算法帶來的風險做出相應責任的承擔,也就是技術研發企業及算法開發人員對算法造成的損害、危害責任承擔情況和如何補救作出解釋說明”[19]。明確算法問責有利于紓解因算法的不可解釋性所導致的政治透明受朦的問題。第一,嚴格問責利用算法從事非法政治活動的涉事主體。對算法在運行過程中惡意植入主體價值或個人意志的行為進行嚴肅處理,精準定位涉事主體并要求其對后續產生的負面影響及后果負責到底。除此之外,也要嚴懲利用算法“黑箱”影響和干擾民主政治正常走向的行為,因為這種行為只會加重算法決策的信任危機。因此,在確保算法商業機密安全的前提下,可以將算法在民主實踐和政治生活中運作的過程以可視化、通俗化的形式公之于眾,提高公眾對算法運行的認知水平,使決策結果變得更有說服力和可解釋性。第二,落實和完善算法危害預防和補救機制。針對算法技術在賦能過程中產生的負面影響,應從事前、事后兩個維度對算法風險及危害進行規約。其一,事前應對涉事數據進行預處理和價值敏感設計。在技術賦能之初,應將保護個人隱私、確保程序正義等價值理念融入算法之中,做到防患于未然。其二,事后應對算法決策進行監督審計。技術人員應以科技向善為價值導向,通過代碼審計實現算法決策的自我審查,即對程序源代碼逐條檢查和分析,發現源代碼缺陷引發的安全漏洞,并提供代碼修訂措施和建議。同時,政府和企業也要積極制定相關的制度和規則對算法決策進行監督審計。
各國應打破算法壟斷,實現算法權力的平衡。企業由于受到商業利益的驅使,其可能背離絕大多數人的意志。因此,必須避免研發企業和技術精英成為權力寡頭,防止其利用算法優勢謀取私利。第一,建立開放的算法資源共享平臺。在政府主導的前提下,建立能夠提供虛擬化計算資源的共享平臺,使算力資源普惠社會全體成員。第二,鼓勵算法技術的創新發展。加強對算力技術的研究和創新,發展更加高效、可靠、安全、低成本的算力技術,最大限度避免算法偏見和算法“黑箱”的出現。第三,加強對算法技術的安全監管。建立有效的法律制度和監管機構,防止算法算力被濫用或遭到黑客攻擊。
政治泛娛樂化以及算法權力的濫用與失衡已經嚴重威脅民主政治領域的安全,必須依法合規采集和使用數據,確保人工智能技術的向善向美。數據是人工智能的血液,應該對數據的采集和應用過程嚴格把控,確保數智化民主政治的真實性與公平性。第一,保障算法數據采集的真實性和準確性。其一,明確算法數據的源頭和獲取途徑。政府應對原始數據的產生進行嚴格審查,避免虛假性、歧視性等惡意數據滲入數據庫之中,從源頭上遏制“三不”即不公平、不真實、不平等問題的出現。同時,也要對數據來源的途徑進行審查,必須確保數據來源渠道為官方指定渠道、正式機構組織公布的信息或者可信度較高的組織團體通過正式調研實踐得來的數據,杜絕從不正規、不合法渠道引入算法所需的各項數據。其二,提高算法數據的分析能力。數據的質量決定了人工智能在民主政治領域應用的結果,因為準確且真實的數據利于政府運用人工智能作出科學決策,進而推動民主政治的健康發展。因此,要建立相關算法模型,將不同階段和各個環節的數據信息以圖形或表格的形式加以列舉,后續便于技術人員對其進行審查,避免出現計算或統計錯誤等問題。如果出現運算或統計錯誤這種低概率事件,也要能夠對錯誤數據或信息進行快速定位和準確匹配,通過及時糾偏確保數據輸出的準確性。第二,保障數據使用的合法性和合理性。其一,完善數據安全管理規定。明確界定算法數據在民主政治領域應用的合法性范圍,技術人員不得擅自訪問和使用數據,避免出現技術人員為謀取私利擾亂民主政治秩序的惡劣行為。其二,合法合規使用數據,實現人工智能的向善向美。人工智能在民主政治領域的應用需要大量的數據作為計算分析的條件,各國政府需要合理利用采集的數據信息,將其用于解決民主政治領域中遇到的難題,向社會傳遞最真實、最準確的政治信號,增強政治認同,推動民主政治的良性發展。
加大對人工智能技術的監管力度,使技術始終處于可控狀態。第一,在不弱化政府監管權力的前提下,應逐漸下放算法的監督權力。算法和數據取之于民,更要用之于民。公眾應在政府的指導下,通過籌建算法監督委員會,持續跟進人工智能技術在民主實踐或政治活動中的應用效果。權力下放的同時也要建立完善的監督機制,避免出現個別人濫用職權的情況。第二,公眾應通過自主學習了解人工智能技術嵌入民主政治領域的運行機理。一般來講,絕大多數人自主學習和研究算法技術的概率微乎其微,但公眾應該對算法的基本功能和設計原理有所了解,這樣不僅可以使公眾對算法在民主政治領域中的運行邏輯更加清楚,同時也能防止公眾被算法偏見和算法歧視侵犯權益。
人工智能介入民主政治領域的最終目的是促進全人類的進步和解放,因此必須彌合數字鴻溝,即通過推動智能化信息基礎設施建設,提升傳統基礎設施智能化水平,構建適應數智化民主政治發展需要的配套體系。第一,各國政府要加強網絡信息基礎設施建設。針對農村和欠發達地區互聯網覆蓋率較低以及網絡基礎設施薄弱等問題,政府應提供資金和設備支持,根據當地的實際情況,對標對點地進行網絡基礎設施建設,使欠發達地區的居民也能夠參與到數字智能化民主政治中來。第二,鼓勵社會邊緣群體積極參與數智化民主政治。針對社會邊緣群體難以融入數字智能化民主政治的問題,各國政府不僅要構建一套適合社會邊緣群體的數字化互動場域和系統,同時也要加強對社會邊緣群體的心理效應建設,提高其對數智化政治生活和民主實踐活動的心理韌性,實現不同群體在政治參與、社會資源分配等方面的相對平等。第三,保護技術弱勢群體的民主權利。企業作為人工智能技術研發的主力軍,應當開發簡單合宜的軟件程序拓寬技術弱勢群體獲取政治信息及參與民主實踐的途徑,給予技術弱勢群體更多的民主話語表達權。
提升公眾的數字素養,實現工具理性與價值理性的平衡。數字素養是指人與技術之間的互動,其關乎人被技術異化的程度。“智能社會的公民素養歸根結底是人與技術的互動關系問題,是人在技術面前如何實現工具理性和價值理性的平衡互補問題。”[20]智能技術作為人的功能性延伸,其正在以最大限度的工具理性將民主政治推向一個嶄新的階段。但智能技術在使世界祛魅的同時也正在將技術再魅化,即人對人工智能的絕對崇拜。因此,應通過價值重塑提升公眾的數字素養,實現工具理性與價值理性的平衡。第一,堅持以主流價值觀為導向。其一,實現主流價值與智能算法的深度融合。應將主流價值融入核心算法技術之中,提高主流價值權值在算法優先級中的比重,使人工智能成為維護社會公平正義、增進民眾福祉的利器。其二,負責研發和操控人工智能的技術人員也應自覺遵守主流價值觀念。技術開發人員應兼顧多方公共利益,樹立算法倫理觀念,遵循算法倫理規則,確保民主政治活動的公正性。第二,堅持以人為本與以物為用相統一的原則。人工智能的出現和應用使得人類社會發生了質的飛躍,但需要注意的是,人工智能的本質并不是智能,而是人工。這也就意味著人類不應該將人工智能視為無所不能的“全能神”,因為其歸根結底離不開人的外部作用。對此,應充分發揮主體在政治實踐中的能動性,堅持以維護社會公平正義為宗旨,通過引導社會成員遵循共同的價值規范或道德準則,促進工具理性與價值理性的平衡,實現人工智能與民主政治的完美結合。
科學技術是推動人類社會發展的強而有力的杠桿,人工智能亦如此。技術發展的不確定性以及算法的隱匿性使數智民主有滑向“技術利維坦”的風險,萬物皆可量化的思維模式正在消減人的價值理性。但是人工智能在民主政治領域的應用是大勢所趨和不可逆轉的,我們不能因為其在賦能民主政治過程中出現的問題而將其冷藏。真正的問題不在于智能技術,而在于人。因為技術具有中性和純粹的特征,人與技術之間的正反辯證關系才是值得我們思考和研究的。人工智能是一種具有遠大前途的、新興的技術,但同時也是尚未成熟、難以預料的顛覆性技術。因此,必須將人文價值植入人工智能之中,確保技術的向善向美,以此彰顯數智化民主政治的魅力與價值。