999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

從應用陷阱到防治壁壘:人工智能風險的兩重性認識及機制應對

2024-12-31 00:00:00羅曉東趙宏瑞
湖北社會科學 2024年7期
關鍵詞:風險人工智能機制

摘要:當前國內外學界對人工智能風險類型的認識基本圍繞著技術歧視、技術犯罪與技術依賴三個方面,但是這些對人工智能風險認知的觀念形式依然是片面的,難以挖掘人工智能技術特性所導致的防治壁壘和困難。人工智能風險本質上具有兩重性,一是在應用領域對人類社會造成的直接危機,其真正的風險形式埋藏在正面形象和作用之下,如人設游戲中的信任誘導陷阱、人機交往中群性迷失陷阱、公共實踐中的合法歧視陷阱;二是在防治領域對人類社會造成的間接困境,其源于技術特性與社會形態的深刻關聯,如技術大眾化風險、媒介私密化風險、后真相迂回的挑戰。人工智能風險防治必須正視直接風險和間接風險的雙重性,以此為基礎探析治理機制,使技術運行在陽光之下。

關鍵詞:應用陷阱;防治壁壘;人工智能;風險;機制

中圖分類號:C02;G206""""""" 文獻標識碼:A"""" 文章編號:1003-8477(2024)07-0081-09

收稿日期:2024-04-30

作者簡介:羅曉東(1991—),男,哈爾濱工業大學(深圳)馬克思主義學院博士研究生(廣東深圳,518055);趙宏瑞(1968—),男,經濟學博士,哈爾濱工業大學人文社科與法學學院長聘教授、博士生導師(黑龍江哈爾濱,150006)。

基金項目:國家社科重大項目“數據主權與國家主權研究”(22amp;ZD200)。

隨著人工智能技術的廣泛傳播與作用,社會生產力和生產關系正在隨之發生巨大變革,人類認知及獲取信息的方法和偏好也在隨之改變,知識成本與知識壁壘逐漸被削弱,而國家間以人工智能創新為中心的技術競爭不斷升級。2017年中國最早發布了《新一代人工智能發展規劃》,布局人工智能競爭戰略。2018年英國政府發布了《人工智能產業審查》的報告,其中包含了對人工智能產業的立法建議。2019年歐盟發布了《人工智能的道德指南》文件,提出“合法、道德、穩健”的人工智能發展規范。2020年美國國會通過了《AI在政府中的未來》法案,據此設立了專門的“人工智能卓越中心”(AI Center of Excellence),推動美聯邦政府更廣泛地采用人工智能技術。由此,一場圍繞新知識、新風險和新規范的相互角逐,不可逆轉地在世界范圍內拉開了帷幕。當前在ChatGPT等技術創新的全球推廣下,以通用人工智能(Artificial General Intelligence,簡稱AGI)技術為中心的技術大眾化、私密化和后真相的新趨勢及其創造性破壞,更是成為各國不得不重視和重審人工智能風險的重要因素,成為迫在眉睫、亟待解決的核心任務與理論議題。

一、問題緣起:人工智能風險的主要類型及認識

正如貝克的《風險社會》,作為現代性的后果,人類在馴服自然和控制自身的同時總是會產生種種新的未知的意圖以外的危機,而這些正是必須得到認識和管理的“風險”。[1](p16-17)因此,風險管理成為科學技術發展不可避免的有機組成,技術與風險的聯系密不可分,新技術再生產著新風險,新風險的防治又在完善和推進著技術發展。人工智能的風險管理亦是人工智能發展的突出問題和基本表現,充分認識人工智能風險是形成有效機制應對的前提。但在技術悲觀主義的強調下,當前國內外學界認為人工智能的技術歧視、技術犯罪與技術依賴三個方面的技術風險往往具有負面的不可規避的色彩,由此使得人工智能的技術創新和技術發展飽受爭議。同時,這三方面也構成了國內外學界對人工智能風險類型的基本認識,亟須加以歸納和辨析。

(一)技術歧視的風險

技術歧視是人工智能風險的首要問題,涉及從社會標簽、認知結構到政治立場和社會秩序等宏微觀大量問題。技術歧視本身是非道德的,但技術歧視的認定標準、方法和來源又往往是國內外學者爭議的中心。長期以來,不少學者認為人工智能是具有技術客觀性和中立性的,或者具有實現客觀性和中立性的可能。[2](p167-193)但從技術生產的角度,學界普遍認為人工智能的技術歧視基本來源于兩種渠道,一是創造者或代理者本身的偏見,二是在模型訓練過程中使用了具有偏見的數據。[3](p97-105)二者代表著自然的客觀的偏見結構存在,這意味著技術歧視只可能被減少,不可能被消滅。從標簽生產的角度,數據標記和標簽分類是訓練模型的基礎,從早期傳統的預設標簽到生成算法的動態分類,雖然當前人工智能的技術發展大幅降低了創造者偏見的影響,但與此同時也在不斷增強有偏數據的隱蔽影響和依賴。[4]同理,在數據生產的過程,人工智能輸入的給定數據庫和數據清洗亦離不開具有人類偏好的標識,人工智能學習的過程就是基于有偏數據的輸入、推理形成有偏結果,而人工智能輸出的有偏結果進一步還會強化現實人類的偏見標識,再次影響數據輸入,由此可見,數據過程根本上是一個持續加強技術歧視的必然的惡性循環過程。[5](p509-511)由此,人工智能的技術歧視風險只可能實現技術上的縮減,以達到最小化傷害的目的,是不可能被真正完全消滅的。同樣,正因為技術歧視的這些特性,使得人工智能對個體的直接歧視相當罕見,但間接歧視即對某一類群體或標簽的技術歧視卻在大量增加,因而,間接歧視的權利損害構成了人工智能技術歧視的主要組成和形式。[6](p1143-1185)

(二)技術犯罪的風險

使用技術對某個具體對象的針對性傷害是構成技術犯罪的基本內涵。同理,諸如技術歧視的損害,只有上升到直接針對某個個體的具體損害,才能進入技術犯罪的概念范疇。技術犯罪風險是具有主觀故意的后果,是當前人工智能發展的主要阻礙,同樣,防范技術犯罪也是人工智能技術獲取社會信任和社會支持的必由之路。不少西方學者認識到,當前可用的人工智能已經在改變個人、組織和國家面臨的風險類型,惡意使用人工智能對數字安全、人身安全和政治安全構成了重大且隱蔽的風險。[7](p319-328)在數字安全上,人工智能能夠自動化地高效識別受害者在線信息并定制生成受害者感興趣和可能點擊的網站、郵件和鏈接,這些地址同樣也是模仿真實聯系人而合成的,用以盜取信息、詐騙財物或實施勒索等犯罪活動;在人身安全上,人工智能的大眾化也促使犯罪分子能夠以更低的技術成本實現自瞄準、遠程狙擊、無人機智能控制等武器智能化或機器人武器化的犯罪行為,造成人身財產損害;在政治安全上,人工智能的介入既使得國家監控權力擴大以及專制化可能,又使得高度個性化的虛假信息泛濫以及民粹化可能,二者都在造成民主制度的極化與解構。[8]除此以外,數字安全可能還包括惡意的版權侵犯和隱私盜取等更廣泛的社會問題,數字安全問題亦是技術犯罪的主要問題和形式基礎。綜上可見,數字安全、人身安全和政治安全基本概括了技術犯罪的實施領域,同樣也呈現出人工智能技術犯罪的高度隱蔽性、高度自主性且傷害規模更大的新特點,由此也對人工智能技術的風險管理提出了新挑戰新課題。

(三)技術依賴的風險

對人工智能的技術依賴,不僅會加劇技術歧視和技術犯罪的風險發生,同時還會進一步導致人的主體異化問題。一方面是情感依賴的主體異化問題,人工智能的情感實踐是以情感識別、情感計算、情感記憶和情感表達為運行基礎的情感數理化和人工化的重要技術趨勢,[9](p6-7)有學者通過對社交機器人Replika的扎根研究發現,AI伴侶所構建的虛擬親密關系既可能成為用戶提升社交經驗、增強社會融入的過渡形式,也可能成為阻礙社會交往、區隔現實世界的依賴形式。[10]另一方面是認知依賴的主體異化問題,人工智能跳過了信息篩選的環節,壓縮了人的知識成本與知識壁壘,同樣還能為個體決策提供強有力的輔助作用,但也更深層次地造成了判斷力匱乏的新問題。[11](p867-878)人類決策實際上高度依賴于對脫域機制,包括專家系統和符號系統的習得、批判和信賴。[12](p19-25)不同的是,人工智能客觀上模糊了專家系統和符號系統的邊界,直接表現為二者的混合,它既構成信息獲取的渠道,又被賦予專家判斷的權威。進而,這不僅使得人的判斷力缺乏信息構建基礎,同時又在自我判斷力的否定中被不斷剝離能動性,加劇人的片面性和主體異化趨勢。同時,從情感依賴到認知依賴的雙重異化,更意味著人類對人工智能系統的信任是遠超其他知識獲得的路徑的。因此,對人工智能的技術依賴問題逐漸將成為實現人類解放的核心阻礙和主要難點。

技術歧視、技術犯罪和技術依賴基本呈現出國內外學界關注的人工智能風險的主要類型,這些認識也基本完整地體現了人工智能的負面影響,由此催生和印證了技術悲觀主義的觀點。但是這些對人工智能風險認知的觀念形式依然是片面的,只能部分地說明人工智能在應用領域可能出現的危機,而難以深度區分和挖掘人工智能技術特性所導致的防治壁壘及困難,因而難以提出一以貫之且行之有效的機制應對。人工智能風險本質上是具有兩重性的,一是在應用領域對人類社會造成的直接危機,二是在防治領域對人類社會造成的間接困境,二者必須同時兼顧且施以綜合全面的通盤考量,才能真正實現對人工智能風險管理的機制應對。

二、應用陷阱:人工智能的直接風險及演繹

一個完全負面的技術是很難獲得支持和推廣的,因而技術風險的擴大往往在于其正面作用下隱藏的各種陷阱。這意味著技術的公共呈現往往是正面的,具有便利的、高效的和不可替代的時代價值,而其真正的風險形式也正是埋藏在正面形象和作用之下,裹挾著不可預知和難以量化的風險陷阱。透視人工智能的直接風險實際也是如此,不僅應該看到技術歧視、技術犯罪和技術依賴這些負面影響,更深層次還應該透視其正面應用下的危機和陷阱,以清晰認識人工智能風險的悖論性本質。以下分別從個體層面、群體層面和國家層面透析人工智能的應用陷阱。

(一)個體層面:人設游戲的陷阱

人工智能的人設扮演是減少技術恐慌、增進技術信任、創造技術可能的角色。譬如AI主播、AI語音助手、AI伴侶等等都是人設扮演的典型表現,是技術擬人化的典型呈現,但是這些人設之間又有本質不同。人設扮演基本包含著三種類型:其一是對人類角色的扮演。最開始作為判斷機器智能的“圖靈測試”,本質上就是扮演人類角色的一組“模仿游戲”。[13](p433-460)由此可見,對人類角色扮演的混淆程度是判斷機器智能程度的基本標準,這也直接導致了機器與人類身份邊界愈加模糊,埋下隱患。諸如AI主播或者是AI扮演的網絡水軍,其本質都是對人類角色的扮演,并且通過這種真假難辨的角色扮演以獲取人類信任和觀念協同,甚至實施技術犯罪。其二是對機器角色的扮演。對于人工智能而言,它最擅長的、迄今為止也是最成功的就是扮演一個人工智能。如AI語音助手或者ChatGPT,通常都在極力扮演著一個機器的中立化、工具化和可控化的角色形象,以這種自我矮化的方式減少人類對人工智能的技術恐慌。但在具體運行中,技術實際是為資本和權力所控制的,比如ChatGPT對“特朗普”的評價,一邊在用語上強調“中立性”和“數學模型”的本質,另一邊又通過枚舉法塑造了特朗普搞分裂、造謠言、引爭議的人物形象,這種潛移默化的政治渲染不止一端,使其價值中立的神話不攻自破。其三是虛構角色的扮演。譬如AI伴侶或者游戲角色,它既明確告知用戶它是虛構角色,但又通過數據掃描、模型訓練和情感表達的技術結合,搭建它與用戶之間的獨特、現實且唯一的社會交往。而像Replika或者ChatGPT這一類平臺對虛構角色的扮演更是能夠實現即時共通的交往效果。虛構角色的扮演使得人類不僅在心智上需要人工智能供給知識經驗,在生存上需要人工智能供給技術輔助,更是在情感上產生對人工智能的依戀關系,促使人機融合的尺度、速度和效度都得到了拓展與強化,也使得人工智能風險與人的生活世界的關系愈加緊密。

事實上,人工智能的人設扮演是人類有目的有意識的技術創造結果。在所有技術創造的過程中,人類總是需要通過信息反饋的手段不斷調試技術創新的方向以實現其為人類服務的目的,這時的技術就是人類這種自我調整的創造行動的對象化存在,是獨立于人類外部但又不斷受到人類意志與自然規律控制的物。[14](p14)因而,人機信任是創造人工智能技術的前提,人設扮演又是維系人機信任、實現信任最大化的路徑。但這種扮演的技術控制并不為全民所共享,而是為資本和權力所壟斷,因而它往往又表現為一種誘導路徑,驅使個體忽略技術歧視、技術犯罪以及技術依賴等負面影響,盲目產生技術樂觀主義,為人工智能風險的陷阱深植埋下伏筆。

(二)群體層面:個性交往的陷阱

如果說人設扮演是人工智能的技術目標,作為呈現不同人設角色差異性和主體性的個性交往,便是實現這一目標的內容支撐和原則秉持。同樣地,人機交往還使得人與機器之間的角色關系進一步輻射到整個人類社會的關系結構。由此,人機之間的個性交往不僅是人工智能的終極展示,也是評判其智能化程度的重要方式,更是奠定人工智能社會屬性的發展路徑。因為人類認識和習慣的延續,人機交往的個性化模式不可能脫離人際模板的參照和模仿,但二者之間又必然具有本質區別。一方面,人際交往具有個性拉平化的復歸特點,而人機交往則具有不斷求新求異的自我標榜趨勢。正如齊美爾認為的,人際交往具有個性化與群體化的本質矛盾與相互融通,個性化的本質追求在于世界主義的思想意識,在于打破群體間的隔離與邊界,但是個體的生存需要又往往無法脫離群體間的交往與合作,而這就不得不適應其群體身份的規范和邊界以維系自身生存需要。[15](p42-44)這使得我們所謂的個性化,既具有追求鶴立雞群、特立獨行的求異特征,又具有恐懼成為極端異類、眾矢之的的復歸傾向。同理,個性化所創造的新標簽也為構建新的群體身份提供了可能,使其重新成為群體化乃至主流化收編的有機組成。因而,人際關系的個性化本質并不是完全地絕對地追求異類的趨向,而是一種在求異和求同之間不斷搖擺拉平的趨勢。但不同于人際交往的這種矛盾與復歸,人機交往是完全封閉、區隔且私密的,從客觀上既不存在也不需要回歸群體身份,形成不斷標新立異、自我區隔的多重分裂,由此對人機交往的沉迷極高概率造成與社會現實的群性撕裂,阻礙了個體的社會融入。

另一方面,人際交往的個性體現是基于知覺經驗的共通基礎,人機交往的個性體現則是基于概率推薦的理性計算。人機交往的前提首先要通過對個性化經驗的特征標簽和統計分析,歸納其行為特點與程序結果之間的關聯程度,以獲得從個性到群性的知識經驗集合。建立在此過程上,人工智能既得以超越個性的狹隘,剔除了行動結果的偶然性,以普遍聯系和概率推定的方式對事物客觀規律加以認識和甄別,又得以超越群性的不足,以特征標簽的分類形式理解不同個體的個性需求和行為規律,避免了定性的、想象的、直覺化的片面解讀。但與此同時,人工智能亦借此塑造了總體化、一般化和科學化的知識經驗面目,通過提供最優解的象征誘惑指導并規范個體的行為決策,一定程度上實現了提高決策效率、降低行動成本、實現群性與個性的聯動。但同樣在人機交往的過程中,任何前期的個性的經驗嘗試又往往都是不可見的,使用者只能看到機器智能所提供的最優解的結果,亦即使用者只能看到機器,看不到機器背后的人。同理,面對總體化、一般化和科學化的權威面目以及最優解的象征誘惑,人類通常只能選擇馴服、逃避、批評,乃至提供新的經驗嘗試與最優解,由此再次成為推進機器智能程度的新的無名者。由此,以人為中心的機器智能締造變成了以機器為中心的程序控制過程,人不僅成為了機器的客體,還從原本自我的、具身的、本土的實踐方式徹底地被一種先驗的計算的烏托邦認識所替代和顛覆。

綜上可見,人機交往不僅打破和混淆了原本個性與群性的清晰身份邊界和身份歸屬,而且通過塑造和延續其最優解和進步性的科學象征,造成機器智能的自我合法化、自我賦魅的全面危機,這就必然使社會卷入到深層的群性迷失陷阱中。

(三)國家層面:合法歧視的陷阱

在第四次工業革命的技術升級和社會轉型的背景下,政府公共實踐及其頂層設計都面臨著亟須與人工智能相融合的升級需要和風險。內有企業技術升級,外有強國技術競爭,面對日益復雜化且成本不斷攀升的公共服務供給需求、危機管理決策需求以及智慧政府升級需求等等都迫切需要借助人工智能、大數據分析、物聯網等技術體系為支撐構建公共實踐的支持系統。[16](p31-42)同理,法律人工智能系統的價值和部署也由此日益得到重視與推進,二者之間的相互嵌入關系更是亟須得到正視,一方面人工智能的發展規劃需要法律制度等頂層設計的規范,另一方面智能識別、智能預測和智能監管等方法實踐在法律制度、個人合法權利或政府資源分配等頂層設計的過程和維護上也越來越起到了實質性的作用,二者缺一不可。[17](p66-74)可以說,這一趨勢既具有被動消極的一面,假若不升級和構建人工智能技術為支撐點的支持系統就很難起到有效監督和防治人工智能技術犯罪等問題,更難以在大國技術創新和競爭中規避“落后就要挨打”的困局,同樣也具有主動積極的一面,從適應技術體系發展轉向先導技術體系變革,為全面實現社會主義現代化強國和全面實現中華民族偉大復興奠定了遠景規劃。

可見,政府公共實踐及其頂層設計的人工智能融合具有必然性,但是在政府決策的人工智能支持中,具體的、現實的和感性化的人也因此逐漸被總體化、抽象化和數字化的人所替代,最終使得人被人的虛擬標簽所遮掩,這也勢必埋下重大隱患。在這一替代過程中,具有隱蔽性的技術歧視同樣會與正式權力相結合,公共部門預測或公共服務供給中亦會因此造成對某些群體的歧視加強和二次損害。[18](p209-221)由此,越是少數群體,越容易遭受刻板化的象征暴力,越是多元分立,越容易削弱集體化的權利維護,更可能就此造成整個社會深層的政治分裂、階層分裂和民族分裂。而且這一替代過程所塑造的人工智能技術支持的科學象征和系統權威,亦可能陷入自證預言的陷阱,既通過決策主流化排斥邊緣群體的權利實現,又借助其造成的人人“恐弱”的社會心理論證決策主流化的合法性,構成自我賦魅的合法歧視陷阱。

三、防治壁壘:人工智能的間接風險及特點

不論是技術歧視、技術犯罪和技術依賴的負面影響,抑或是在個體層面、群體層面和國家層面埋下的應用陷阱,這些都是人工智能的直接風險,亦是一種可見的風險。但是認識風險的應用陷阱并不能取代對風險的防范治理。源于其技術特性與社會形態的深刻關聯,人工智能的防治壁壘同樣也是人工智能的間接風險,決定著人工智能風險管理的特殊形態與時代特點,這也迫切需要加以認識。

(一)技術大眾化

對于人工智能而言,技術大眾化是其發展蛻變的必要前提和必然歸宿。通過技術大眾化,一是免費模型訓練,促使全民成為人工智能數據標記的免費勞動力,降低了人工智能技術創新的成本,譬如谷歌的機器人識別機制就包含其免費模型訓練的操作;二是擴大數據基礎,促使全民的生活數據供給人工智能的大數據分析,拓展了人工智能的模型參數和復雜性;三是提高預測精準,真正將全民的生活世界轉化為標準化、可參照、可預期的大數據,由此實現對各項社會規律和決策管理的全面化和精準化的預測需要。因而,技術大眾化是人工智能的基礎,同時又是人工智能的結果,二者相輔相成、相互促進。

但同樣正是因為技術大眾化的趨勢,亦將促使人類文明陷入風險社會化、風險國家化以及風險全球化的不可逆轉的危機,這是技術發展趨勢不可規避的雙刃劍。一是風險社會化,將人工智能創新的技術風險和企業風險轉嫁到整個人類社會,極大地提升了社會面臨的風險;二是風險國家化,技術大眾化促使被壟斷的知識和信息有了更易接觸的可能,促進了制度民主化的趨向,但與社交媒體的技術結合等又可能造成信息繭房等信息極化的認識困境,促進了制度民粹化的趨向,因而對國家制度具有不確定性的風險;三是風險全球化,在人工智能技術創新與國家競爭中不僅在形成新的分工秩序和利益分配,而且進一步將技術貧困與物質貧困牢牢結合,進而使得越是技術貧困的國家與地區其人工智能風險管理的技術越落后、觀念越薄弱、風險也越大,徹底形成第四次工業革命的不平等格局。

(二)媒介私密化

人工智能的媒介私密化既源于它的技術特性,也源于對人的權利保護。其一,從技術特性上,人工智能的媒介私密化基本建立在技術的全球化和信息的難溯性的特性之上。不同于人類文明的其他技術創新,人工智能的算法模型一旦成功便意味著高效的可復制潛能和全球性的技術擴張,它的技術壁壘實際也不在算法模型而是大數據基礎。因而,面對同類型技術的不同平臺與多元形式,一刀切的防火墻技術并不能全面有效地杜絕所有技術形式的入侵和隱匿使用。同理,面對海量用戶和海量信息,對這些信息交互的監管也是極為困難的,這種信息的難溯性只能實現對某個特定IP或特定類型關鍵詞的輸入端監督。其二,媒介私密化也是對人的信息數據隱私安全的保護,是人的基本權利之一,這一點近年來頗為受到國際社會的共同關注,這也敦促了中國、歐盟、美國等各自制定了相關法律制度保障。社會大眾對媒介私密化的追求,源于對監控資本主義的抵制,也是對自身“信息赤裸”的恐慌,是一種基礎的安全需要,更是對人工智能技術信任的底線意識。

從技術特性和權利保護的共識,人工智能的媒介私密化是其發展的必然趨勢和倫理形式,但是媒介私密化亦因此造成了人工智能風險監管的難題。一方面,媒介使用的私密性越高,國家安全系統對實際應用中存在的風險及變動的了解程度便越受到限制,越是滯后;另一方面,私密化也為越來越個體化的技術風險提供了可能,為新生成新形式的所有技術風險提供了溫床。

(三)后真相迂回

建立在技術大眾化和媒介私密化的趨勢前提下,人工智能的后真相迂回不僅成為可能,而且還將對整個人類社會和人類文明造成巨大的撕裂。后真相的時代趨勢并不是人工智能技術實踐才有的,根植于互聯網和全球化,人的認知從具身形式轉向脫域形式便已經決定了后真相的認知方式越來越成為現實主流。憑借易用性、低成本和高速率的特點,社交媒體當前已基本成為在線社交互動和信息傳遞的主要平臺。[19](p22-36)但西方學者同樣發現虛假信息比主流媒體實際上更受歡迎,并且在社交媒體中傳播得也比真實信息更廣。[20](p430-454)人機傳播的新實踐,一方面被應用于識別虛假信息,包括基于組成類別的識別、基于數據挖掘類別的識別、基于實施類別的識別以及基于平臺類別的識別等方式,以剔除自動化的虛假信息寫作和精準識別推送;另一方面也制造了海量的虛假信息,尤其是2016年美國總統大選的爭議將此問題推上全球熱議的高峰。[21]從網絡傳播到智能傳播基本可見,雖然二者都呈現出了后真相社會的特征,但這個歷史過程并不是一種靜態的、線性的,而是反復的自我否定的迂回關系。正如保羅·萊文森認為媒介技術正朝著越來越多地再現“面對面的”或是人性化的傳播環境這一方向發展,媒介進化與生物進化一樣,只有適應了前技術時代的傳播方式,才能不被新興媒介技術所替代。[22](p7)這一媒介進化的過程,首先表現為非技術性的或者說具身化的原始狀態,進而隨著技術發明克服跨時空傳播中的生物局限但又消解了傳播的具身性,最終隨著技術的復雜化又試圖重獲早期技術丟失的具身傳播的元素。[22](p6)后真相的迂回表現,一方面從網絡傳播到智能傳播,技術可以更好地發現虛假信息,并且也構建了即時的立體的進入時空的條件,拉近了人與真相的距離,但另一方面智能傳播依然還是脫域的信息供給,在更惟妙惟肖的“真”表象的構建之下,同樣意味著越來越難以辨認的“偽”的風險,實際又拉遠了人與真相的距離,如此反復的過程基本表現出后真相社會自我否定的發展循環。

面對后真相迂回的現狀與趨勢,這實際給予了人類社會雙重挑戰。一方面是海量虛假信息以及智能技術升級所帶來的越來越真偽難辨的信息環境,人類能夠信任的信息渠道逐漸變窄,相應地這種信任關系也在變得脆弱敏感,而由信息所塑造的人類觀念形式也因此被有限的權威渠道和真偽難辨的信息環境共同占據。另一方面是在這種脆弱敏感的信任關系,尤其是權威渠道的信任透支、公信力崩潰以后,人們的信息接受越來越轉向泛娛樂化,對事實和真理產生漠視和無力,更讓偏見和歧視占據心靈、難以撼動。

四、人工智能的風險防治及機制應對

結合技術大眾化、媒介私密化和后真相迂回的特性趨勢可見,人工智能風險防治的核心要義是“使技術運行在陽光下”。譬如對ChatGPT技術,單純的屏蔽或封殺并不能阻止它同類的相關應用入侵和隱匿使用,還可能造成大量假網站等信息盜取、詐騙勒索的損害,因而這種策略不僅無效,還可能增加社會公眾的技術風險。技術運行在陽光下,不僅能夠通過市場競爭的方式消滅那些不良應用和虛假渠道,同時還能促使監管高度集中化和可行化,降低了國家監管的成本。但使技術運行在陽光下并不意味著開源,開放源代碼并不足以使算法模型更安全,它只能消除開發者的主觀惡意,但同時也只會為惡意使用者和攻擊者進一步降低技術門檻。因而要促使技術運行在陽光下,還是理應同時正視人工智能的直接風險和間接風險的雙重性,結合“向善”的抽象機制原則和“抑惡”的具體機制形式,探析聯防聯動、防治一體的機制應對。

(一)“向善”的抽象機制原則

機制原則和機制形式是形成治理機制的兩個核心基礎,不同的是,機制形式是隨著技術革新和現實需要不斷重塑的,而機制原則則更穩定更抽象,指向的是全人類共同的利益需要和價值認同,是引導人工智能技術“向善”的認識前提。

其一,公共利益最大化原則。公共利益最大化是使技術服務于全體人類,消滅技術異化,實現人民至上等社會主義制度原則的核心標準?!渡墒饺斯ぶ悄芊展芾頃盒修k法》(以下簡稱“暫行辦法”)第三條中提出“國家堅持發展和安全并重、促進創新和依法治理相結合的原則”,其中國家安全和社會發展等問題的實質就是公共利益的問題??梢?,公共利益最大化是人工智能的風險防治機制的總則和前提,是其他原則的中心和基礎。

其二,程序目的公開化原則。正如前文所述,程序開源只會降低非開發者惡意使用該程序的技術門檻,并不能真正解決程序的安全問題,因而,需要被公開的并不是程序代碼而是程序目的。對使用者而言,前臺程序是通過界面可見的,而后臺程序往往是不可見的、也是很難建立信任的。程序目的公開化正是為了規避前臺后臺的封閉性,既保證使用者的知情權、重塑二者之間的信任關系,同時也為政府審查提供了明確且全面的目標對象和判斷標準。

其三,算法機制可解釋原則。算法機制可解釋是對程序目的公開化的重要補充,本質上要求程序開發者不僅要說明程序編寫所可能造成的社會后果,還要加強算法的可解釋性,減少技術漏洞、“算法黑箱”等風險陷阱的出現。算法機制可解釋是打破技術和市場、技術和倫理之間分隔的重要路徑,避免技術開發者的自我合法化、有組織的不負責等局限性。

其四,服務合約可協商原則。服務合約是使用者群體與平臺等技術提供者之間關于算法使用、數據讀取等多方面的服務約定問題。當前市場并未對強制性合約和非強制性合約進行有效的分級分類管理,強制性合約是指按照國家法律法規規定且提供相應服務所必須達成的限制性條款,如不能從事非法活動等,而對于合法的、私密的個體活動數據等是可以不提供給相關平臺和開發者,屬于非強制性合約的范疇,但在日常的技術服務中,二者往往是混淆的、不可協商和選擇的,這就明顯有損技術使用者的正當權利,也造成了技術壟斷、技術依賴等危機,不利于技術發展。

其五,數據存儲分授權原則。數據存儲問題是技術犯罪的核心治理問題,《暫行辦法》第十一條明確了“提供者對使用者的輸入信息和使用記錄應當依法履行保護義務,不得收集非必要個人信息,不得非法留存能夠識別使用者身份的輸入信息和使用記錄,不得非法向他人提供使用者的輸入信息和使用記錄。提供者應當依法及時受理和處理個人關于查閱、復制、更正、補充、刪除其個人信息等的請求”等,對數據存儲的基本規范作出指導。但與服務合約可協商相似,數據存儲同樣缺乏分級分類管理,對于數據存儲的永久授權、臨時授權和單次授權等不同情況并未作出分別授權的管理形式和技術處理,尤其對于臨時授權和單次授權的數據讀取處理缺乏在限定時期內刪除相應數據的管理意識,這也給非法數據留存、買賣等犯罪活動以及平臺長期免費壟斷用戶數據等企業行為創造了可能。

(二)“抑惡”的具體機制形式

機制形式是基于機制原則,聯合前沿技術、社會力量和制度形式的最終產物。不同于機制原則是一種“向善”的發展原則,機制形式的存在是為了避免人工智能造成“最壞”的結果,降低其造成的風險后果和規模。

其一,制造“邪惡AI”的模型機制。在技術開發與科學研究的過程中,對惡意軟件(malware)的重視態度基本明朗,人工智能算法模型的首要任務也是抵御外界對自身的惡意攻擊以及利用自身的惡意使用。但技術開發的邏輯與技術防治的邏輯往往是不同的。任何國家部門或公民個體都很難做到識別和評判AI技術的向善程度,這往往需要依賴市場競爭來達到最后的脫穎而出和產業均衡,技術開發的邏輯正是保證它持續向善的趨勢。技術防治的邏輯則不然,我們的目的在于評判AI的邪惡水平,這對技術開發來說是具有一票否決的決定性要件。同樣,否棄技術還是敦促整改也是緊緊圍繞AI的邪惡水平為標準的。因此,從成本最小化和決策精準化出發,建構一個評測AI的反向機制,即一個“邪惡AI”的算法模型,是風險防治的大勢所趨。這一模型類似病毒庫與防火墻的關系,通過惡意信息、入侵方式等數據特征的訓練,而具備即時智能識別AI模型服務的各種風險特征,發出預警。

其二,規范聯動的接口機制。正如媒介私密化所述,信息的難溯性只能實現對某個特定IP或特定類型關鍵詞的輸入端監督,因而這種監督實際需要建立在技術接口的機制治理上。一般情況下,只有技術開發者能夠通過信息輸入端的方式監督用戶的信息訴求。在這里,對接口機制的治理又尤為關鍵,譬如識別恐怖組織的惡意使用和查禁IP,或是對于抑郁癥自殺者、孤獨癥困擾者等的對話信息進行積極干預等等,這些都需要通過接口機制的輸入端信息識別來完成。但是在跨國企業的技術治理上,這種接口機制的形成和治理存在著一定的困難,因為信息的難溯性與企業的逐利性,極有可能陷入接口機制的不負責的缺乏管理狀態,這既需要正面呼吁和支持企業的接口治理,也迫切需要形成國際共識和法律規范,構建跨國企業的責任懲罰機制,如財產抵押或沒收等懲罰性措施,雙管齊下形成AI技術的離岸治理與國際合作,實現技術的規范化。

其三,應急防御的切斷機制。不同于模型機制和接口機制,切斷機制關注的是緊急事件,尤其是AI被恐怖組織惡意使用或者軍事入侵時應該有的重點防御機制。切斷機制的基礎是一種即刻生效的大面積人工智能阻斷和信號屏蔽技術。切斷機制的構建實際上包含著三個方面,一是需要關注和發展類似的技術創新,以起到防御入侵的技術前提,二是在國家安全重點單位、重要交通樞紐和公共場所的戰略性布局,形成人工智能尤其是像蜂群機器人入侵時的直接信號切斷,三是構建標志性和常規性的防御基地,如空曠的公園等公共場所,以有效地為應急突發狀況提供避難所。同時,按照覆蓋范圍和技術等級的差異,企業也可以進行技術創新,提供大量民用的相應應急阻斷產品,形成全民防御的國家安全機制。

綜上可見,任何單一部門或個體實際上都不足以解決人工智能所造成的全面風險,因而,只有將直接風險和間接風險真正聯系起來,才能真正認識聯防聯控、防治一體的有效機制及可行性要件。同樣,只有結合抽象的引導“向善”的機制原則和具體的實現“抑惡”的機制形式才能真切促成人工智能的穩健發展和底線保障。風險絕不是一個簡單的概率問題或利弊權衡問題,對于每個活生生的人而言,他們都是“赤裸生命”,風險發生所造成的損害都將是不可逆轉的。面對人工智能的全面風險,我們依然迫切需要在發展中不斷形成新認識、新機制和新規范。

參考文獻:

[1][德]貝克.風險社會[M].張文杰,傅博聞,譯.南京:譯林出版社,2022.

[2]Gillespie T.The Relevance of Algorithms[M]//Media Technologies:Essays on Communication, Materiality, and Society.Cambridge, Massachusetts:MIT Press, 2014.

[3]Lobacheva A, Kashtanova E.Social Discrimination in the Epoch of Artificial Intelligence[J]. Wisdom, 2022, (1).

[4]Bechmann A, Bowker C.Unsupervised by any other name: Hidden layers of knowledge production in artificial intelligence on social media[J].Big Data amp; Society, 2019, (1).

[5]Weyerer Jan C, Langer Paul F.Garbage In, Garbage Out: The Vicious Cycle of AI-Based Discrimination in the Public Sector[A]// Proceedings of the 20th Annual International Conference on Digital Government Research, 2019.

[6]Hacker P.Teaching fairness to artificial intelligence: Existing and novel strategies against algorithmic discrimination under EU law[J].Common Market Law Review, 2018, (4).

[7]Bradley P.Risk management standards and the active management of malicious intent in artificial superintelligence[J].AIamp;Society, 2020, (2).

[8]Brundage M, Avin S, Clark J, et al.The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation[J/OL]. Computer Science, 2018. https://doi.org/10.48550/arXiv. 1802. 07228,2024-06-20.

[9]仇德輝.情感機器人[M].北京:臺海出版社,2018.

[10]Laestadius L, Bishop A, Gonzalez M, et al.Too human and not human enough: A grounded theory analysis of mental health harms from emotional dependence on the social chatbot Replika[J/OL]. New Media amp; Society, 2022. https://doi.org/10.1177/14614 448221142007, 2024-06-20.

[11]L Eun-Hwa.Analysis about the Recognition of the Influencing Factors on the Over-dependence of Artificial Intelligence Technology: Based on Focus Group Interviews[J]. Asia-pacific Journal of Multimedia services convergent with Art, Humanities, and Sociology, 2017, (11).

[12][英]吉登斯.現代性的后果[M].田禾,譯.南京:譯林出版社,2011.

[13]Turing A M.Computing machinery and intelligence[J].Mind, 1950, (236).

[14][德]阿諾德·蓋倫.技術時代的人類心靈[M].何兆武,何冰,譯.上海:上海世紀出版集團,2008.

[15][德]齊美爾.社會是如何可能的:齊美爾社會學文選[M].林榮遠,譯.桂林:廣西師范大學出版社,2002.

[16]Lee J.The 4th Industrial Revolution Era and Emergency Preparedness Policy: Artificial Intelligence, Big Data Analysis, Cloud Computing, Drone Use[J].Journal of Safety and Crisis Management, 2019, (2).

[17]Surden H.Values Embedded in Legal Artificial Intelligence[J].IEEE technology society magazine, 2022, (1).

[18]Henman P.Improving public services using artificial intelligence: possibilities, pitfalls, governance[J].Asia Pacific Journal of Public Administration, 2020, (1).

[19]SHU K, Sliva A, WANG S, et al.Fake news detection on social media: A data mining perspective[J].ACM SIGKDD Explorations Newsletter, 2017, (1).

[20]Balmas M.When fake news becomes real:Combined exposure to multiple news sources and political attitudes of inefficacy, alienation, and cynicism[J].Communication Research, 2014, (3).

[21]ZHANG" X, Ghorbani A A. An overview of online fake news: Characterization, detection, and discussion[J/OL].Information Processing amp; Management, 2020, (2). https://doi.org/10.1016/j.ipm. 2019.03.004, 2024-6-20.

[22][美]保羅·萊文森.人類歷程回放:媒介進化論[M].鄔建中,譯.重慶:西南師范大學出版社,2017.

責任編輯"" 賈曉林

猜你喜歡
風險人工智能機制
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
自制力是一種很好的篩選機制
文苑(2018年21期)2018-11-09 01:23:06
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
中國經濟轉型的結構性特征、風險與效率提升路徑
商(2016年27期)2016-10-17 05:33:32
互聯網金融的風險分析與管理
企業納稅籌劃風險及防范措施
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
破除舊機制要分步推進
中國衛生(2015年9期)2015-11-10 03:11:12
注重機制的相互配合
中國衛生(2014年3期)2014-11-12 13:18:12
主站蜘蛛池模板: 一区二区三区四区日韩| 在线精品自拍| 91在线精品麻豆欧美在线| 91精品国产91久久久久久三级| 欧美成人一级| 精品福利网| 久久综合丝袜日本网| 午夜国产精品视频| 青青青国产在线播放| 国产成熟女人性满足视频| 91丝袜美腿高跟国产极品老师| 人妻丝袜无码视频| 成人午夜网址| 中文字幕 日韩 欧美| 欧美日韩免费| 成人在线观看不卡| 欧洲成人免费视频| 国产精品手机在线观看你懂的| 欧美日韩一区二区三区在线视频| 中文字幕色站| 国产精品极品美女自在线| 老司机午夜精品视频你懂的| 亚洲视频免费在线看| 日本人真淫视频一区二区三区| 萌白酱国产一区二区| 亚洲免费黄色网| 国产在线无码一区二区三区| 国产精品一线天| 97se亚洲综合| 亚洲人成影视在线观看| 国产精品专区第一页在线观看| 天天色天天操综合网| 性欧美在线| 久久国产精品波多野结衣| 国产日韩欧美在线视频免费观看| 亚洲精品无码不卡在线播放| 无码有码中文字幕| 国产美女无遮挡免费视频网站 | 人妻丰满熟妇av五码区| 最新日本中文字幕| 国产一区二区三区在线观看免费| 成人无码一区二区三区视频在线观看| 国产成人8x视频一区二区| a级毛片网| 亚洲综合狠狠| 国产va欧美va在线观看| 国产激情在线视频| 青青草一区| 亚洲成人网在线观看| 亚洲欧美在线综合一区二区三区 | 人妻无码中文字幕第一区| 亚洲综合第一页| 欧美成人综合视频| 欧美性猛交一区二区三区 | 中文字幕 91| 精品国产香蕉在线播出| 中文字幕亚洲无线码一区女同| 免费一级大毛片a一观看不卡| 欧美色视频在线| 国产区精品高清在线观看| 最新亚洲av女人的天堂| 亚洲国产精品成人久久综合影院| 免费高清毛片| 草草线在成年免费视频2| 毛片免费在线视频| 九九热这里只有国产精品| 亚洲va在线∨a天堂va欧美va| 伊在人亞洲香蕉精品區| 色亚洲激情综合精品无码视频| 亚洲福利网址| 成人一区专区在线观看| 欧美亚洲网| 日本高清在线看免费观看| 欧美精品H在线播放| 熟妇人妻无乱码中文字幕真矢织江| 免费在线成人网| 欧美久久网| 色噜噜狠狠狠综合曰曰曰| 久久香蕉国产线看观看亚洲片| 中国毛片网| 亚洲AV无码不卡无码| 亚洲天堂网2014|