摘 要:生成式人工智能建立在大語言模型和文本編碼基礎上,依賴數據訓練和算法技術,其中算法技術、數據模型、價值傾向等因素會影響信息傳播的科學性,容易出現內容錯構、信息泛濫和算法操縱等問題,引起網絡空間輿情與倫理失范,危及我國主流意識形態安全。我們要優化算法技術邏輯、完善立法監管機制和推動我國人工智能自主創新,有效地防范生成式人工智能對網絡空間意識形態領域構成的風險與挑戰,穩固網絡空間政治生態穩定。
關鍵詞:生成式人工智能;意識形態風險;網絡安全治理
[中圖分類號]G641 [文獻標識碼]A [文章編號]1674-9618(2024)05-0058-05
*基金項目:本文系國家社科基金重大研究專項“網絡空間統一戰線鑄牢中華民族共同體意識研究”(項目編號:21VMZ008)階段性成果。
以生成式人工智能為代表的新技術便利了人們的生活,拓寬了人們的知識邊界,但也對網絡意識形態安全、數據安全、個人信息安全等方面構成極大挑戰。在網絡空間意識形態話語權爭奪日趨白熱化的時代背景下,生成式人工智能將成為引導公眾輿論的工具和手段。揭示生成式人工智能的意識形態風險表征,剖析其意識形態風險成因以及探究其意識形態風險的治理路徑,對于我國網絡安全治理具有重大意義。
一、生成式人工智能的意識形態風險表征
生成式人工智能的數據來源可靠性和真實性在很大程度上決定了其內容的質量。當前,資本主導下的信息技術帶有強烈的政治屬性,其偽中立性使得生成式人工智能的訓練數據存在數據污染和算法偏見等問題,容易引發內容錯構弱化意識形態認知效果、信息泛濫擠壓意識形態傳播空間、算法技術操縱意識形態傳達導向等意識形態風險。
(一) 內容錯構弱化意識形態認知效果
生成式人工智能具有文本整合、生成的強大功能,但距離真正實現精準地理解物理世界仍有一定的差距。生成式人工智能可能存在模擬失范、錯判錯構的風險,其內容錯構具體表現為自然語言處理存在偏見、生成內容操縱網絡輿論和人機關系異化等問題,引發弱化主流意識形態的消極影響。
首先,生成式人工智能的自然語言處理存在偏見性和歧視性。“生成式人工智能依靠大規模的數據訓練,當數據訓練的樣本采集不充足時模型訓練會產生歧視傾向。”[1]生成式人工智能在自主學習中不可避免地含有錯誤陳述、事實歪曲的數據,進而在自主決策中造成內容錯構。在網絡空間中信息傳播的高度交互,促使虛假信息、錯誤材料加速蔓延和擴散,容易誤導人工智能技術使用者的認知。
其次,生成式人工智能操縱網絡輿論導向。生成式人工智能通過細化精準畫像、預判輿論導向和設置意識形態議題等方式,傳播涉及大量意識形態的內容。意識形態話語權爭奪“既有人與人之間的爭奪,也有人與被人操縱的生成式人工智能程序之間的爭奪”。[2]網絡空間具有虛擬性、匿名性的特點,生成式人工智能通過控制大量的虛假賬號,不斷地傳遞含有引導性、虛構性的信息,并在特定的時間點或敏感事件中進行“集中爆發”,擴大不實言論的傳播范圍,進而引導和操縱網絡輿論導向。
再次,生成式人工智能導致人機關系異化。生成式人工智能可以模擬、延伸和拓展人的行為,滿足其個性化需求,機器表現出接近物理世界的思考,形成“沉浸式”的人機互動模式。使用者在人機互動中強化對錯誤內容的認知,消解、弱化主流意識形態的權威,這在一定程度上加劇了意識形態的分裂和科技倫理的撕裂。“虛”“實”混淆的信息過于逼真、生動、連貫,容易造成受眾在虛擬空間和物理世界之間的認知混淆,使之無法在真實的物理世界中找到依據和支撐,進而誤導人們對想象空間和真實世界的感知。同時,受眾對人工智能技術的依賴性增加,對生成的內容信任度增加,將會減弱其探求物理世界規律的積極性和主動性。
(二) 信息泛濫擠壓意識形態傳播空間
生成式人工智能具有行為智能和思維智能的特點,通過深化學習作出自主決策,表現為“機器思考”。在生成式人工智能下,每個人都是信息的集成者和傳播者,信息生產的成本降低、效率提高,這加劇網絡空間信息冗余繁雜、真假難辨。在網絡空間中,部分受眾的信息素養較低,責任感和道德感淡化,他們肆意創作和傳播含有惡意造謠、顛倒是非的內容,擠壓正確、有效信息的傳播空間。
首先,冗余信息壓制有效信息。生成式人工智能具有使用門檻低、個體自由度高的特點,降低了信息創作、傳播門檻和成本,加之受眾的信息素養參差不齊,辨識信息真偽的能力較低,這在一定程度上加劇了網絡空間虛假信息的傳播范圍和力度。同時,在網絡空間信息傳播中,大部分受眾對娛樂化信息的關注度高于對主流意識形態內容的關注度。網絡空間中存在大量無效、失真、泛娛樂化的內容,引發信息傳播中的“劣幣驅逐良幣”現象,致使主流意識形態的傳播空間受到擠壓。
其次,廣泛傳播的內容取代正確信息。根據“沉默的螺旋”理論,不同個體的意見在少量的“聲音”中不斷趨于沉默,進而追隨主導性、廣泛性的意見。生成式人工智能可以通過人為操縱、控制輿論導向,生成誤導性、錯誤性的內容,形成“強有力”的意見以“說服”大眾。
再次,信息傳播內容含有意識形態信息導向。“傳授一種空洞的語言是不可能的,傳授語言的過程本質上就是傳授意識形態的過程。”[3]互聯網已經成為意識形態斗爭的主陣地、主戰場、最前沿。當前,發達國家的生成式人工智能研發能力較強,在信息傳播的博弈中占據技術優勢。在分析國際政治局面、政治人物形象、政治事件視角等方面,生成式人工智能所獲取的數據是基于西方話語體系進行篩選和分析,其生成內容在潛移默化中對受眾的政治立場、價值傾向產生一定的影響,不利于我國主流意識形態安全。
(三) 算法技術操縱意識形態傳達導向
數據洞察的解讀往往負載著各種價值觀。生成式人工智能存在算法模型不透明、算法推薦歧視和價值取向偏離等問題,敵對勢力可能操縱網絡空間意識形態傳達導向,進而影響國際傳播態勢和政權斗爭。
首先,算法模型存在不透明性。生成式人工智能通過算法技術和數據訓練將輸入的文本材料轉化為文本和視覺相結合的呈現方式。然而,受眾不了解其數據來源、分析方法及程序運行機制,因此難以洞悉生成式人工智能內容輸出的決策邏輯,這造成視覺模擬過程和結果的事實解釋性缺失的結果,使受眾受到錯誤信息的影響。在使用生成式人工智能的過程中,受眾發現生成的內容存在錯誤信息,但是難以對生成式人工智能的算法程序進行修改和反饋。
其次,算法推薦存在歧視性。生成式人工智能對受眾的活動數據進行追蹤、抓取和分析,精準地繪制用戶畫像,洞悉用戶偏好,并有針對性地向用戶推送含有意識形態內容的信息,進一步引導受眾的認知。在算法技術加持下,大量同質化的內容不斷加深受眾對相關信息的印象,形成“信息繭房”“信息窄化”等現象,它們潛移默化地影響受眾的理性判斷和政治行為,結果導致意識形態話語權爭奪形勢復雜化。
最后,算法設計存在價值偏見。“人工智能技術如同刀槍,武器本身沒有善惡之分,關鍵取決于使用它的人想實現怎樣的目的。”[4]生成式人工智能的算法技術是人為進行程序設計和運行的,其政治立場和文化背景會滲透到算法機制中,生成的內容不可避免帶有一定的價值傾向和政治態度。在網絡空間的國際傳播場域中,掌握生成式人工智能核心技術的西方國家會贏得更多話語權,控制網絡空間的傳播格局和輿論生態。新的技術鴻溝拉大網絡空間意識形態話語權差距,逐步形成不利于我國網絡空間意識形態安全的國際傳播態勢。
二、生成式人工智能的意識形態風險成因
目前,西方國家在人工智能技術研發上相對領先,掌握技術霸權。當前在網絡空間中蔓延和傳播的含有西方意識形態偏見的內容,在生成式人工智能的“技術加工”下,可能產生“算法黑箱”、信息數據來源不明、文化產品價值偏見等意識形態風險。
(一) 算法層面:訓練建構存在“算法黑箱”
生成式人工智能在網絡空間中介入意識形態傳播,不斷地影響和重塑國際傳播態勢,這種現象被稱為“算法利維坦”。隨著生成式人工智能技術的發展,不同行業、領域對其依賴性會越來越強,人類社會將成為算法技術與意識形態高度糅合的社會,生成式人工智能掌握的數據也會隨之不斷增加,這將對社會各方面發展帶來巨大的影響。生成式人工智能存在“黑箱效應”,不僅體現在其數據收集和分析的不透明性,還體現在不同國家、行業和領域之間技術發展的不均衡性。
一方面,數據訓練過程不透明。生成式人工智能的自主決策和判斷是否有正確的客觀指標和倫理道德等參數,目前仍存在爭議。生成式人工智能的自我學習系統具有不可預測性和不確定性,難以揭示和分析算法模型是否存在算法失當和失靈的問題。人工智能的深度偽造識別技術參差不齊,監測內容的真實性、準確性仍有待提高,這容易混淆受眾的認知,消解主流意識形態的話語權威。
另一方面,不同國家技術發展不均衡。“算法的社會本質就是一種權力。”[5]不同國家由于經濟實力的差異,在關鍵核心技術、人工智能技術研發投入的資金成本、人力成本上都存在較大差距。不均衡的技術發展容易形成“算法黑箱”,從而引起國際政治局勢不穩定,沖擊意識形態話語權的建構,甚至引發群體性沖突事件。當前,在人工智能技術發展上,美國領先中國、歐盟和英國,成為頂尖AI模型的主要來源地,其牢牢掌握著網絡空間話語的主導權。在網絡空間意識形態話語權爭奪的背景下,“算法黑箱”摻雜著地緣政治和話語權擴張,侵擾著我國網絡空間主流意識形態安全防線。
(二) 數據層面:信息數據來源不全面
“人工智能高度依賴大規模數據來實現訓練和進化,因而人工智能數據安全問題是人工智能安全發展的關鍵問題。”[6]當前,生成式人工智能的數據庫以西方話語體系為基礎,直接輸出含有西方意識形態導向的內容,可能加速西方價值觀的傳播。
一方面,生成式人工智能把西方話語體系作為相當一部分數據庫來源的基礎。在人機互動過程中,算法模型不斷地學習和追蹤受眾的個人信息,針對受眾特點進行算法推薦,并讓用戶在同質信息中不斷強化認知。西方國家在人工智能技術上存在霸權,生成式人工智能的數據來源建立在西方話語體系之上,以西方價值觀去分析受眾的問題。在對待生成式人工智能的態度上,大部分受眾對人工智能的信任感較強,主動接受機器的自主決策,逐漸失去自主思考的能力,困于算法編織的“信息繭房”而顛覆原有的價值觀,從而逐漸認同西方價值觀。西方價值觀不斷地滲透和充斥在網絡信息傳播中,誘發我國主流意識形態消解、撕裂的風險。
另一方面,生成式人工智能存在“數據壁壘”。國家之間基于數據安全、網絡安全等方面考慮,涉及敏感內容的數據往往不公開、不互通,由此造成“數據壁壘”,形成“數據孤島”。在不同國家、領域和行業中,生成式人工智能的數據訓練不完全互聯互通、質量參差不齊、信息使用設限,機器自主決策的認知依據存在不完整性、片面性和單一性的缺陷,這一問題導致生成的內容存在失真和誤差。數據偏見和算法歧視下生成的內容不可避免地帶有一定的局限性,影響受眾形成正確的認知。網絡空間中失真的信息如果得不到有效的監控和過濾,將不利于社會的進步和發展。
(三) 人為層面:文化產品具有價值偏見
“人工智能的政策制定、研發規劃、應用實施等階段都不可避免地反映了相關主體的價值觀。”[7]人工智能運行過程并非完全自主管理、自主學習,在數據抓取、算法操作和認知決策等過程中仍需要人為因素的參與。人為因素通過控制和調整算法技術影響受眾的認知、判斷和行為選擇,通過非常規手段生成具有攻擊性、破壞性的信息,從而干預和影響社會的政治穩態。技術人員的價值傾向、企業的利益和平臺的訴求滲透在算法程序和數據訓練中,容易造成內容的偏頗。生成式人工智能已然成為西方國家實現話語霸權、顛覆他國的工具。
一方面,資本邏輯控制生成式人工智能的價值取向。資本具有逐利性、擴張性,以利益最大化為根本追求目標,它可以為謀取利益鋌而走險。在市場經濟的逐利本性驅動下,生成式人工智能的服務商平臺、企業和開發者傾向于開發“吸睛”內容以賺取流量。生成式人工智能以“流量”、娛樂化為導向生成內容,缺少對內容質量、道德底線的把控,造成個人利益凌駕于倫理道德之上的不良現象。受眾對嶄新形式表達的作品予以更大的關注和喜愛,代替了對邏輯性、政治性話語的關注和思考,泛娛樂化、低級趣味的內容影響著主流意識形態的傳播,潛移默化地消解主流價值觀。
另一方面,地緣政治導致新的“算法權力”。程序算法帶有設計者和開發者的價值傾向和政治態度,且在技術操縱上可能引發新的信息生產方式變革,這不利于國家之間平等地交流和對話。生成式人工智能通過對個人信息進行追蹤和分析,可以獲取其價值取向、政治觀點、行為動向等數據,并通過深度偽造技術對這些數據加以曲解和傳播。生成式人工智能基于大量數據分析和預測網絡輿論輿情和民意動態,生成帶有特定的價值觀念和政治偏見的內容,對受眾進行精準引導和干預,引發不同意識形態的個體、群體之間的理解障礙、情緒對立甚至群體沖突。
三、生成式人工智能意識形態風險治理
在大數據時代,生成式人工智能是不可逆轉的歷史發展潮流。我們既要順應歷史發展規律,又要推動智能技術不斷發展完善,從優化算法技術邏輯、完善立法監管機制和推動我國人工智能技術創新發展等方面著手,有效地化解生成式人工智能意識形態風險。
(一) 優化人工智能算法技術邏輯
技術手段是優化和檢測生成式人工智能內容傳播的主要工具。我們要通過協調工具理性與價值理性、提高大模型運行的透明度以及拓展機器學習的廣度和深度,推動生成式人工智能內容更加符合社會倫理道德,促進網絡空間正向信息傳播。
首先,我們要協同工具理性與價值理性。工具理性是以功利性目標為追求的思想認識和行為選擇,而價值理性是以社會發展、人的進步為長遠目標的思想認識和行為選擇。在技術研發動機上,我們要堅持科技為社會進步和人的全面發展作出貢獻,發揮技術的正面作用。在研發主體上,我們要對網絡服務商和技術人員加強主流價值觀引導,提高其社會責任感和服務意識,從而提高生成式人工智能自主決策的合理性和規范性。
其次,技術部門要提高算法技術和數據模型運行過程的公開透明度。加強受眾的操作技能培訓,增進對人工智能技術運行原理的基本了解,有助于提高其甄別真偽能力和信息素養水平。加強對內容生成中運行和自主決策過程的解讀,減少平臺與受眾之間的信息不對稱,有利于提高受眾對生成式人工智能的信任感和接受度。
最后,開發者要拓展數據訓練的廣度和深度。生成式人工智能囊括受眾的范圍之廣、數量之多,在人機互動中不斷產生新的數據。數據積累是動態發展的過程,機器的自主學習也是一個不斷深化的過程。受眾是存在認知差異的主體,生成式人工智能需要根據不同主體、平臺和其他學科等多維度的經驗數據和復合數據進行學習和拓展,提高其生成內容的準確度。同時,管理部門要建立健全生成式人工智能的協調運行機制,促進數據訓練不斷地進行深度學習,主動識別和糾正數據,提高內容的可靠性和穩健性。
(二) 完善人工智能立法監管機制
面對生成式人工智能與社會融合愈加深入,科學技術與意識形態的聯系愈發緊密的客觀現實,國家必須完善人工智能立法監管機制,界定和規劃好人工智能技術發展的“紅線”與“底線”。“如果堆砌數據與算力而缺少有效約束,AI脫域的嚴重程度馬上就會凸顯。”[8]完善生成式人工智能的立法監管機制,相關部門需要細化技術倫理規則、建立嚴格的生成內容評估制度和提高受眾信息辨識能力,以推動人工智能技術規范、可持續發展。
首先,立法部門要細化技術倫理規則。“人工智能倫理原則向制度規則的硬化是人工智能可操作化的必經環節和重要組成部分。”[9]立法規制是對生成式人工智能發展框架下的法律責任、社會責任的設定和分配,人工智能應合乎道德原則、遵守法律法規,堅持科技的“以人為本”原則。在數據安全治理上,國家應加強數據庫加密、限制訪問權限和數據可追蹤范圍,防范化解數據安全的風險。在人類命運共同體理念下,各個國家、民族和地區應共同完善和遵守生成式人工智能的倫理規則,并建立一個由各國代表組成的跨國合作組織加以監管和執行。
其次,監管部門要建立生成內容評估制度。國家應借助自然語言處理、數據清洗和內容篩選等技術手段加強對內容真偽的檢測,界定和監測隱蔽性更強的“敏感詞”范圍,提高傳播內容的質量,讓人民接受準確而正能量的信息。同時,監管部門要建立內容評估制度和質量懲獎機制,對劣質、觸及紅線的內容嚴厲打擊,對優質、正能量的內容優先推送。
再次,宣傳教育部門要完善外部制約機制。受眾是使用生成式人工智能的主體,國家和社會需要對受眾進行教育、培育,以提高其批判性思維,幫助其科學辨別內容的真偽。國家還應加強生成式人工智能的內外部監管機制。一是建立由政府牽頭,企業、平臺、社會群體等多主體參與的生成式人工智能監管組織,按照相關的法律法規及內容評估程序對生成的內容進行動態監測,并定期向政府部門反饋。二是政府內部多部門加強協同管理,建立有效的溝通機制,預防和管控失真信息的傳播,維護網絡空間意識形態安全。
(三) 推動人工智能技術自主創新
習近平總書記強調:“在互聯網這個戰場上,我們能否頂得住、打得贏,直接關系我國意識形態安全和政權安全。”[10]人工智能作為社會經濟發展和未來產業的關鍵技術,不僅涉及“硬實力”比拼,還關乎“軟文化”建設。唯有推動人工智能技術自主創新,才能維護我國網絡意識形態安全。當前,提高我國生成式人工智能技術的自主創新和研發能力,要加強人才隊伍建設,加大資金扶持力度,堅持“走出去”和“引進來”相結合的道路。
首先,組織和人力資源部門要加強人才隊伍建設。人才隊伍是生成式人工智能技術研發的關鍵和基礎。在生成式人工智能技術研發上,高校教育和研究機構要加強培養具有多學科融合、深厚專業知識和高超技術能力的人才隊伍。此外,國家要創造良好的就業環境,吸引世界各地的優秀人才共同研發和推進我國生成式人工智能技術的發展。
其次,政府要加大資金扶持力度。政府應通過專項資金扶持、政策傾斜等方式,鼓勵我國生成式人工智能企業的發展,鼓勵企業進行產業科技創新,突破“卡脖子”技術。同時,政府要為企業發展創造良好環境,通過建設人工智能創新集聚區,鼓勵不同行業、領域的企業聯合創新,推動多平臺、多場景的垂直式發展,從而提高我國生成式人工智能自主創新能力。
再次,“走出去”和“引進來”相結合,強化國際合作交流。在合作與交流平臺構建上,國家要主動搭建國際合作平臺,利用好“一帶一路”形成國際人工智能科技交流的“通道”,建立健全人工智能國際合作體制機制,共同推動人工智能技術發展。此外,國家還應鼓勵專業人才積極參與國際間科技交流,以獲取更多有關生成式人工智能技術創新的資訊。
參考文獻:
[1]桂韜,奚志恒,鄭銳,等.基于深度學習的自然語言處理魯棒性研究綜述[J].計算機學報,2024,(01):90-112.
[2]向征.“黑鏡”中的對壘:生成式人工智能背景下網絡意識形態風險與防范[J].社會科學戰線,2024,(04):18-24.
[3]俞吾金.意識形態論[M].北京:人民出版社,2009:2.
[4]王蘇靜,渠繼鵬,唐楠.從ChatGPT到AIGC:人工智能重塑千行百業[M].北京:電子工業出版社,2023:249.
[5]喻國明,楊瑩瑩,閆巧妹.算法即權力:算法范式在新聞傳播中的權力革命[J].編輯之友,2018,(05):5-12.
[6][9]李仁涵.人工智能與國際準則[M].上海:上海三聯書店,2022:8,65.
[7]李仁涵,黃慶橋.人工智能與價值觀[M].上海:上海交通大學出版社,2021:35.
[8]蔡恒進,蔡天琪.類人意識與類人智能[M].武漢:華中科技大學出版社,2024:156.
[10]中共中央宣傳部,中央國家安全委員會辦公室.總體國家安全觀學習綱要[M].北京:學習出版社,2022:65.
(責任編輯:畢秋)