摘 要:隨著生成式人工智能的廣泛應用,審視與破解生成式人工智能的意識形態風險成為了一個重要的時代命題。生成式人工智能具有意識形態屬性,呈現出信息真偽的“灰色裂縫”、“技術霸權”的主導傳播以及“技術應用”的外部張力的主要樣態。究其誘因而言,主要通過“技術利維坦”“算法歧視”以及“資本僭越”產生。為破解生成式人工智能的意識形態風險,應當進行糾偏價值理性、瓦解“技術利維坦”支配,推進算法向善,脫離“算法歧視”誤區,完善制度保障:,防范資本無序擴張。
關鍵詞:生成式人工智能;意識形態;風險
DOI:10.15938/j.cnki.iper.2024.03.008
中圖分類號:TP18
文獻標識碼:A
文章編號:1672-9749(2024)03-0056-07
2022年12月,隨著美國OpenAI公司的API應用程序編程接口向全世界開放,以ChatGPT為代表的生成式人工智能不斷涌現,在短時間內便獲得了廣泛關注,這在很大程度上對政治、經濟、教育、社會以及文化等領域都產生了深遠的影響,自此生成式人工智能掀起了新的數字化浪潮。數字時代,我國意識形態領域呈現出了新的特點,生成式人工智能的出現更對我國意識形態領域產生了多方面影響,提升了意識形態領域的治理難度,為我國意識形態安全帶來了全新的挑戰。據此,挖掘生成式人工智能意識形態風險的產生,審視生成式人工智能的意識形態風險表象,提出生成式人工智能意識形態風險的破解對策,對于維護我國意識形態安全、加強數字中國建設等方面具有重要的理論與實踐意義。
一、生成式人工智能意識形態風險的樣態審視
生成式人工智能的廣泛流行,不僅升級了現代網絡信息傳播的基本方式,擴展了公眾獲取信息的基本渠道,而且也賦予社會發展動力,但隨之也滋生出新的意識形態風險,呈現出前所未有的復雜樣態,威脅我國意識形態安全。
1.意識形態撕裂風險:信息真偽的“灰色裂縫”
自生成式人工智能問世以來,其生成信息的真偽始終受到廣泛關注。生成式人工智能制造虛假信息的問題逐漸凸顯,不僅損害用戶的基本權利,更對公眾產生不良誘導,形成了信息真偽的“灰色裂縫”,產生意識形態撕裂風險。
第一,信息的“真假難辨”,誘導真相與虛假混淆。在一項國外的研究中,“將以ChatGPT為代表的生成式人工之智能創建的內容文本提交給專業學術評審專家審核,這些內容文本全部通過學術剽竊檢測,‘智能檢測器’的識別率為66%,評審專家識別率為68%”[1]。這意味著生成式人工智能的生成內容已經達到了“以假亂真”的程度。究其原因,主要是由于生成式人工智能因其深度學習數據的廣泛性,具有較強的論證能力,會根據人提出的問題進行合理論證,但人無法確定這些信息的真偽,甚至是合理與否。人工智能為了回答人提出的問題,甚至不惜虛構信息,將大量帶有偏見的泛在化信息匯聚,以“答疑解惑”的形式進行內容輸出。值得注意的是,人們在人機交互的過程中弱化了人與人之間的交流,致使人們在信息區隔接受價值分化,進而誘發意識形態撕裂。
第二,信息的“虛實雜糅”,破壞政治格局。如ChatGPT等生成式人工智能生成虛假信息、制造信息混亂,有可能成為干預其他國家內政、影響政治格局的新“武器”。生成式人工智能的信息生成呈現出“微妙且動態”的特點,涉及到政治、經濟、文化以及民生等多個領域,在技術與資本的合縱下實現了真假信息的“魚目混珠”,比如在特定時間對一些敏感事件進行虛假解讀、過分解讀以及偏見解讀,使人產生“眼見不一定為實”的想法,試圖誘導用戶產生情感共鳴,舍棄理性思考,煽動非理性情緒,進而實現特定的政治目的,影響政治格局。
第三,信息的“虛假制造”,助推不良社會思潮傳播。生成式人工智能通過制造虛假信息,為歷史虛無主義、文化虛無主義、消費主義等思潮合理傳播提供了偽裝。受到資本邏輯的影響,如ChatGPT等生成式人工智能在價值建構方面呈現出鮮明的意識形態傾向,正在塑造西方資本主義意識形態圖景。這種意識形態傾向得到強化,試圖以意識形態滲透約束用戶,為實現特定的政治目的不斷販賣低俗、傳播虛假、虛構史實,破壞國內外的輿論格局與信息生態,在“技術與政治互構”的場景中,使意識形態領域的斗爭逐漸走向隱蔽化與動態化。
2.意識形態操控風險:“技術霸權”的主導傳播
數字時代,傳統的媒介霸權、文化霸權已經逐漸發展為人工智能霸權與算法霸權,更加智能化、精準化、多元化的媒介技術隱匿地充斥于“利維坦”之中。在這種“技術霸權”的影響下,生成式人工智能的意識形態隨即出現排斥風險。
第一,建構“全景監獄”。法國哲學家米歇爾提出了“全景監獄”的概念,“監視者在整所監獄的最頂端,對不同牢房的囚犯進行監視,囚犯無法察覺監視者存在,同時囚犯間缺乏信息互動”[2]。因此,當監視者缺位時,囚犯會默認其在場,會不自覺地接受外部控制,其本質上“是一種真實存在且輪廓模糊的監視功能發揮了自有的規訓功能,進而實現了權力的有效運轉”[3]。生成式人工智能建構了“人機交互”的新模式,隨之也衍生出了意識形態話語產生方式,在基于深度學習的生成式算法主導下,形成了與背后“主導者”相似的價值觀念與思想意識,并在深度學習過程中反復訓練,進而形塑某種特定的意識形態,建構“全景監獄”,人們在使用生成式人工智能時不自覺受到規訓,與自身的價值認同產生排斥,甚至催生群體極化風險。
第二,擴大“數字鴻溝”。“數字鴻溝”是指“在數字化進程中不同地域、群體以及個體之間,由于信息、技術的占有程度不同,出現的社會分化趨勢”[4]。數字時代,人工智能技術的深度變革加劇了意識形態領域的信息傳播異化,產生了“數字鴻溝”。隨著生成式人工智能的廣泛應用,“知識付費”似乎也變得理所應當,生成式人工智能的內容輸出質量也會根據用戶的付費情況而定,然而大部分應用免費模式的用戶會逐漸被分層,加劇了“數字鴻溝”現象。與此同時,基于技術特質與社會認知的差異性,使生成式人工智能的算法嵌入內容會更為接近技術發達的國家地區,相對較為落后的國家地區逐漸成為“底層”,加劇了排斥效應,滋生了西方資本主義操控意識形態的風險。
第三,誘發“倫理危機”。正如“科學技術作為意識形態實現了對人的支配”[5]。生成式人工智能以其獨特功能與鮮明優勢,盡管能夠幫助人們實現解放勞動力以及降本增效的目的,但也對人產生了多方面的控制,事實上,人類并沒有完全實現“對異己力量的駕馭”[6]。用戶對于生成式人工智能便利性與創造性的“向往”,進一步弱化了人與人之間的聯系,造成了社會個體間的疏離。這是由于生成式人工智能以其“類人性”進一步加劇了人類的“對話革命”,促使人機互動逐漸代替了傳統人與人的交流,成為了數字時代的主流對話模式。在這種背景下,人們可以借助生成式人工智能建立與各類事物的認知與聯系,不需要通過人與人之間的交往溝通,這主要是因為生成式人工智能在時間、空間以及信息隱私性等方面與對話主體的個性化與多元化特征需求相契合,生成式人工智能既能夠提供所需要的信息數據,又能夠提供情緒價值。正因如此,人們可以利用不斷進化的生成式人工智能解決現實中的多種問題,但這種新的“對話革命”,也加劇了社會個體間的疏離,進而走向“原子化”[7],主體間性或將在技術迭代下的“對話革命”中被消解。
3.意識形態解構風險:“技術應用”的外部張力
生成式人工智能以其對于多元場景的適應性,促使用戶能夠在各個領域加以應用,呈現鮮明的“工具化”特點,這種普及應用逐漸建構出人工智能高度介入行為實踐的交互性場景,使生成式人工智能或將衍生出一種支配現代人生活的外部張力,產生意識形態解構風險。
第一,威脅網絡輿論生態。ChatGPT等生成式人工智能在資本邏輯的主導下逐漸脫離了潛在的“運行規則”,呈現了顯著的“去規則性”,并逐漸與意識形態的產生緊密關聯,威脅國內外網絡輿論安全。使用ChatGPT等生成式人工智能的部分群體,通過蓄意篡改或編寫代碼、設計勒索詐騙軟件以及傳播釣魚郵件等方式突破技術隔閡,引發計算機數據泄露、功能缺失以及系統癱瘓,普通用戶難以辨別技術風險,尤其是在技術偽裝下,生成式人工智能逐漸呈現為“唯用戶化”和“去媒體化”,導致主流輿論的權威性被消解,負面輿論影響以及非理性聲音都會成為影響意識形態傳播的重要力量,威脅網絡輿論生態安全。
第二,消解傳統職業信仰。生成式人工智能的意識形態屬性在各領域表現存在差異,受到外部環境的影響,這些影響因素共同構成了深度學習算法的推薦標準。由于傳統職業對人的技術能力要求相對較低,很容易消解人們對傳統職業的信仰,這是由于受到生成式人工智能的影響,傳統工作被算法所監控,引發人們對生成內容的難以理解,阻礙意識形態傳播。譬如,隨著ChatGPT的快速普及,一些重復性、程序性的傳統工作存在被ChatGPT取代的可能性,針對這種技術現象的“反噬”,人們會轉而利用其他渠道宣泄發聲,以所謂的“技術正義”反制生成式人工智能。由此可見,社會的原始創新動力被技術所代替,部分傳統職業在一定程度上失去了存在意義,久而久之,傳統職業的累積性逐漸被擱置,技術迭代或將具有不確定性,沖擊人們對傳統職業的信仰,進而滋生意識形態風險。
第三,沖擊法律意識形態安全。法律意識形態是個體或社會基于特定法益的一系列觀念體系,ChatGPT等生成式人工智能提升了信息獲取的便捷程度,也在一定程度上影響用戶對法律的態度、理解以及認知程度。為了追求特定的利益,用戶通過避開一些敏感關鍵詞,向生成式人工智能輸入相應的問題指令,所生成的內容衍生出諸多如個人隱私侵權、數據詐騙、黑客供給以及法律責任認定失范等方面的風險,極易被境外敵對勢力加以利用炒作,借機對一些敏感事件進行引導輿論走向甚至蓄意抹黑,攻擊我國的法律制度與法治體系,進而沖擊我國主流意識形態的引領力與向心力。
二、生成式人工智能意識形態風險的主要成因
隨著生成式人工智能的全域式應用,為諸多領域發展提供了智能化契機,但在意識形態領域仍然存在不容忽視的風險。從生成端來看,生成式人工智能的意識形態風險既具有傳統意識形態風險性質,又衍生出生成式人工智能自身的智能化與數字化特征。生成式人工智能的意識形態主要由“技術利維坦”“算法歧視”以及“資本僭越”生成。
1.“技術利維坦”:“技術中立”幻象打破,催生意識形態風險
“技術利維坦”是“社會化的技術權力失控對技術本質的反叛與掠奪”[8],“兼具‘被國家權力支配’與‘脫離國家自行新型統治傾向’”[9],“是以技術迭代為必要條件、以特殊的技術與權力關系為基本架構的動態化支配性社會秩序,主要表現為具備一定要素的技術權力形態”[10]。在技術賦權的背景下,技術的“社會化的技術權力”特性逐漸呈現,伴隨著技術的受眾擴大與升級迭代,其正在動態地支配使用者建構新的社會秩序,導致從“技術機遇”發展成“技術利維坦”。在這個過程中技術權力與意識形態“全面聯姻”。“社會化的技術權力”對社會進行支配,激化了技術“物性”與“人性”的矛盾沖突,正如馬爾庫塞所指出,“技術控制體現了整個社會集團和社會利益的理性”[11]。
“技術中立”是指“技術演進遵循自身發展規律,不受人為的控制”[12]。關于“技術中立”的探討,不得不提及“技術中立”的理論基石“技術決定論”。未來學家庫茲韋爾提出了代表性的觀點,他認為“人和祖先一樣,認為未來發展與歷史發展趨近,而并不會察覺技術革新正在呈指數級發展”[13]。數字時代,人工智能技術發展似乎具有某種人類無法阻擋的客觀性,顯然這種“指數級發展”尤為驚人,甚至超脫人類預測,未來智能化的社會格局應當是“人機文明”,“盡管人類的智能水平會不斷提升,但人機智能或將遠超人類智能”[14]。在庫茲韋爾的觀點下,技術的“指數級發展”不受人類約束。如若單純對這種觀點加以審視,無疑將產生了“技術中立”幻象。然而,“技術利維坦”形塑了一種技術與權力相結合的賦權范式,打破了“技術中立”幻象,技術通過對社會的規制,已然成為了支配政治、經濟、社會、文化以及生態等方面的動態化力量。當“技術中立”不復存在時,技術便極易成為進行意識形態宰制的工具。
從人工智能的技術發展分析,在弱人工智能階段,人工智能僅能夠對人的思維進行刻畫。而生成式人工智能處于“強人工智能”邊緣,其通過深度學習的“語言”模擬人類思維實現人機交互,掩蓋了其意識形態屬性。值得注意的是,人工智能的思維并非存在特定的邏輯框架,而是深度學習被人為標記數據庫的必然結果,實質上仍然呈現了人的思維。隨著生成式人工智能的廣泛應用,其作為“社會化的技術權力”逐漸失控,走向“技術利維坦”,所產生的“社會化的技術權力”將引發人的思維、認知以及情感等方面出現異化,更為西方資本主義意識形態滲透提供了契機,無疑催生了意識形態風險。
2.算法歧視:算法作為“守門人”,制造意識形態風險
算法歧視是指“算法在數據收集、篩選、生成以及解釋等過程中產生的偏見”[15],導致群體或個體出現的不公平對待情況。“算法歧視的常見于設計者的偏見,或是生成數據具有特定傾向,或是算法技術設計局限,實際表現為種族歧視、性別歧視、階層歧視以及地域歧視等方面現象”[16],成為了算法技術應用中不可忽視的障礙。以企業招聘為例,有的企業會利用機器學習算法篩選簡歷,進而決定投遞簡歷者是否進入面試,受到算法歧視的影響,算法會剔除掉不符合要求的群體,但諸如年齡、性別以及學歷等篩選指標的嵌入是由“人”設計的。結合算法歧視的概念及特征分析,算法歧視出現的誘因是多元的,但本質上是因算法設計者有意或無意地把自身偏見嵌入到算法學習模型中,進而導致客觀事實出現價值偏差。由于“基于深度學習技術的生成式算法是生成式人工智能的核心原理”[17],因此,算法歧視必然存在于生成式人工智能之中。
“守門人”的概念在《大眾傳播模式論》中提出,“信息在傳播網絡中布滿守門人,信息傳播會沿著特定‘門區’的某些渠道流動……根據守門人的意見,就信息是否被允許進入渠道做出決定”[18]。在傳統媒體中,信息傳播的“守門人”是如記者、編輯等現實存在的人來擔任。進入數字時代,由于算法獨特的數據處理與內容生成的功能,人作為信息傳播“守門人”的身份逐漸淡化,并開始向算法讓渡。正因如此,基于深度學習技術的生成式算法隨即擔任了所謂的“守門人”角色,決定著生成式人工智能的內容生成,并通過強化學習近端策略,相當于在“人腦思維”基礎上加入了“反饋調節系統”,這也使生成式人工智能與人的交互模式實現了跨越式發展,由于其中蘊含著算法設計者的價值認同與情感偏向,隨即在生成內容中則呈現出一定的意識形態屬性。值得注意的是,相比于其他人工智能技術所產生的意識形態風險,生成式人工智能意識形態風險的產生方式發生變革,逐漸從負載于信息傳播向負載于信息生成轉變,這也為生成式人工智能意識形態風險的治理提出了新的要求。
在生成式人工智能與人的交互過程中,生成式人工智能所蘊含的算法歧視就像“特洛伊木馬”一樣,嵌入進每串代碼之中,隱藏在每條信息之下。在“算法黑箱”的掩護下,由于算法設計者的“先入為主”,將特定的意識形態嵌入編碼設計,產生“算法歧視”,使生成式人工智能生成帶有意識形態風險的信息內容。所嵌入的意識形態可能隱藏著大量的事實偏見以及虛假信息。基于此,算法作為生成式人工智能的“守門人”易出現“算法歧視”的負面效應,在一定程度上影響了信息傳播的客觀性與真實性,進而制造意識形態風險。
3.資本僭越:以技術操控與數字殖民為手段,擴大意識形態風險
在人工智能的發展浪潮中,數據是“人工智能的基礎,人工智能需要通過學習海量的數據以理解人類世界”[19],而“人工智能數據模型的建構,需要大量資本支持”[20]。由此可見,生成式人工智能的研發與維護離不開資本邏輯的推動,但資本邏輯具有逐利性,需要通過占有產業主導權,不斷變革生產力、生產方式以及生產關系才能有效地實現資本增殖,進而會表現出一種隱性的技術霸權。如果沒有微軟、馬斯克等“資本巨頭”的支持,OpenAI可能也就無法完成ChatGPT的開發、維護與升級。人工智能背后有特定的“資本巨頭”作為支撐。在資本主義語境下,人工智能成為了資本邏輯不斷“攫取剩余價值進而維護資本主義體系運轉的技術工具”[21]。可以發現,生成式人工智能的研發實際上是由“資本巨頭”作為“主導者”的,這意味著生成式人工智能的技術迭代,需要借助掌握數據優勢、技術優勢以及資本優勢的“資本巨頭”方能發展進步。數字時代,資本運行的形式逐漸轉變為憑借數據壟斷、技術統治等手段,塑造新的剝削形式,意圖在世界范圍內建構資本主義價值體系。
由此可見,資本邏輯處于生成式人工智能的主導地位。在利益驅動下,大量資本邏輯涌入生成式人工智能產業,試圖把生成式人工智能打造成一個自由、便捷、開放的“智能烏托邦”,以其背后所隱匿的價值判斷、情感認知以及思維邏輯等對人產生影響。基于此,生成式人工智能逐漸成為資本邏輯進行數字殖民的“殖民地”,通過新的人機交互模式推行資本掠奪,彰顯資本主義的擴張性和霸權性。就數字殖民的本質而言,“一方面是追求高額經濟利益的經濟邏輯,另一方面是意識形態擴張的政治邏輯”[22]。資本邏輯在誘導人們對生成式人工智能加劇“智能依賴”,逐漸建立起了資本主義話語體系,潛移默化地將資本主義意識形態滲透其中,進而掌握生成式人工智能中的意識形態主導權。
在這種背景下,資本邏輯借助生成式人工智能,通過意識形態滲透改變現有生產關系,進而實現資本增殖,進一步擴大了意識形態風險。以“科技巨頭”為代表的資本邏輯掌握著最前沿的技術資源和最先進的技術支撐,極易產生資本主義意識形態“壟斷”。在資本邏輯的主導下,生成式人工智能將大量數據資源精準投放,利用數字平臺挖掘與虛假信息傳播,無疑增加了多元錯誤社會思潮的傳播隱患,進而陷入資本主義剝削陷阱。正如馬克思指出:“支配生產資料的階級,同時也支配著精神生產資料……作為‘思想’的生產進行統治,他們也調解著‘思想’的生產與分配”[23]。在資本介入后,生成式人工智能逐漸顯現出背后主導者的意識形態意圖,利用技術操控與數字殖民,以達到意識形態滲透的目的。
三、生成式人工智能意識形態風險的破解對策
數字時代,生成式人工智能的意識形態風險是沖擊國家意識形態安全的新生力量,如何治理生成式人工智能的意識形態風險成為了鞏固我國意識形態陣地的重要支撐。值得注意的是,生成式人工智能意識形態風險的樣態景觀已經在很大程度上超越了其技術范疇本身,針對生成式人工智能意識形態風險的成因,需要從價值矯正、技術規范以及法治維護三個方面進行破解,實現生成式人工智能意識形態風險的良性治理。
1.價值矯正:糾偏價值理性,瓦解“技術利維坦”支配
生成式人工智能的信息真偽難辨,滋生意識形態撕裂風險,應對意識形態撕裂風險應當回歸“撕裂”現象產生技術屬性本身,憑借正向的價值加以矯正,進而以“價值理性”匡扶“技術理性”,瓦解“技術利維坦”支配。
第一,堅持“以人為本”,保障生成式人工智能始終服務于人。究其本質而言,生成式人工智能始終是一種“技術工具”,最大的價值在于“為人服務”,而非以其“工具”屬性代替人類。因此,必須要引導人們脫離技術依賴,摒棄顛倒化的“人機關系”,消解技術對人的抽象統治,堅持黨對于人工智能發展的領導,引領生成式人工智能的發展方向,在全社會凝聚正確的價值共識,鞏固馬克思主義意識形態在人工智能領域的主導地位,把社會主義核心價值觀融入到生成式人工智能研發過程,彰顯我國主流意識形態的本質屬性。
第二,完善智能化媒介平臺,優化意識形態“智能化”供給。要凸顯社會主義核心價值觀在人工智能技術應用與傳播中的價值形塑作用,提升主流意識形態的引領力與感染力。由于資本介入生成式人工智能的開發與推廣,致使其不可逆地帶有資本邏輯的固有價值傾向。基于此,各大主流媒體必須堅持馬克思主義在意識形態領域的指導地位,做好新“守門人”的角色。面對生成式人工智能所產生的不良價值、錯誤傾向以及政治謠言,特別的是關于歷史虛無主義、文化虛無主義的系列言論,各大主流媒體應當堅持主動發聲,以主流價值引領算法向善,利用算法推薦、智能引擎、數字孿生等技術呈現主流意識形態的“真相”,積極回應熱點與焦點問題。與此同時,要推進數字媒體融合發展,創新傳播內容、形式、載體等要素,增加主流意識形態內容的推送量,形成“虛擬現實”輿論場景的融合式發展。
第三,構建網絡輿情智能化應急管理體系,加強主流意識形態話語權建設。為有效規制生成式人工智能中的虛假信息,要建立健全網絡輿情預警機制、網絡輿情監測機制以及網絡輿情研判處理機制等,對網絡空間中政治、文化、經濟、民生等領域可能出現的意識形態傾向做到“早發現、早處理”,將議題設置、大數據模型、云計算等技術手段嵌入矩陣,做到精準識別并把握國內外的熱點問題、輿情走向以及意識形態風險點,完善意識形態風險等級管理制度,對已經出現虛假信息及時發出“官方聲音”,對存在的不良價值導向要及時干預處理,引導公眾樹立正確的價值觀,自覺維護主流意識形態的主導地位。
2.技術賦能:推進算法向善,脫離“算法歧視”誤區
基于深度學習的生成式算法作為生成式人工智能的核心技術,主導著生成式人工智能內容的生成,在意識形態領域產生了“算法歧視”的不確定性,應當注重減少“不確定性”的發生,通過規范底層算法技術發展,推進生成式人工智能“向善”發展,進而減少“算法歧視”風險。
第一,完善算法賦權,升級意識形態的算法治理。“中國式現代化的關鍵在于科技現代化”[24],加快技術領域的創新步伐對于意識形態治理具有時代性意義,然而,“技術迭代是一個不斷被發展的過程,人在其中發揮把握發展方向的決定性作用”[25]。正因如此,要做好生成式人工智能意識形態風險應對,就要發揮人的主觀能動性,加強算法賦權的核心技術攻關。既應建立國家級的官方算法研究機構,從根本上走出“算法偏見”困境,研發具有社會主義意識形態屬性的生成式算法并加以推廣;又要注重如信息加密、匿名處理、真偽識別以及源頭追溯等關鍵性的算法技術攻關,加強算法的技術篩選與軟件監測,依法打擊人工智能“工具化”而引發的意識形態安全問題,實現國家算法治理體系的升級優化;還要加大對算法領域研發的人才支撐與資金保障,設置專題項目研究,推進本土算法技術突破地域限制。
第二,優化算法設計,增強意識形態的算法引領。算法技術作為生成式人工智能的重要技術組成,關系著生成式人工智能的研發及創新。算法技術在生成式人工智能中促使各種意識形態話語隱蔽地影響用戶的價值認同,如果脫離我國主流意識形態,算法也必將導致社會價值的偏離與脫軌。因此,要注重主流意識形態對算法的引領作用,增強主流意識形態的引領力與影響力。既要建立系統完備的實踐方案與系統的數據庫,將主流意識形態以數字代碼的格式嵌入到算法之中,強化主流意識形態對算法運行方向的把控;還要加強算法對意識形態類型的判斷與分析,強化算法審查,保障算法在主流意識形態的引領下進行信息的分發與推送,并且建立信息反饋預警機制,進而調整算法代碼,規范傳播渠道與傳播內容;更要提升算法開發人員的基本素養,注重對算法開發人員的價值引領,引導算法開發人員在算法研發的過程中遵循正確的意識形態導向,鞏固我國主流意識形態在算法中的關鍵性地位。
第三,規范算法倫理,端正意識形態的治理方向。生成式人工智能作為一種技術產品,存在相應的技術倫理風險,理所應當建構算法開發應用的社會倫理規范準則,使其始終在正確的倫理道德秩序中運行。因此,既要強化算法技術的“人文屬性”,將尊嚴、價值、意義等要素嵌入到技術發展本身中,推動生成式人工智能建構正向的倫理規范;也要重塑算法的倫理主體責任,推進倫理道德由基本生存向責任關心轉變、把倫理責任由無限責任向有限責任轉變、把倫理承擔由過失責任向責任倫理轉變;還要創新算法倫理的運行機制,包含倫理風險預警機制以及風險評估機制等,對隱性風險進行必要的壓力測試,譬如為數據庫提供更加多元包容的信息管道進行管理,拓寬評估渠道,通過設置閾值明確責任標準,以確保評估結果的實效性,進而確保意識形態符合社會倫理。
3.制度保障:加強治理監管,防范資本無序擴張
一直以來,發達國家通過人工智能所帶來的社會問題,往往都是資本進行技術統治的意識形態需要。正因如此,資本邏輯作為推動生成式人工智能發展的重要力量,需要提升監管能力,通過規范資本邏輯的良性運行,確保生成式人工智能被妥善開發與應用。
第一,健全法律法規體系,明確技術應用規范。目前國家已經出臺了《生成式人工智能管理暫行辦法》《互聯網服務算法推薦管理規定》以及《互聯網信息內容生態治理規定》等法律,在此基礎上應當進一步完善法律體系,構建框架性的“軟硬混合”規范章程,制定技術準入制度,明確生成式人工智能的適用范圍,在申報、開發以及應用等環節加強流程規范,要求具有意識形態屬性的生成式人工智能進行備案,實行內容生產的算法分類,建立起“事前監督—事中監測—事后反饋”的治理流程,并細化技術復核制度,完善涉及生成式人工智能意識形態風險的治理細則,明確法律責任,暢通公眾對智能企業的監督反饋渠道,保障生成式人工智能產品的合法合規。
第二,依法治理“智能壟斷”,優化資本市場環境。圍繞生成式人工智能智能產權、市場流通、數據管理以及安全治理等的壟斷行為進行制度完善,順應生成式人工智能的技術發展趨勢與資本發展趨勢,對反壟斷法與壟斷行業認定規則進行調適與修繕,加強生成式人工智能的產權保護,針對生成式人工智能領域的壟斷與非法競爭行為進行依法懲處,維護資本市場的運行規則,鼓勵本土資本逐漸流向生成式人工智能領域,建立具有社會主義屬性的訓練數據庫,擴大數據集規模與范圍。與此同時,鼓勵借鑒發達國家的生成式人工智能的先進治理經驗,針對生成式人工智能的研發運營、使用規范、技術安全以及制度保障等方面進行交流,建立統一的生成式人工智能行業治理要求與原則遵循,通過合作共享打破技術發展壁壘,引領資本在法律制度范圍內良性運行。
第三,發放“政策紅利”,優化“技術無障礙”保障機制。全面考量生成式人工智能實際應用與外部環境之間的制度正義,把握治理監管與技術創新的平衡點,建立全方位、立體化的監管體系,推進人工智能企業結構優化升級,形成生成式人工智能治理的“產學研”合作機制,將技術服務逐漸向偏遠地區傾斜,完善數字化服務公平機制,推進資本監管體制改革,彌補監管環節短板,在紅利政策審慎監管基礎上優化算法以及大數據技術的能力水平,同時保障生成式人工智能的技術正義屬性,并完善各領域的資本數字化轉型建設,加強對“弱勢群體”的權利保障,深化技術創新與綜合監管相融合,確保生成式人工智能資本市場的穩定高效運行,防止資本脫離監管,進而滋生意識形態風險。
參考文獻
[1] H Holden Thorp.ChatGPT Is Fun,but not an author[J].Science,2023(6630):88.
[2] 黃靜茹,莫少群.算法監控的邏輯理路、倫理風險及治理路徑[J].南京社會科學,2022(6):130-136.
[3] 陳坤,劉雨.智媒時代大學生價值觀認同建構的算法風險及其應對[J].濟南大學學報(社會科學版),2023(2):128-135.
[4] 劉淼.數字鴻溝:定義域的擴展與實踐場景的分析[J].湖南師范大學社會科學學報,2023(4):135-142.
[5] 尤爾根·哈貝馬斯.作為“意識形態”的技術與科學[M].李黎,郭官義,譯.上海:學林出版社,1999:59.
[6][23] 馬克思恩格斯選集(第一卷)[M].北京:人民出版社,1972:42,172.
[7] 郭娟娟.網絡青年從“原子化”到“族群化”的生成機制研究——以鴻星爾克出圈為例[J].當代青年研究,2022(3):20-26.
[8][10] 袁超.“技術利維坦”的傲慢與偏見——以“社會化技術權力”為中心的討論[J].人文雜志,2021(8):122,122.
[9] 任劍濤.人工智能與“人的政治”重生[J].探索,2020(5):53.
[11] 赫伯特·馬爾庫塞.單向度的人——發達工業社會意識形態研究[M].劉繼,譯.上海:譯文出版社,2008:95.
[12][14] 劉興華.數字全球化時代的技術中立:幻象與現實[J].探索與爭鳴,2022(12):36,210.
[13] Ray Kurzweil.The Singularity is Near:When Humans Trascend Biology[M].New York:Viking,2005:33.
[15] 汪懷君,汝緒華.人工智能算法歧視及其治理[J].科學技術哲學研究,2020(2):105.
[16] 汝緒華.算法政治:風險、發生邏輯與治理[J].廈門大學學報(哲學社會科學版),2018(6):27-38.
[17] 2023年十大新興技術報告[EB/OL].(2023-06-28).https://www.zgm.cn/content/649b811d2d947.
[18] 丹尼斯·麥圭爾,斯文·溫德爾.大眾傳播模式論[M].祝建華,武偉,譯.上海:譯文出版社,1987:287.
[19] 王美瑩,王禹欣.數字基礎設施:打造數字未來堅實底座[N].光明日報,2022-11-11(8).
[20] 兩月市值飆漲萬億ChatGPT背后最大贏家競是它[EB/OL].(2023-02-21).https://new.qq.com/rain/a/2023022
1A09JWE00.
[21] 蔣紅群.無產階級會淪為無用階級嗎?[J].馬克思主義研究,2018(7):129.
[22] 盧斌典,孫珮云.數字資本主義的技術邏輯及其批判[J].社會主義研究,2023(5):50.
[24] 王永義,姜迎春.中國式現代化關鍵在科技現代化[J].紅旗文稿,2023(14):41.
[25] 成龍,王楠.數字異化:表象、根源及其破解途徑[J].中國地質大學學報(社會科學版),2022(6):2.
[責任編輯:張學玲]