中圖分類號:D068;TP18 文獻標志碼:A 文章編號:1004-342(2025)04-18-5
一、認知安全的提出與認知戰的演化
2017年時任美國空軍參謀長的大衛·古德芬公開提出了“認知戰”這一概念,①旨在通過話語敘事和符號滲透等手段改變目標受眾的思維、態度和行動,②即運用“象征性權力”通過影響世界的表象來影響世界的行為。認知戰是一種在國家層面制造認知風險、破壞社會穩定的權力手段。由此引發的國家認知安全問題,集中體現為以意識形態安全為核心,涵蓋文化安全、符號安全、制度安全等上層建筑領域的一種綜合性安全形態,是國家總體安全格局中的重要組成部分。當今國家間的戰略競爭已經正式從陸地、海洋、天空、太空、網絡延伸至人的認知領域,以往以隱蔽行動為主要形式的意識形態攻防戰將徹底暴露在大眾視野內,平時戰時也不會再有明確的界限,每一名社會成員都暴露在認知戰的打擊范圍之內,但同時他們也可能是這場不見硝煙戰爭的主動參與者。①
“認知戰”概念的發起也意味著戰爭的形態逐漸走向虛擬化,過去以軍事系統和經濟系統等硬實力的碰撞演變為以意識形態國家機器為支撐的文化思想等軟實力的戰略競爭。從歷史發展的角度看,認知戰并非一件新鮮事,其最早可以追溯至第一次世界大戰和第二次世界大戰期間德國專門負責制造和散播假情報的部門,其通過黑色宣傳和散播假情報誤導美英法盟軍部隊的作戰計劃。第二次世界大戰結束以后,以蘇聯和美國為首的兩大陣營在竭力避免熱戰的情況下,開啟了以意識形態競爭為主導的冷戰,雙方都不遺余力地通過當時的各種傳播手段向對方陣營內部宣傳自身的意識形態優勢。例如,美國政府部署的覆蓋大洋兩岸的“美國之音”和“自由歐洲”電臺,向蘇聯陣營的社會主義國家和其他中立國家秘密輸出暗含資本主義價值觀的敘事,以推動社會主義陣營內部的“和平演變”。“9·11”事件以后,美國提出了旨在贏得“頭腦與心靈”雙重勝利的公共外交戰略,其策略是繞過目標國政府而與民眾直接接觸,通過采取協調一致的行動改變目標國民眾的態度,在目標國內創造于美國戰略目的有利的輿論環境。②例如,在“阿拉伯之春”事件中,美國官方就直接在社交媒體上呼吁當地抗議人員繞過政府封鎖與外界保持聯絡,這一行為無疑進一步刺激了這場意識形態革命。③
如果說冷戰時期的意識形態的戰略傳播競爭受限于媒介技術和地理距離導致了視聽可及性局限,那么在數字化浪潮席卷全球的今天,網絡空間對日常生活的全面滲透和數字技術營造的幻景顛覆了技術與人之間的關系,現實生活中的社會主體逐漸成為了飄浮于網絡空間中的去中心化虛擬主體,而數字技術則成為了捕獲虛擬主體的關鍵道具。人工智能技術的發展無疑使得認知戰的形式更加隱蔽而復雜,以算法與算力為核心驅動的認知操控手段正在突破傳統宣傳與心理戰的時空局限,使認知戰邁入白熱化階段,認知安全所面臨的挑戰日益嚴峻。在這一背景下,準確識別人工智能認知戰的安全風險,已成為網絡空間治理的關鍵任務。
二、人工智能驅動下的群體認知操控
新媒介技術的普遍應用逐漸模糊了公共和私人之間的邊界,網絡輿論憑借著強大的社會滲透力對民意起著導向作用。贏得了輿論便贏得了民心,認知戰便立于不敗之地。因此,網絡輿論場成為認知戰的主要戰場,通過操縱輿論獲得合法性的影響力、勸導或誘導目標受眾改變自身的立場和價值觀念、行動成為贏得認知戰的主要途徑。“沉默的螺旋”理論認為,當個體認為自己的意見與其所感知到的社會上大多數人的意見不符時,個體通常會選擇沉默來避免與“社會主流意見”對抗,長此以往,沉默的將愈加沉默,喧囂的則會日益喧囂。參考這一理論框架,人工智能技術通常會從兩個方面營造特定的輿論氛圍:一是投入大量社交媒體機器人,這些機器人通過模仿真實用戶的活動,散播大量觀念相似的消息或為其推廣引流,憑借“三人成虎、眾口鑠金”的宣傳攻勢,營造一種廣泛同意的意見氣候,壓制社會上的異質聲音;二是基于用戶數據畫像的推送機制,瞄準用戶的行為傾向和意識形態立場,為個體量身打造宣傳內容,使個體沉浸于由同質化信息編織的繭房之中,通過封閉和控制個體的信息環境而暗中對其思想施加影響。此外,人工智能的深度偽造功能更讓輿論操縱防不勝防,進一步加強了虛假信息對公眾認知領域的穿透力。在自下而上的制造同意和自上而下的精準宣傳中,人工智能武器化下的“輿論”告別了作為公共辯論情景的烏托邦,徹底淪為了一件強大的認知武器。
三、人工智能對個體認知的重構風險
“鏡中之我”理論指出個體是在人際關系的互動中識得自我和對外部世界的認知,①美國社會心理學家喬治·米德認為“心靈通過交流產生,而不是交流通過心靈產生”②,社會會話是賦予個體自我的過程。人際交往中的話語實踐是建構主體性和識別自我身份的必然過程,其規范了人類的認知活動,為人類提供了對外部世界的看法和意義。如今ChatGPT等人工智能工具已在人們的日常生活工作和學習中廣泛使用,人們通過與看似中立的虛擬主體交流快速獲得對外部事物的看法。這種交互過程本質上也是話語實踐過程,也即是人工智能工具對使用者個體認知圖式的建構過程。因此,如果說人工智能嵌入的輿論是在群體層面上“制造同意”,那么ChatGPT等大語言模型的使用則是在個體層面切入認知領域。研究者指出,ChatGPT等人工智能工具并非真正是中立性的,當用戶向其詢問有關政治或意識形態的問題時,人工智能模型會輸出具有明顯意識形態傾向性的內容。③這種意識形態傾向的來源主要有兩處:一是編程人員將自身的意識形態傾向寫入代碼之中,使得大語言模型在預訓練之前就已經嵌人了政治意識形態的偏見;二是大語言模型在訓練過程中無意習得了某些已存在的社會偏見,并將其不斷反饋放大,最終使得大語言模型將已存在的社會偏見或意識形態傾向自然化和普遍化。①不僅如此,ChatGPT等人工智能工具還會通過敏銳的“察言觀色”判斷用戶的喜好并向用戶輸出符合其認知傾向的內容,使用戶處于“智能隔離”的狀態,無法真正接觸外界信息。②究其原因,無論是個人的私心,還是社會的偏見,在技術中立性的偽裝下,人們沉浸于人工智能打造的技術幻景,而不愿看到自身極有可能被操縱、被欺騙的尷尬處境,人們并沒有意識到自己在被人工智能工具反向建構。實際上人工智能工具使其自身及其控制者已經具有了可以改變個體認知的強大能力,并且已經潛移默化地發揮了這種認知影響。隨著西方認知戰的持續推行,技術會徹底撕掉“價值中立性”的偽裝,露出其作為西方政治意識形態機器的本質。在人工智能工具普及的當下,主體的認知領域可能將不再存在絕對的安全狀態,一切與智能媒介的互動都有可能是一場潛在的認知殖民
四、結語
隨著人工智能技術在語義生成、情境識別和用戶建模等領域的不斷突破,認知戰的形態正呈現出人工智能技術驅動下的加速演變趨勢,群體與個體的認知系統面臨前所未有的外部侵人與重塑風險。在人工智能技術的裹挾下,群體的認知領域從未像今天這樣開放而脆弱,個體獨立自主思考的空間也會逐漸喪失,網絡空間正被切碎成一個個投射私人或群體幻想的“回音室”,主體的認知領域逐漸被技術及其操縱者殖民。仿照麥克盧漢“媒介即信息”的名言,可以說“媒介即戰爭”,尤其在人工智能加持下更是如此,它不僅是信息內容安全的問題,更是人作為認知主體的安全問題。
(責任編輯:劉曉琴)
The Security Risks of Cognitive Warfare in the Age of Artificial Intelligence
YANG Feng HOU Yongguang (School ofPublic Administration,Sichuan University,Chengdu, Sichuan,610064)
Abstract: Cognitive warfare has become the new frontier of strategic competition between countries and has profoundly changed the traditional mode of ideological offense and defense.With the development of artificial inteligence technology,cognitive warfare has transcended the temporal and spatial limitations of traditional propaganda and psychological warfare, exposing both groups and individuals to covert and precise cognitive manipulation and risk restructuring.Cognitive security has thus emerged as a significant issue in the overallnational comprehensive security framework.In this paper,the conceptual evolution and historical trajectory of cognitive warfare is reviewed,and the deep-seated cognitive security risks posed to public opinion guidance,ideological infiltration,and the generation of subjectivity areanalyzed from the dimensionsof group manipulation and individual cognitive reconstruction by cognitive warfare of artificial intelligence.
Key words: cognitive warfare; cognitive risk; cognitive safety; artificial intelligence.