摘 要:社交機器人是由算法生成,能夠模仿人類用戶行為,通過改變社交網絡節點之間的信息傳輸方式,誘發特定言論在目標受眾中的病毒式擴散,借此操控網絡輿情的人工智能賬號集群。社交機器人的信息表達應歸屬于個人意見表達的范疇,相關內容存在法律邊界的限制。社交機器人的應用失范與國家安全治理緊密關聯,應將總體國家安全觀作為相關法律規制的理念指引,強調“總體統籌”和“系統整合”的思維范式,彰顯新發展階段的中國特色的人民性。在具體路徑選擇上,首先應圍繞網絡空間命運共同體構建,完善相關網絡法律體系;其次要加快推進網絡信息技術自主創新,強化對算法的過程性監督,建立國家情報風險預警與應急機制;最后需打造多利益攸關方的協同共治新格局。
關鍵詞:社交機器人;信息表達;總體國家安全觀;算法規制;多元共治
中圖分類號:TP 18;D 912.1 文獻標志碼:A 文章編號:2096?9783(2023)05?0031?09
一、問題的緣起
科學學視閾下,社交機器人概屬一種經由算法驅動并運行的人工智能程序,其通過自動發帖、關注、點贊、評論、分享、發送或接受好友請求等人機交互行為,冒充社交網絡中擁有人格屬性的真人用戶,實現潛在的操控網絡輿情風向標之目的[1]。作為模仿用戶并生成信息內容的混合代碼塊以及引領公眾輿論的自動化腳本[2],社交機器人因對社會造成的正負效應不同而存在“善意”與“惡意”之分。本文主要關注后者,即那些被惡意設計,在社交網絡中定向散播大量傾向性信息,于社會敏感議題上挑撥公眾情感,引發同溫層效應,從而削弱社會主流價值觀,達致對社交媒體用戶進行隱性支配的機器人樣態,并就其相關法律規制展開探討。
在最表面的現象中,也就是在能夠觀察和計算的地方,是最早能獲得科學的準確性的。在中美貿易談判期間,于Twitter上參與該話題討論的社交機器人約占總賬號數的13%,發帖量高達19.26%[3]。而根據蘇州大學東吳智庫報告稱,于互聯網社交平臺抹黑北京冬奧會的帖子中,社交機器人賬號(主要來自美國及其盟國)占比22.2%,發文數達致24.8%[4]。即便是在反疫苗運動和傳播沒有科學依據的健康主張這樣的醫療衛生話題討論中,我們也能找到社交機器人活躍的身影[5-6]。在一項實證研究中,實驗者于新浪微博投放了96個社交機器人,其在42天的網絡滲透期內共計獲得了5 546名粉絲和951次互動(其中60.46%是點贊,38.60%是評論,0.74%是轉發),而這些粉絲中有89個認證賬戶,他們擁有超過1萬名關注者,這意味著社交機器人任意發布的一條微博有可能會被89萬名微博用戶所知悉[7]。客觀來講,網絡話語與輿論傳播的虛擬化,使得社交機器人可以輕而易舉地滲透進聚集了上億用戶的社交媒體,并通過模仿和貼近真人用戶而習得人性,導致傳統的“人—人”交流模式從根本上遭到瓦解,信息源的失真愈發突出,信息壟斷與信息割據變得稀松平常,網絡言論生態面臨前所未有的挑戰。
黨的二十大報告明確提出,要健全網絡綜合治理體系,推動形成良好網絡生態;健全國家安全體系,強化網絡、數據等安全保障體系建設。鑒之,將社交機器人的信息傳播納入法律決斷的體系下予以檢視和評判,并非僅僅是同一研究客體在不同維度的堆砌和平推,不同進路的視野,或者稱之為眼界,實則蘊含的是問題意識,折射出新發展階段的中國特色網絡輿情治理路徑。
二、社交機器人信息表達的觀察圖式
(一)社交機器人的信息傳輸機制
關于“互聯網自動通信”,人們早已熟知,譬如電子郵件用戶于外出時設置的自動回復郵件。在技術層面,這種外出訊息背后實則是一套運算法則,基于該算法可以于特定期間內,在接收郵件后自動發送事先已撰寫完畢的郵件作為回復,借此告知發件人“我已外出”。目前,此類軟件代理程序被越來越多地應用于搭建網絡爬蟲、操控游戲中的非玩家角色、處理證券交易、進行投資咨詢與資產管理等更為廣闊和繁復的領域,并由此構成能夠獨立、有效處理各式例行性工作的機器人的技術子集。而社交機器人的運行邏輯則是在此基礎上,通過完成類人化的交際行為,使得通信對象將其視作真正的人類用戶,而非算法賦值的自動通信。
如今,社交網絡正大張旗鼓地變革著互動發生的事勢,但其致命缺陷在于信息的真實性和客觀性無法得到有效保障,網絡空間極有可能淪為“私人跑馬場”或者“言論飛地”。在這樣的背景下,社交機器人依托算法技術,通過對數據的自動化和精準化處理,內嵌于網絡言論場的傳播鏈條中,代碼及其衍生品成為算法社會新的代表性言論類型,一個全新的人機耦合網絡空間就此形成。值得注意的是,社交機器人已由最初的“個體作戰”和“小打小鬧”,演進至大規模的協同使用,并在“感知→思考→行動”的行為范式中,形成整齊劃一的集群信息傳遞模式,大幅提升了智能化和組織化程度。
新型的社交機器人通過卷積神經網絡、循環神經網絡、生成對抗網絡和深度強化學習等深度學習算法,強化言語表達能力、互動能力、共情能力和反檢測能力,自主化、算法化和擬人化特質更為明顯。在人機交互時,此類機器人通過工具性話語的生產機制,最大程度增加其發布信息的曝光率,進而鞏固“用戶黏度”。如果不在某一網絡話題的討論初期對社交機器人的風險言論予以識別和管控,那么社交機器人的這種非良性參與可能會影響網民情感的整體走向[8],既導致現有網絡言論模式遭致破壞,又使得傳統立法與司法實踐面臨新的挑戰和要求。
(二)社交機器人的“表達權”
社交機器人本身并非憲法基本權利的主體,基本權利主要是用于保護“人”的。在憲法的規范脈絡中,軟件編程行為從根本上關乎的應該是職業自由這樣的權利類型,但機器通信所自動生成的評論和發帖是否值得保護這一理論與實踐困惑,直接指向的卻是對社交機器人編程員及其用戶主張表達權的法律認知問題。畢竟表達乃是人之個性在社會中最直接的表現,沒有表達權的行使,就不可能有民主秩序[9];表達權是為社會正義、和諧社會、民主和自治的“思想市場”等價值目標服務的[10]。
憲法學視閾下的“表達”是指權利主體——包括表意人和閱聽人之間的意義傳達,而表達權則強調要保障信息交流的暢通與安全。社交機器人的智能信息傳播并非一個完全隨機的技術操作流程,相反,它時時處處都體現人對技術的認知與利用,相關算法驅動是由人早前就設定好的,這直接決定社交機器人行為動機、互動模式、應用場景、社會影響的邏輯基礎和運行機理。社交機器人的信息傳遞行為在本質上應歸屬于個人意見表達的范疇,通過代碼整合的方式向閱聽人傳達出極具情感色彩的信息,使其產生認知偏差,最終達致重構意見氣候之效用[11]。畢竟,表達的具體方式可以是由人通過電子設備等自動化工具生成并傳遞的數字制品,借此使得個人的內心意思表示于外部。根據電子意思表示的原則,社交機器人自動發布的信息應視為執行其使用人的指令,法律效果應歸屬于該人,視為他在該特定時刻直接作出了此等表達。換言之,社交機器人所傳達的是一種實質性信息,而非無意圖的言論表達[12];它是通過數據量化的定式機制來進行自動化信息生產,旨在造成信息失序、加劇人類無意識、改造社會構型之目的。
(三)社交機器人信息表達的限度
社交機器人被看作是受主體指令驅動并作出回應的結果導向型人工智能,其代表了科技的迅猛發展,也實質上擴大了信息表達的渠道。但有的社交機器人從一開始就是為了改變話語秩序以及重構社會關系,其發表之言論常常會加劇信息污染的程度,放大信息失序的規模、范圍和速度,損害國家利益、社會公共利益或者他人合法權益[13],這就涉及社交機器人信息表達的限度問題。
根據國內外相關司法實踐,信息表達的內容通常被界分為“意見表達”與“事實陳述”兩大類別。在我國,此種區分始于2003年“余秋雨訴夏肖林名譽權糾紛”的兩審判決①。據學者統計,支持這一區分的判決占據了承認表達自由條款司法適用性的判決的50.6%[14]。詳言之,具有“評價的主觀性”的意見表達以及作為意見形成前提的事實斷言,是受表達自由保護的,都會受到法律保護[15],而故意撒謊、在陳述時已被證實為虛假的事實陳述、與意見形成無關的純粹的事實主張(如統計數據)、故意扭曲意見形成過程、侵犯他人人格尊嚴的信息表達,是無法享受法律保護的。上述關于信息表達法律邊界的司法判定同樣適用于社交機器人生成之信息內容。此外,考慮社交網絡平臺通常對發言與評論都有篇幅字數的限制,因此必須仔細而全面地考察社交機器人創建的話語表達存在的所有可能的解釋,并滿足真實性義務的要求。
就普遍排除在法律保護范圍之外的社交機器人自動生成的文本類型而言,根據歐洲安全與合作組織于2016年3月發布的一份針對其57個成員國的關于互聯網內容監管和表達自由的研究報告,為了尊重他人合法權益,維護國家安全、公共秩序和公共道德,包括誹謗、傳播恐怖主義、(鼓吹)仇恨、種族主義、仇外、煽動暴力、侵害未成年人權益(如兒童色情制品)、侵害他人智力成果權等在內的表達內容均被視為有害和非法(甚至是犯罪)的互聯網信息或思想[16]。在我國,《中華人民共和國憲法》(以下簡稱《憲法》)第三十三條和第五十一條為確定社交機器人發布信息的法律邊界提供了基本法上的依據,而其他相關法律法規則對禁止發表和傳播的網絡言論以列舉式給予行為指引。舉例來說,《中華人民共和國網絡安全法》(以下簡稱《網絡安全法》)第十二條、《互聯網上網服務營業場所管理條例》第十四條、《計算機信息網絡國際聯網安全保護管理辦法》第五條都明確規定,任何組織和個人使用網絡都必須遵守我國的憲法和法律,尊重社會公德和遵守公共秩序,不得在網絡上發布推翻社會主義制度,煽動顛覆國家政權的言論;不得在網絡上發布破壞國家統一,煽動分裂國家的言論;不得在網絡上發布破壞民族團結,煽動民族仇恨和民族歧視的言論;不得在網絡上散布謠言,發布捏造和歪曲事實、擾亂社會秩序的言論。《全國人民代表大會常務委員會關于維護互聯網安全的決定》第一至第四條,將排除在保護范圍之外的言論內容分為三個類別,即危害國家安全和社會穩定的言論,危害社會主義市場經濟秩序和社會管理秩序的言論,侵害個人、法人和其他組織的人身、財產等合法權利的言論。除此之外,社交機器人的信息表達也可能觸犯刑法,構成三種形式的犯罪:以侵犯國家法益為核心的煽動宣揚型,以侵犯社會法益為核心的編造傳播型,以侵犯個人法益為核心的侮辱誹謗型[17]。
三、社交機器人法治規訓的價值導向:以“總體國家安全觀”為中心
在后人工智能時代,多樣性、豐富性、共存性、風險性等共同構筑了社會特征,但仍然是存在基本的價值共識和具體的制度共識的[18]。就社交機器人的法律規制而言,必然也存在與之相適應并對其發揮規范效用的治理對策和措施,其間更少不了符合一定時空下社會理想的價值理念的鋪陳與衡量。
(一)總體國家安全觀的價值確證
如果由算法驅動的社交機器人被幕后操控者當做一種控制手段——甚至帶有一定的引誘和脅迫色彩——去重塑人、物體與各種社會規范和社會調整系統的互動關系時,便會催生出“計算宣傳”(ComputationalPropaganda)和“機器人打手”(Picciotto Roboto)這樣的亂象,危及國家安全和社會穩定。舉例來說,2019年Bolsover和Howard基于微博上150萬條針對中國官方政治信息的評論帖和Twitter上110萬條與中國政治相關的標簽貼的實證研究表明,大量惡意社交機器人通過發布反華虛假信息,試圖利用算法來獲取政治話語主導權[19]。另外,在Twitter、Meta等社交網絡上關于新冠病毒溯源以及涉港涉疆議題的討論區,正不斷成為境外勢力利用社交機器人去傳播虛假新聞、鼓吹政治見解、提升民眾關注度、改變個體政治認知的反華場域[20]。客觀來講,人類與社交機器人的“共生”已成為不爭的事實,我們在強調技術“祛魅”的同時,也不得不防范技術可能引發的新的“遮蔽”。
2014年4月15日,習近平總書記在中央國家安全委員會第一次會議上歷史性地提出了“總體國家安全觀”這一全新概念和重大戰略思想,之后我國陸續頒行《國家安全法》《網絡安全法》《國家情報法》《數據安全法》《個人信息保護法》,可以看作是對總體國家安全觀的直接法治回應。在二十大報告中,習近平總書記進一步指出,必須堅持以人民安全為宗旨、以政治安全為根本、以經濟安全為基礎、以軍事科技文化社會安全為保障、以促進國際安全為依托,統籌維護和塑造國家安全。總體國家安全觀下,針對社交機器人的法律規制與國家安全治理緊密關聯,該類型機器人的應用不僅存在因算法缺陷或操作不當所生之內生風險,而且還面臨因惡意濫用所生之外溢風險。根據新發展階段國家安全觀的指涉對象與關注領域的變化,可以將社交機器人所涉國家安全界分為傳統安全與非傳統安全兩個層面:在傳統安全域,主要考慮它在國家戰略對抗中的威脅性攻擊,如發動算法戰、信息戰、意識戰等新型戰爭,危及國家政治安全、國土安全和軍事安全;在非傳統安全域,主要考慮它在經濟、文化、網絡、環境、能源、糧食、醫療衛生等社會領域所生之不良后果[21]。必須指出的是,由于社交機器人的應用場景具有顯著的交叉性與跨界性,極易形成“破壁效應”,這對國家安全治理的效用性、國家戰略競爭的穩定性、社會秩序運行的有序性、網絡信息傳播的可信性會帶來極大的風險沖擊。譬如Twitter上關于“中國新冠疫苗”的議題中,社交機器人多假借極端化、情緒化的言辭來夸大疫苗接種帶來的社會危機,進而擴展至意識形態的對立,激發人類用戶的負面情緒,加劇群體分化與價值斷裂,對于全球攜手抗疫極為不利[22]。
(二)總體國家安全觀的理念引領
總體國家安全觀是馬克思主義基本原理與新時代中國特色國家安全道路探索結合的產物,標志著中國共產黨對國家安全基本規律的認識達到了一個新的高度[23]。總體國家安全觀對社交機器人法律規制的理念指引,主要體現在如下兩個方面。
第一,總體國家安全觀是一個有機統一、動態推進、協同聯動的復合型安全治理理論體系,而社交機器人的應用又關乎現代國家安全的諸多領域和發展進程,因此對此類機器人的法律規制必須做到總體統籌和系統整合。首先,這里的“總體統籌”重點指向的是統籌作為“第一要務”的發展與作為“頭等大事”的安全,“既要善于運用發展成果夯實國家安全的實力基礎,又要善于塑造有利于經濟社會發展的安全環境” [24]。社交機器人的應用反映了人工智能技術的發展水平,而所謂技術進步僅僅是指某項科研成果在實踐層面經受了檢驗并且最大限度滿足了社會發展的需求,其本身與價值層面的善惡無關[25]。因此,我們要抓牢人工智能技術發展的歷史機遇,著力挖掘社交機器人的正向功能,推動服務型社交機器人的自主研發——例如中國地震臺網中心推出的“地震信息播報機器人”——使算法與社交傳播的融合呈現出正反饋跡象。同時,要積極防范與杜絕因算法歧視與社交機器人背后可能的政治與資本的雙重裹挾而對國家安全造成的系統性風險,真正做到習近平總書記在二十大報告中提出的,“統籌外部安全和內部安全、國土安全和國民安全、傳統安全和非傳統安全、自身安全和共同安全”。其次,這里的“系統整合”強調的是協調統一各個相互聯系、相互作用的分散組成部分,形成系統最優。換言之,要以深度融合的系統思維與全域視野去看待不同領域社交機器人的治理問題,并將其全部納入總體國家安全的范疇結構,以法治方式建立健全規范社交機器人行為的制度體系與長效機制。
第二,總體國家安全觀以人民安全為宗旨,將人民利益至上作為探索中國特色國家安全道路的根基所在[26],這就要求對社交機器人的法律規制也必須彰顯出鮮明而深刻的人民性。有學者指出,人工智能的發展正逐漸摧毀近代以來的人的主體性框架,導致人類思想的稀釋、人類自由的失落以及人類尊嚴的淪喪,產生“人權例外” [27]。實踐中,社交機器人利用算法自動生成當作“子彈”使用的信息內容,將其瞄準處于相對封閉的言論社群中、極易受同理心影響的互聯網民眾,再通過回音室效應和信息繭房的合力作用,進而干擾網絡民意,操控公共決策,形塑意識形態,加劇社會撕裂[28]。這從根本上破壞了社交網絡的正常傳播生態,侵害了公民的知情權與信息自決權,背離了以人為本的發展理念。因此,對于社交機器人的法律規制,必須高舉社會主義核心價值觀的大旗,貫徹總體國家安全觀的核心哲學理念——人民本體性,重構自然人類與社交機器人之間的關系,警惕人的價值貶抑和物化、異化的危險,運用法律來處置并救濟被社交機器人侵害的社會關系和社會秩序,最大限度地尊重和保障人民群眾的網絡合法權益。
四、社交機器人法制規訓的路徑選擇
(一)頂層設計:圍繞網絡空間命運共同體構建,完善網絡法律體系
習近平總書記在2015年第二屆世界互聯網大會上首次提出“構建網絡空間命運共同體”的中國方案,為全球網絡空間治理提供了新理念和新路向。國務院新聞辦公室于2022年11月7日發布的《攜手構建網絡空間命運共同體》白皮書指出,網絡空間命運共同體價值觀在我國的全面踐行,對于推進數字經濟發展、助力數字生態建設、肅清不良網絡風氣、防范網絡安全風險發揮了舉足輕重的作用,為我國經濟社會的高質量發展提供了有力支撐。換言之,構建網絡空間命運共同體是被實踐證明了的正確選擇,是對人類命運共同體理念的合理性內涵延伸,是對“天下大同”這一中華傳統觀念的歷史性繼承與發展,是對和平共處五項原則的合時代性外延拓展[29]。構建網絡空間命運共同體的最終落腳點是要實現網絡治理的法治化,發揮法治固根本、穩預期、利長遠的保障作用,使網絡空間中更多的異質型主體在安全穩定的秩序下受益。
社交機器人應用失范所造成的風險與不安共同構筑了網絡法治的現實依據,故而應立足“秩序”“安全”“未來”這三大網絡空間治理的基本訴求,在《憲法》序言、第二十八、四十、五十四條等與國家安全直接關聯的條款引領下,構建以國家安全基本法律(即《國家安全法》)與網絡領域的專門性普通法律(如《網絡安全法》《數據安全法》《個人信息保護法》)為基礎,以其他普通法律(如《刑法》《電子商務法》)、行政法規(如《關鍵信息基礎設施安全保護條例》)、部門規章(如《國家網絡安全事件應急預案》《互聯網信息服務算法推薦管理規定》)、地方性法規、涉外公約條約中涉及網絡空間的法律條款為依托,綜合性、全局性、系統性的網絡法律規范體系。
“木桶原理”告訴我們,木桶容積率的大小實質上取決于最短的那塊木板。因此,我們亟須補齊網絡領域法律供給與需求不均衡的短板和弱項,使立法真正成為規制社交機器人的第一道制度閘門,須知,網絡空間的虛擬屬性決定了監督管理與事后追懲的難度遠大于事前防范。在這方面,可以借鑒歐盟治理社交機器人的有益經驗,適時出臺直接規范社交機器人應用的倡議或者法案。由于既有的法律原則和規范難以有效涵蓋因科技進步導致的新型社會關系,更無法對其作出及時有效的規制調整,滯后性不可避免,這就為各種政治團體與社會組織發起相關倡議提供了可能的空間。例如,歐盟人工智能高級別專家組于2019年4月發布的《可信人工智能的倫理指南》提出,值得信賴的人工智能應該具備合倫理、合法、穩健、安全、透明等特征,而且有必要建立對人工智能的問責制。準確地講,此類倡議本身是欠缺強制執行力的,其實踐績效如何也尚待考察,但在規制社交機器人的法律法規尚不健全的情況下,其實際上扮演著科技倫理范式的角色。與倡議相區別,歐盟委員會于2022年9月通過的《人工智能責任指令》和《產品責任指令》兩份法案,則可以直接約束社交機器人的行為,其中,還專門就人工智能引發的損害創建責任規則,并將人工智能產品也納入適用范圍。
還需指出的是,社交機器人的法律規制是全球網絡治理的重要組成部分,我國應積極參與到網絡空間國際法體系的建構中去,以尊重網絡主權與維護和平安全為出發點,堅決反對零和博弈,代之以最大限度求同存異,推動網絡空間治理的國際合作與平等共建,達成全球化治理的共識共鳴、貫通協同、同頻共振、統籌聯動、同向發力,不斷提升我國的國際話語權,構建負責任的大國形象。正如習近平總書記在致2022年世界互聯網大會烏鎮峰會的賀信中指出的那樣:“面對數字化帶來的機遇和挑戰,國際社會應加強對話交流、深化務實合作,攜手構建更加公平合理、開放包容、安全穩定、富有生機活力的網絡空間。[30]”
(二)底層邏輯:對“算法利維坦”的反向規制
算法本應是中立和價值無涉的,它隸屬于技術范疇,是一個由技能、工具和實踐整合形成的有機體[31]。但在實際應用中,算法由誰來設計、是否合規、服務于何種目的,都是其背后的資本和權力所決定的,這極易形成算法偏見和黑箱效應[32],這便是所謂的“算法利維坦”。換言之,在價值糾偏延遲與規范缺位的情況下,算法以其特有的決策方式可以誘發權力的不當擴張,對人身、財產與公共安全形成一種反噬[33]。當前,社交機器人所生異化風險已嚴重威脅到現有公民權利和政治權力體系,需圍繞如下三個方面對相關算法邏輯進行反向規制。
第一,大力提升我國網絡空間核心信息技術的自主創新能力。境外勢力對社交機器人的投放使用越來越不滿足于商業領域,他們企圖在政治層面也能憑借算法權力去扭曲民主進程,加速群體極化,甚至發動網絡攻擊戰。我國《“十四五”規劃和2035年遠景目標綱要》《“十四五”數字經濟發展規劃》都強調要把創新作為引領發展的第一動力,突出科技自立自強的戰略支撐作用,唯有如此,方能切實增強網絡安全防護能力,防范各類安全風險。
第二,強化對算法的規范化監督。對算法的理解不能只從數理邏輯的維度展開,其本質上仍是問題解決方案的另一種形式的精準呈現,是一系列治理措施的清晰指令。所以,應秉持公平原則和算法倫理原則,著眼于實現算法正義,建構針對算法運行各個階段的科學化約束機制:首先,通過價值敏感性設計,在算法開發的源頭植入正向價值觀,強調算法德性的培養。當然,也要重視算法數據喂食階段的價值糾偏問題,確保算法數據的公平正義。其次,遵循算法設計的透明度要求,向算法受眾公示算法系統的設計原理和運行目的,依法進行強制性信息披露和信息共享。再次,設立專門的審計機構,就算法的排序、類別關聯、推薦、排除等予以評估、審計和持續監測。雖然《個人信息保護法》第五十四條和第六十四條確立了針對個人信息處理活動的合規審計制度②,但卻未就具體實施方式進行細化規定,而且個人信息審計無法涵蓋算法審計的所有要素。因此,后續有必要就算法審計的主體、對象、機制、法律責任等實質性內容予以相應規范。接下來,遵循底線公平原則和秩序原則,建立算法運行的正當程序制度,合理限制算法決策的適用范圍,并通過反映網絡輿情的數據流尋求算法與其受眾的良性互動。最后,糾正算法權力和責任的不對稱性,明晰算法設計者和使用者的責任承擔規則。例如,應適時出臺《人工智能算法審查規范》《算法責任框架》等具體行政法規;應肯定算法設計者對算法負有擔保責任,對因算法缺陷所致損害要承擔賠償責任,而算法使用者應對算法受眾負有忠實義務,并應不斷加強對隱私的保護力度,保證相關數據的安全性。
第三,建立國家情報風險預警與應急機制。傳統的國家安全情報預警流程大多是利用人工方式導出數據庫中既有相關信息并進行分析,該方式既無法確保信息的廣度和深度,又欠缺實時性,從而導致預警與應急工作的效率低下。在算法時代,數據種類向著半結構化、非結構化方向轉變,數據量也呈海量級增長;大數據儼然成為國家安全情報的重要支撐,也為算法提供了優質“養料”。基于此,我們應該重視大數據深耕和特定算法模型的建構,高效地做到對數據的離線批處理、實時流處理以及快速查詢,進而將網絡空間中集群化的社交機器人言論進行情報轉化,比對出網絡、信息、受眾之間的互動關系以及發展態勢,對潛在的國家安全風險予以識別和預警。而相關政府職能部門也應據此第一時間制定出相應的應急預案,及時控制社交機器人言論的社會擴散范圍和速率。實踐中,可以考慮搭建國家安全風險預警動態信息平臺進行情報預警,該平臺應囊括風險預警動態信息庫、風險案例庫和風險應急預案庫。此外,應綜合采用案情推演法、情景構建法、戰爭游戲法等適用于情報預警的分析方法,就上述平臺數據進行風險值估算,最終根據風險壓力表模型作出風險的概率預判[34]。在進行風險值估算時,應根據社交機器人所發信息的敏感度、可信度、異化度、社會傳染度等所發生的變化,及時調整預警策略,阻斷危險信息、有害信息等不良信息的蔓延線路。
(三)治理范式:建構多利益攸關方的協同共治新格局
我國先后出臺的《網絡信息內容生態治理規定》《關于加強互聯網信息服務算法綜合治理的指導意見》《互聯網信息服務算法推薦管理規定》,以規范性文件的方式為建構網絡社會利益相關方協同共治提供了法律依據,同時也全面體現了習近平法治思想中“完善共建共治共享的社會治理共同體”的核心要義以及黨的二十大報告中關于“推進國家安全體系和能力現代化”的重要論述。
就社交機器人的治理范式而論,需要打造政府、平臺、行業組織和社會公眾多元參與、有效協同的治理新格局,形成治理合力,由此高效改變社交網絡的動態結構,控制社交機器人信息傳播的負面效應。
第一,就政府而言,應改變過去以行為規制主義為導向的治理范式——將行為的現實社會危害性作為衡量指標和規制重心,通過業務許可、專項審查(整治)等方式來實現內容管理——轉向對數據和算法的過程性規制范式[35]。
第二,就社交網絡平臺而言,既要積極參與算法規則的制定與實施,又要不斷完善適應人工智能、大數據、云計算等新技術新應用的制度規則,還要采取一系列技術手段,行使其監管網絡輿情的公共職責。申言之,平臺應運用基于特征、機器學習、圖論和眾包的檢測方案對惡意社交機器人賬號進行技術檢測[36],并視具體情況不同作出刪除信息、貼標簽、關停賬號等處置決定;應根據《互聯網信息服務算法推薦管理規定》,嚴禁算法推薦服務提供者利用社交機器人實施虛假注冊賬號、虛假點贊、評論、轉發等影響網絡輿論、規避監督管理、危害國家安全和社會公共利益的行為;鼓勵官方主流媒體在國內較具影響力的社交網絡平臺(如微博、抖音)開設賬號,以主流話語引導網絡輿論走向,以真實信息回擊社交機器人言論;通過事前過濾、事中巡查、事后查漏等方式,加大信息審核力度,履行平臺注意義務,從而降低社交機器人利用網絡輿情破壞國家安全的發生幾率;加強平臺與政府監管部門的通力合作與協同監管,強調平臺在面對可能危及國家安全的事宜時,有義務主動向國家安全部門報告可疑平臺賬戶及其可疑言論傳播,并依據行政指令而采取相應措施;落實平臺應承擔的數據保護、個人信息保護等企業社會責任,減少社交機器人造成的網絡暴力、網絡隱私侵犯等負面問題;在平臺的用戶主頁顯示賬號IP屬地,打擊境外社交機器人對我國網絡輿情的非法干預。
第三,就行業組織而言(如中國互聯網協會、中國互聯網上網服務行業協會),主要應推進指導性專業倫理規范建設工作,制定平臺透明度報告的統一標準,出臺行業自律公約,加強組織成員的社會責任建設,自覺接受社會監督,營造良性互動、安全有序的健康網絡空間秩序。
第四,就社會公眾而言,首先要引導其正確看待社交平臺上的網絡信息,培養相應的數字素養。通說認為,數字素養具有能力、認知和參與這三個核心維度,分別對應了自在、自覺和自為這三種公眾數字生存狀態。研究發現,中國網民感知社交機器人的負面影響程度較低[37],因此,有必要從能力培養與價值樹立兩方面著手去開展工作。舉例來說,應根據《提升全民數字素養與技能行動綱要》的要求,通過“云課堂”“云資源”“云端學校”等形式為社會公眾提供在線學習課程與教學資源支持,并長期保持開放獲取狀態,還可以利用騰訊會議、ZOOM等會議軟件召開專題研討會或學習經驗交流會。其次,要特別關注和提升特殊群體對網絡信息的分析、辨別、批判能力。理由在于,部分身處信息繭房的網民,極易受社交機器人言論的影響甚至教唆,觸發其神經敏感點,進而做出嚴重威脅國家安全和社會穩定的非理性舉動。再次,要樹立社會公眾的國家安全意識和權利意識:就前者而言,應在總體國家安全觀的指導下,培養民眾的信息素養,使其能夠始終站在國家安全的立場上,去理性甄別和篩選智能推送信息,并用辯證思維去分析算法風險;就后者而言,旨在要求民眾明晰數據權利、隱私權等法律概念,當自身合法權利受到不法侵害時,能夠及時訴諸法律,尋求公力救濟。最后,社會公眾應多層次、寬領域、全方位地主動參與到對政府、社交網絡平臺、行業組織的監督環節中,確保自上而下、自下而上的雙向協同治理機制的順暢運行。
五、結語
尼采曾經說過,科學的發展越來越把“已知之物”消解于某個未知之物中[38]。社交機器人的出現打破了網絡生態結構的平衡,使得現行治理規范遭致削弱甚至失效,法律的常態化規制、傳統行為模式、歸責原則等邏輯均受到來自社交機器人背后的算法邏輯的挑戰。我們對于社交機器人的信息表達應有清楚的法律定位,并且能夠就此類新型網絡言論對國家安全可能帶來的潛在風險進行科學研判,進而在總體國家安全觀的指引下,打造體系化的社交機器人法律規制架構。須知,在算法社會,國家安全可以“轉場”,但從未“離場”,更談不上“終結”,唯有不斷推進國家安全體系和能力現代化,才能真正實現以新安全格局保障新發展格局。
參考文獻:
[1] LIBERTUS M. Rechtliche aspekte des einsatzes von socialbots de lege lata und de lege ferenda[J]. Zeitschriftfür Urheber- und Medienrecht, 2018, 62(1): 20.
[2] HOWARD P N, WOOLEY S, CALO R. Algorithms, bots,and political communication in the US 2016 election: thechallenge of automated political communication for electionlaw and administration[J]. Journal of InformationTechnology amp; Politics, 2018, 15(2): 81.
[3] 張洪忠, 趙蓓, 石韋穎. 社交機器人在Twitter參與中美貿易談判議題的行為分析[J]. 新聞界, 2020(2): 57.
[4] 起底推特“水軍”抹黑北京冬奧會套路[EB/OL]. (2022-01-30) [2023-01-12]. https: //news. ifeng. com/c/8DE30d9Jrp1.
[5] YUAN X Y, SCHUCHARD R J, CROOKS A T. Examiningemergent communities and social bots within the polarizedonline vaccination debate in Twitter[EB/OL]. (2019-09-04) [2023-01-28]. https: //journals. sagepub. com/doi/10.1177/2056305119865465.
[6] ALLEM J P, ESCOBEDO P, DHARMAPURI L. Cannabissurveillance with Twitter data: emerging topics and socialbots[J]. American Journal of Public Health, 2020, 110(3):362.
[7] WANG W X, CHEN X S, JIANG S Y, et al. Exploring theconstruction and infiltration strategies of social bots inSina Microblog[J]. Scientific Reports, 2020, 10(1): 1-19.
[8] 馬曉悅, 孟嘯, 王鎮, 等. 網絡突發事件中社交機器人情感的交互式影響機制研究[J]. 圖書情報工作, 2021(8): 80-82.
[9] 克里斯托夫·莫勒斯. 德國基本法: 歷史與內容[M]. 趙真, 譯. 北京: 中國法制出版社, 2014: 53.
[10] 郭春鎮. 作為中國政法話語的表達權[J]. 法學家,2021(5): 116-118.
[11] KU?EN E, STREMBECK M. You talkin' to me? Exploringhuman/bot communication patterns during riotevents[J]. Information Processing amp; Management, 2020,57(1): 102126.
[12] BENJAMIN S M. Algorithms and speech[J]. Universityof Pennsylvania Law Review, 2013, 161(6): 1461-1471.
[13] HAGEN L, NEELY S, KELLER T E, et al. Rise of themachines? examining the influence of social bots on apolitical discussion network[J]. Social Science ComputerReview, 2022, 40(2): 265-285.
[14] 陳道英. 我國民事判決中憲法言論自由條款的解釋——以2008—2016 年103 份民事判決為樣本[J]. 華東政法大學學報, 2017(1): 187.
[15] PAPIER H J, KR?NKE C. Grundkurs ?ffentliches Recht2: Grundrechte (4. Aufl. ) [M]. Heidelberg: C. F.Müller, 2020: Rn. 253.
[16] AKDENIZ Y. Media freedom on the internet: an OSCEguidebook[EB/OL]. (2016-03-09) [2023-02-06]. https://www. osce. org/netfreedom-guidebook.
[17] 劉艷紅. 網絡時代言論自由的刑法邊界[J]. 中國社會科學, 2016(10): 135.
[18] 梁上上. 利益衡量論[M]. 3 版. 北京: 北京大學出版社, 2021: 109.
[19] BOLSOVER G, HOWARD P. Chinese computationalpropaganda: automation, algorithms and the manipulationof information about Chinese politics on Twitter andWeibo[J]. Information, Communication amp; Society, 2019,22(14): 2063-2080.
[20] 韓娜, 虞文梁. 國家安全視域下的計算政治宣傳: 運行特征、風險識別與治理路徑[J]. 公安學研究, 2020(6): 2.
[21] 闕天舒, 張紀騰. 人工智能時代背景下的國家安全治理: 應用范式、風險識別與路徑選擇[J]. 國際安全研究, 2020(1): 11.
[22] 陳昌鳳, 袁雨晴. 社交機器人的“計算宣傳”特征和模式研究——以中國新冠疫苗的議題參與為例[J]. 新聞與寫作, 2021(11): 81-85.
[23] 曹詩權. 堅持總體國家安全觀[N]. 人民日報, 2022-08-05(11).
[24] 習近平. 全面貫徹落實總體國家安全觀 開創新時代國家安全工作新局面[N]. 人民日報, 2018-04-18(1).
[25] 王曉梅, 何麗. 人工智能倫理規范建構與芬伯格的技術代碼方案[J]. 倫理學研究, 2022(2): 91.
[26] 劉忠, 戴美玲. 大國競爭時代構建中國國家安全學的四維向度[J]. 情報雜志, 2021(5): 44.
[27] 謝暉. 數字社會的“人權例外”及法律決斷[J]. 法律科學, 2021(6): 43-52.
[28] TELLEY C. The influence machine: automated informationoperations as a strategic defeat mechanism[J]. NationalSecurity Affairs: The Land Warfare Papers, 2018(121): 1-11.
[29] 范玉吉, 張瀟. 網絡空間命運共同體理念與網絡空間治理[J]. 西南政法大學學報, 2020(3): 110-113.
[30] 習近平向2022 年世界互聯網大會烏鎮峰會致賀信[EB/OL]. (2022-11-09) [2023-02-10]. http: //www. gov.cn/xinwen/2022-11/09/content_5725580. htm.
[31] 瑞恩·卡洛, 邁克爾·弗魯姆金, 伊恩·克爾. 人工智能與法律的對話[M]. 陳吉棟, 等譯. 上海: 上海人民出版社, 2018: 379.
[32] 張莉莉, 朱子升. 算法歧視的法律規制: 動因、路徑和制度完善[J]. 科技與法律(中英文), 2021(2): 15-17.
[33] 蔡星月. 算法決策權的異化及其矯正[J]. 政法論壇,2021(5): 25.
[34] 王藝, 王克平, 車堯. 基于大數據思維的小微企業風險識別與競爭情報預警機制研究[J]. 情報雜志, 2022(2): 78.
[35] 齊延平, 何曉斌. 算法社會言論自由保護中的國家角色[J]. 華東政法大學學報, 2019(6): 12-16.
[36] 劉蓉, 陳波, 于泠, 等. 惡意社交機器人檢測技術研究[J]. 通信學報, 2017(S2): 202.
[37] 張洪忠, 何康, 段澤寧, 等. 中美特定網民群體看待社交機器人的差異——基于技術接受視角的比較分析[J].西南民族大學學報(人文社會科學版), 2021(5): 165.
[38] 弗里德里希·尼采. 權力意志[M]. 孫周興, 譯. 上海:上海人民出版社, 2018: 208.