■ 孫 萍 劉瑞生
盡管治理在不斷加強,但社交媒體所傳播的內容仍然不斷引發新問題,社交媒體內容治理成為一個世界性難題。這主要因為高度普及化、社交化、日常化、場景化、視圖化的移動網絡已經徹底改變了傳播生態。“惡”性信息或呈現病毒性顯傳播,或呈潛伏式隱傳播,不斷引發問題、難以有效治理,這實際上是一種新的信息傳播生態所帶來的常態性“危機”。
進入21世紀,信息技術的快速發展使互聯網和新媒體迅速融入社會生活,“網絡生態”開始成為媒介生態之后的學界關注點。①
“生態”并非新概念。生態學的思想源于古希臘時期的哲學和政治學,該詞最早由德國科學家恩斯特·??藸?Ernst Haeckel)于1866年提出,特指生物有機體和周遭環境之間的相互關系,后被廣泛應用于自然史、環境科學、生物地理等領域。20世紀40年代,生態學出現人文轉向,代表人物是格迪斯(Patrick Geddes)、芒福德(Lewis Mumford)等。前者將生態學引入城市規劃,后者則提出的技術生態學,強調人們如何在尋求技術滿足時減少對技術生態的破壞。②
國外學者對于傳播生態的探討早在20世紀50年代即開始出現。西方傳播學界開始嘗試使用生態學的理論與方法研究傳播現象,出現了“媒介生態學”的概念。③綜合來看,媒介生態論關注個體感知、社會文化和科技發展,注重研究科技、文化、媒介之間的互動關系。隨著20世紀70年代主要傳播學譯著在我國的廣泛傳播,國內學者開始關注媒介生態。
21世紀以來,隨著新媒介和新技術的不斷加入,網絡生態的研究視角不斷向縱深發展,呈現多元化、多層次的特點,研究領域則囊括了信息哲學、生態理論和系統、控制與自組織理論、信息與情報科學等。④
既往的網絡生態學研究涉及系統、倫理、社會文化、生態平衡等諸多重要概念⑤,但正如上文所言,鮮有傳播學者關注新的社交網絡化背景下,網絡生態的變革和重構。值得注意的是,網絡化與生態學的連接為傳播學研究網絡生態提出了新的議題。首先,網絡信息技術的應用使大規模、高密度的無邊界網絡系統成為可能,這使得媒介信息的傳遞呈現多節點、多連接、無限度的特點;其次,組成整個無邊網絡的各部分網絡節點只對本范圍的媒介信息享有觀察和控制權,節點之間并無交叉控制;最后,無邊界網絡因其連接性和無邊界性,呈現出“處處是中心,無處是邊緣”的獨特生態系統,令新媒體傳播內容出現多中心、爆炸式發展。⑥在社交化網絡傳播不斷重構社會的趨勢下,網絡生態危機呈現出哪些特點?傳統的媒介管理和信息控制存在哪些問題,應該如何“推陳出新”?
社交媒體迅速發展在方便了信息的及時溝通和交流之外,也加劇了全球的網絡生態危機。為了應對日趨嚴重的社交網絡化危機,各大媒體平臺也加強了對媒介內容的監督管理。從網絡生態的構成結構來看,危機出現的原因與信息、主體和環境密切相關。在這里,我們所說的社交網絡化生態危機指的是:隨著社交網絡無邊界和高密度的傳播,社交媒體的信息傳播出現的不良信息導致傳播主體、傳播環境和傳播運營的失調,從而污染了網絡環境,危及網絡安全和網絡運行。其主要的表現有:網絡信息污染、網絡安全危機、文化多樣性危機和垃圾信息泛濫等。⑦
信息污染指的是暴恐信息和色情信息滲透進入社交網絡,并利用無邊界網絡系統形成規模傳播,進行組織勾連,進行暴力、色情的宣傳。日前,社交媒體已成為恐怖勢力和色情文化的重要藏身之地,因此,海外主要社交媒體紛紛加強對暴恐和色情信息的過濾。例如,2018年12月,輕博客Tumblr 在其社交平臺全面禁止網絡色情內容;2017年12月Twitter發布新規,禁止“頌揚暴力或暴力行為者”的任何內容以及“仇恨圖像”,包括針對特定群體的相關“敵視和惡意”標志或符號,“針對個人或一群人的具體暴力威脅或企圖造成嚴重身體傷害、死亡或生病都違反我們的政策”。社交網絡同時也是淫穢信息的重災區。早在我國發現國外流入的“兒童邪典片”大肆傳播之前的半年,2017年夏天美國即曝出“艾莎門”(Elsagate)事件,某些社會組織在YouTube和YouTube Kids上傳不適合兒童觀看的血腥暴力和軟色情動畫視頻。該事件令美國社會震驚,《福布斯》雜志將“艾莎門”事件稱為“數字時代的黑暗烙印”。
信息安全問題指的是因病毒、社交媒體詐騙等威脅到用戶信息的保密性、完整性、可用性、可控性及可靠性等議題。根據《中國移動互聯網發展狀況及其安全報告》的內容分析⑧,社交媒體依舊是我國電信詐騙類惡意程序的重災區,并日益呈現專業化、規?;?、智能化等特點。既往研究發現,50%以上的社交網絡用戶會在網上向陌生人公開個人信息,包括個人郵箱、生日、電話等。同時,很多社交網絡平臺并沒有采取有效安全技術對傳輸信息進行保密。社交媒體的安全漏洞會因為非法入侵和非法盜賣將個人信息安全置于危險境地。尤其隨著社交媒體接入網絡金融和新興第三方支付平臺,信息安全隱患不可小覷。
隨著全球化的深入推進,社交媒體的內容呈現也面臨文化多樣性危機。隨著Facebook、Twitter、Instagram 等社交媒體在全球范圍內的普及和推廣,各種文化的碰撞與沖突日益凸顯。首先是文化霸權或“強勢文化”所激起的反對浪潮;其次,世界范圍內的宗教沖突越發明顯,以ISIS為代表的宗教恐怖主義利用社交媒體的傳播力宣傳不當言論,引發世界范圍內恐慌;最后,與此相關的種族、民族沖突也不斷發生,使得社交媒體成為助推的主戰場。例如Twitter和Facebook中便存在許多宣揚暴力、反社會的煽動性用戶,利用社交媒體平臺妄圖擴大自己的影響力。各種倫理、道德、價值觀、風俗文化在社交媒體相互碰撞,出現不斷增加的不同意見、不同聲音和沖突情緒。
垃圾信息的泛濫也嚴重威脅社交媒體的網絡生態。一方面,社交媒體營銷變成企業“用戶轉換”的方法之一,許多SNS網絡中做營銷推廣的品牌商將社交媒體作為拓展市場的重要渠道,從而大大增加垃圾信息的出現頻率;另一方面,一些無信息、無觀點、重復度高的社交媒體推送不斷出現。尤其是在微信、微博上,直播和視頻成為新興傳播手段,虛假信息的轉發頻率高、范圍廣、影響大、監管困難,增加了網絡上營銷信息、垃圾信息的出現頻率。
從全球來看,傳統的社交網絡的內容管理模式成為備受爭議的世界性問題。社交媒體內容審查的尺度過大會威脅網民的表達自由,過小則會造成“惡性”信息對網絡生態的大肆污染。如何“把握”網絡監管尺度成為亟需解決的問題。
我國高度重視互聯網內容監管,在觀念上,內容監管主要是為了保障網絡高速發展的大局,在維護社會穩定和網絡安全基礎上,滿足廣大網民的基本需求。但是,隨著網絡社交化的蔓延和滲透,用戶作為言論主體和表達主體的權益與維護安全、維護穩定網絡生態的要求產生的沖突日益明顯。如果說我國互聯網快速發展的前20年,其基本矛盾是人民日益增長的網絡文化、生活文化需要同滯后的網絡發展之間的矛盾,那么在新階段,我國互聯網發展的基本矛盾,則已經轉變為廣大網民日益增長的對美好網絡生活的需要和不平衡、不充分的網絡發展與治理之間的矛盾。⑨也就是說,網民之前主要需要的是互聯網服務,而在新時代,他們需要的是“優質”的互聯網服務,體現在內容監管上則要求在提供更豐富多樣的信息的基礎上提高內容治理尤其是過濾水平,從而為網民提供良性循環的網絡傳播生態。
在全球日益嚴重的網絡生態“危機”背景下,無論是中國還是西方,傳統的網絡內容管理方式不斷暴露出問題。從網絡生態學的視角出發(參見圖1),社交媒體管理要堅持信息基礎建設、主體有效參與和環境背景監測三個層面,體現在網絡生態系統中,即信息因子、主體因子、環境因子三者的有效結合。信息因子指的是網絡生態系統中基礎物質要素,包括影像、文字、

圖1網絡生態系統結構圖
圖片的排布和展現。主體因子指的是網絡生態系統中“人的參與”,可以單指個人,也可以指代社會機構。其中,信息主體指的是信息的生產、消費與傳播者;運營主體包括網絡經營機構如媒介平臺機構、網絡服務商和經營商;生產主體指代網絡傳播外圍的制造商和系統集成商。環境因子包括兩大方面,其中,社會環境指的是以政治、文化和經濟為主形成的社會干預因素;技術環境指的是促成網絡空間傳播閉環的所有技術渠道和技術支持。
在社會政治環境和技術迭代發展的復雜情況下,信息傳播的無邊界、高密度、網格式等特點對互聯網的內容治理提出了諸多挑戰。而隨著國際范圍內多種地緣政治和資本力量的對抗與沖突,全球范圍內的社交媒體內容治理變得更具挑戰性。多主體、多方面的管理規制和人文沖突亦展現出內容管理的諸多問題和“短板”,亟需盡快“補平”。
首先,是如何提高網絡內容治理的“精細化”問題。該問題的形成是信息生產主體、運營主體與政治社會環境沖突協商的整體展現。由于社交媒介內容的過濾和管理并無可參照的標準和現成的規范、規則可尋,社交媒體的內容管理在具體執行中必然出現一定的主觀性和隨意性。而過于粗放的內容過濾治理機制既難以有效治理真正違法、有害、侵權的信息,容易造成“惡”性信息的大肆傳播,也會極大增加治理執行的難度。
美國作為世界上互聯網管理經驗最豐富的國家之一,早在10年前就開始建立媒體公司獨立運作的內容審查機制。作為網絡生態的運營主體,社交媒體公司會根據用戶和企業的價值取向建立各自的內容審查標準。雖然輿論長期呼吁互聯網平臺內容過濾的透明公開化,但社交媒體審核和過濾的細節作為商業機密并未公開,負責內容審查工作的員工被公司要求簽訂長期保密協議,無論在職還是離職都不能公開具體工作細節,因此幾乎無人知曉他們如何制定內容審查標準。據報道,Facebook、Pinterest、YouTube、Linkedin等擁有領先其他社交媒體10年的內容審核建設經驗,在過濾機制的建立和發展方面形成自己的規則與條例。而新近加入社交媒體平臺的Instagram、Line等,也在嘗試建立自己的內容管理準則。“后真相”時代,相對“粗放”的內容過濾機制既不利于網絡信息傳播生態的安全與健康,也容易招致用戶的不滿,通過政府與媒體公司的協同合作制定“行業規則”,不失為一個可取的辦法。
其次,內容過濾不夠充分與平衡,并缺乏有效的溝通與協作。在互聯網內容管理上,我國歷來重視監測輿情信息的政治敏感度,而對其他危害更大的暴恐、色情、侵權、垃圾信息等隱性信息過濾不足。隨著社交網絡化發展,營銷商、廣告商、詐騙團體等引流至社交媒體空間,利用人際傳播和群體關系建立輸入渠道,諸多垃圾信息、詐騙信息、色情暴恐等內容很容易規避傳統的媒介管理模式而獲得“生存”空間。這種內容治理模式的不平衡、不充分極易導致網絡色情、網絡垃圾、網絡詐騙信息的過度傳播,嚴重威脅網民的上網環境。而這種不平衡的內容管理,在地緣范圍上表現為世界主要社交網絡平臺的內容審查與過濾系統相互獨立、缺乏溝通。對于全球聯通的社交網絡空間,“惡性”信息數量日益龐大,傳播方式多樣,各國和地區在內容管理標準上缺乏共識,“惡性”信息識別和過濾的成本太高,而反過濾的成本則極低。
因此,在過濾和反過濾的較量中,往往道高一尺魔高一丈,只要推出新的過濾規則,很快就會出現新的逃避過濾手段。尤其是隨著社交網絡的出現,“無邊界”網絡傳播成為主流,單一社交媒體的信息過濾機制往往是事倍功半,難以產生明顯的效果。近年來,部分社交媒體平臺開始嘗試展開合作,構建平臺合作的審查系統。2016年底,Facebook、YouTube、Twitter和微軟四家公司宣布成立“反恐怖主義全球互聯網論壇(GIFCT)”,目的在于遏制社交平臺上快速傳播的恐怖主義視頻和圖片。四家公司通過分享數字指紋和基本信息來識別恐怖分子和暴恐信息,從而形成“疫苗反應”,即一家在屏蔽相關恐怖信息后,其他媒體平臺也將對此信息進行“免疫”,以保證能有效過濾不良信息。
再次,從技術環境的角度出發,內容過濾手段也需要新技術的持續更新與支持。社交媒體歷來重視新技術手段在內容管理層面的研發和運用。人工識別和程序自動識別“關鍵詞”是網絡內容過濾的兩種常用手段,人工識別成本高、主觀性強,而“關鍵詞”自動識別則比較“機械”,容易過濾掉“良性”信息,也容易讓“惡性”信息“漏網”。內容過濾和反過濾實質上也是網絡信息技術的反復較量。近些年,伴隨人工智能、語音識別、圖片視頻識別等新技術手段的出現,海外社交媒體開始重視新技術在媒介內容管理方面的使用。尤其是人工智能在該領域的應用逐漸增加,基于以往大數據的累積和深度學習,人工智能可有效幫助人們識別暴力、色情、恐怖及諸多帶有危害性的社交媒體信息。例如,從2018年8月份起,Facebook在緬甸地區啟用人工智能清理網絡仇恨、色情和垃圾信息。而早在2017年,反恐怖主義全球互聯網論壇(GIFCT)和Instagram就開始采用人工智能識別和共享數據庫技術、過濾恐怖主義視頻和圖片。同時,Instagram 還從2017年3月開始使用照片模糊的方法處理含有侵犯性內容的照片。實際上,不斷豐富發展的人工智能和大數據,為更加人性化和精準化的內容過濾和治理提供了可能,世界各大社交媒體公司也正在加緊研發內容治理新技術。
最后是要回歸信息主體的主體能動性,鼓勵民眾自主甄別有害信息。作為內容生產者,民眾在幫助凈化社交網絡環境的過程中扮演重要角色。因此,社交媒體平臺可以通過細化內容過濾規則和過濾內容分類,來提高民眾對不良信息的鑒別力和篩查力。如YouTube在其“政策中心”的網站上明確指出了禁止發布的相關視頻內容,包括:騷擾與網絡欺詐、仇恨性言論、違規扮演、威脅、危害兒童、性與裸露、暴力、危險性內容、欺詐等。其中每一條都附帶了相關解釋性信息以及可能涉及的內容。內容明確,有據可循。同時,一些社交媒體界面的設計著重體現了信息主體的舉報權,鼓勵社交民眾參與反饋,增強內容管理的有效性和可操作性。如YouTube在其網站上告知使用者如何舉報不良信息:其網站專門設有“憎恨和侵犯性內容”的按鍵標識,如果用戶發現相關內容,可以按照彈出的下拉菜單,分類進行舉報。Instagram的做法則是鼓勵用戶在其平臺創建維護網絡安全和諧的自營小團體(例如 InstaMeet),用戶通過加入該團體,獲得如何保護個人安全、消除不良照片信息、幫助凈化網絡信息的知識,并借助用戶的社交平臺進行傳播。同時,Instagram也創建了單獨的網站來幫助用戶。
經過20余年的高速發展,我國已成為網絡大國,下一階段將進入穩步發展階段,并力求成為網絡強國。在此階段,我國互聯網發展的基本矛盾、根本動力、戰略目標將發生重大轉變。在新的傳播生態和信息生態中,我國應適應新時代的發展要求,高度重視提高社交媒體的內容管理水平,結合本土傳播生態調整升級機制。
盡管我國與其他國家在社交網絡管理層面存在諸多政策和管理上的差異,但加強社交媒體的內容管理已成為各國共識。中國互聯網的網絡傳播生態正在發生巨大的變化,而以往傳統的互聯網內容治理模式在無邊界、高密度的社交網絡化傳播下需要升級。隨著直播、短視頻等新型網絡傳播形態的崛起,“短、頻、快”的內容正在成為網絡消費時代的主流,這也進一步增加了社交網絡生態內容管理的難度。因此,轉變互聯網監管思路顯得尤為重要。
從網絡生態系統的視角看,我們不可低估暴恐、色情、侵權、詐騙、垃圾信息等隱性信息的危害,要將其看作是下個階段內容過濾的重點,特別是要重視對非法賬號的規制。而對于社會爭議性話題,從輿論引導的角度看,一定程度上可以通過更為充分的辯論增進社會共識,對其可以保持適度開放的態度。
社交網絡的言論表達,造成了信息傳播的門檻降低,我們要特別重視侵權類、謾罵威脅信息的大肆傳播。隨著全球反恐主義浪潮日益高漲,各大媒體都加緊對于仇視性和威脅性言論的監管和控制。臉書在2018年前所未有地加強了對平臺的內容管理,扎克伯格在同年11月表示,截至目前Facebook已經刪除虛假賬號15億個,并刪除1200萬條恐怖主義宣傳、22億條垃圾信息和660萬條淫穢色情內容。同年12月,Facebook宣布將于2019年上半年與法國政府展開內容監管合作,允許法國政府對其網絡仇恨言論管控的數字技術進行監管,同時雙方將合作出臺監管報告。
與此同時,增加內容審核的透明度,充分發揮民眾監管的力量也顯得尤為必要。在內容審核透明度方面,美國知名的圖片分享網站Pinterest很有特色,它重視平臺和用戶之間、私人企業和公眾之間的溝通,審核人員得到了充足的資金和支持,其審核內容過程對用戶相對透明化。例如,Pinterest為了說明這個網站的“可接受的使用范圍”而公開了具體的圖片案例,以幫助用戶更好地了解該平臺的內容指南和幫助維護這些內容的版主做出決策。政府作為我國主要社交媒體監督方,應該細化內容審核規范,并及時與用戶充分溝通,緊跟信息分化、文化多元傳播的趨勢,努力營造良好的網絡生態環境。
我國也在不斷提升社會化新媒體的內容管理水平。2019年1月,中國網絡視聽節目服務協會發布《網絡短視頻平臺管理規范》及《網絡短視頻內容審核標準細則》,提出了“網絡短視頻平臺應當合理設計智能推送程序”,并對21類內容提供了操作性審核標準100條,體現了手段“新技術”、標準“精細化”的特點,這可以說是我國在新的傳播生態中對于互聯網內容過濾審核方面的“出新”和嘗試。
注釋:
①② 崔保國:《媒介是條魚》,人民網,http://media.people.com.cn/GB/22100/48805/48806/3433631.html,2005年6月1日。
③ 姚利權:《網絡生態的研究源起、研究脈絡及結構特點》,《青年記者》,2017年第3期。
④⑥ 周慶山:《網絡信息生態理論的建構框架與研究方法初探》,《北京大學情報學與信息管理論壇》,2010年。
⑤ 何道寬:《媒介環境學辨析》,《國際新聞界》,2007年第1期。
⑦ 唐一之、李倫:《“網絡生態危機”與網絡生態倫理初探》,《湖南師范大學社會科學學報》,2000年第6期。
⑧ 羅力:《社交網絡中用戶個人信息安全保護研究》,《圖書館學研究》,2012年第14期。
⑨ 劉瑞生、孫萍:《海外社交媒體的內容過濾機制對我國互聯網管理的啟示》,《世界社會主義研究》,2018年第4期。