摘" "要: 以馬克思異化理論為指導,反思了智能傳播時代“數據與人”的關系,剖析了智能傳播數據異化的表征、倫理風險及其挑戰。智能傳播數據異化表現為數據產品異化、數據生產異化、數據主體異化和數據關系異化。而數據與人的異化悖論也帶來了人與自我、人與人、人與社會三個層面的倫理風險,并將帶來倫理關系失調、倫理價值失衡、倫理行為失范和倫理秩序“失場”等挑戰。反思風險并非拒絕創新,而是倡導在智能傳播實踐中,樹立人本主義數據倫理觀,提升人的主體地位,調適數據與人的本質關系。
關鍵詞: 智能傳播;數據異化;倫理風險
中圖分類號:G20" "文獻標識碼:A 文章編號:1004-8634(2024)06-0133-(10)
DOI:10.13852/J.CNKI.JSHNU.2024.06.013
自古至今,數據與人類密切相關,并對人類社會的生產和生活產生了重大而深遠的影響。進入大數據時代,數據成為表征世界萬物關系的符號。人工智能技術的基礎是數據、算法和算力。在傳播領域,人工智能技術帶來數字化與智能化的升級,推動產品、內容、流程、組織、商業模式的創新。但在升級、創新的背后,亦呈現數據與人的發展的不平衡,數據異化為人的枷鎖,蘊含著潛在的倫理風險。本文借助馬克思主義對“異化”概念的經典分析來闡釋智能傳播數據異化的內涵和表征,并提示數據異化引發的倫理風險及其挑戰,從而深化智能傳播的數據倫理研究。
一、智能傳播數據異化的內涵
異化概念源遠流長,不同時期的哲學家和思想家對異化的概念有不同的理解和解釋。在馬克思主義出現之前,異化概念有一個從神學概念,經由社會學概念,到哲學概念的發展過程,這是人類不斷深入認識和把握異化本質的過程。1 哲學家廣松涉指出,異化在哲學范疇中可表征為主體的衍生物與主體相互對立、相互背離、相互排斥,甚至成為控制和奴役主體的異己力量。2 馬克思借鑒和批判黑格爾的“絕對精神自我異化”和費爾巴哈的“人本主義異化”,提出了勞動異化理論。在馬克思看來,異化包含兩層含義:一是勞動異化必須由主體出發產生客體,二是主客體相對立且客體成為主體之外的異己力量。此外,在馬克思的思想脈絡中,機器/技術是具有中性意義的,但在資本主義生產方式中,機器/技術成為一種資本;在資本主義運用中,機器/技術導致勞動與社會關系的全面異化。換言之,人類制造出的機器/技術成為異己的力量,人類被機器/技術控制。技術異化是對馬克思異化概念的引申和延展,法蘭克福學派據此提出對技術異化的批判。例如,赫伯特·馬爾庫塞(Herbert Marcuse)在《單向度的人:發達工業社會意識形態研究》中描述了工業技術促使人自身的單面化及之后的完全異化。近年來,哈特穆特·羅薩(Hartmut Rosa)重新將異化概念引入當代的批判理論,認為科技進步、社會變遷、生活節奏的加速等因素催生出“人們自愿做某些不是人們自己真的想做的事情”的新異化。1 數據驅動的人工智能技術促進人類經濟社會發展的同時,也衍生出新的異化現象并引發倫理風險。
當前,數據呈指數增長,數據驅動的算法技術提升了智能算法的數據解析力,人類社會正在走向“基于數據智能的解析社會”。2 現如今,人類身處擁有全方位、24小時的數據采集設備環境中,我們每一次使用搜索引擎、在社交媒體上點贊以及轉發、在電商平臺網購、在智能可穿戴設備對身體及運動進行記錄等,都會產生大量數據,繼而形成數據網絡。通過對這些海量數據進行智能分析,我們每一個人都像是電影《楚門的世界》(The Truman Show)里的楚門,深處“第三只眼”的監控之下。這種深度觀測個體的能力,使智能傳播中的每一個個體宛若赤裸的人。以信息流廣告(Feed AD)為例,社交媒體平臺為了實現向用戶定向精準推送廣告內容的目的,會在用戶授權同意下全面采集平臺用戶的相關數據,包括年齡、性別、所在區域、使用設備型號等基礎信息數據,關注好友數量、好友互動頻次等社交屬性數據,以及用戶上網操作(點擊、搜索、瀏覽、停留、分享、跳轉、關閉等)等行為數據。收集這些數據之后,就可以根據用戶的社會屬性、個人偏好、行為特征等進行數據挖掘,繪制用戶的“數據畫像”,據此再以用戶可能喜歡的廣告創意內容進行商品推薦,并實現定向的精準推送。看似尋常出現在社交媒體中的信息流廣告,其實是數據驅動的自動化系統的“精心安排”。概言之,只要打開智能設備,這場數據驅動的數字資本游戲就在上演,而每一個個體都被裹挾其中。在廣告傳播學領域,本文筆者之一曾對網絡廣告傳播的技術異化展開研究,認為“網絡廣告中,人的尊嚴遭到空前的嘲弄,而人的價值和個性被淹沒在數字化的海洋中,人之主體屈服于技術客體”。3 令人遺憾的是,發展到數據智能化時代的今天,數據處理技術愈加成熟,但我們所處的異化境遇似乎比之前更加嚴重。通過文獻梳理我們發現,馬克·安杰維克(Mark Andrejevic)、克里斯蒂安·福克斯(Christian Fuchs)、藍江等國內外學者從政治經濟學視角運用馬克思異化理論對數字勞動、數字資本主義等問題展開批判研究時,常采用“數字異化”概念。2015年陳萬球等人最早提出“數據異化”概念,并分析了城市治理中數據異化的表現及其治理,4 但因主題所需,未深入界定此概念。2016年陳仕偉提出“大數據技術異化”概念,認為大數據技術異化從根本上說就是我們不能完全控制和固定大數據技術導致的非人道、非人性和非自由。5 本文認為在討論智能傳播數據倫理問題時,應更強調數據和數據技術(算法)與人的關系,因此主張采用“數據異化”概念。數據異化是技術異化在大數據和智能化時代演變的新形態,但目前學界的相關研究還非常少,亟需深入系統地探討。
隨著數據驅動的人工智能技術日益廣泛的應用,物理空間和網絡空間中的數據采集、存儲、流通和應用行為大規模增加,數據與人的異化問題愈漸凸顯。智能傳播中,算法、云存儲、區塊鏈等智能技術依賴于大數據,數據與人已經成為智能傳播的核心要素,但二者在傳播實踐中常常出現異化悖謬。
我們認為,智能傳播中數據本身及數據技術都出現了異化現象。一方面,從數據本身來看,有學者指出,“數字資本主義創造了一個完全由一般數據組成的界面,不被數據化就喪失了存在的意義”。6 這就意味著人類已經徹底跨入尼古拉·尼葛洛龐帝(Nicholas Negroponte)所言的“數字化生存”新世界。數據驅動的智能傳播中,任何自然和社會領域都可以實現數字化,甚至人本身也能被數字化。數字化生產出來的對象就是數據,并成為人類存在的一種樣式。這就帶來了數據本體論,進而引發數據主義和數據拜物教的熱潮。數據不斷沖擊人類,使得人類的主體地位搖搖欲墜。另一方面,從數據技術來看,數據驅動的智能算法對人類生活和社會各個領域實現全面滲透和控制,數據分析和智能算法使人的行為規律得以被洞察、認知、利用,在這一過程中,人逐漸被數據技術控制,成為適應數據技術發展所需的工具,導致人類能動性、創造性和自主性的貶抑。此外,現階段數據驅動的智能算法技術的發展,需要人的經驗數據來“喂養”智能機器。某種程度上,人類已經淪為機器的“數據養料”“數據奶牛”。數據算法技術給人類帶來便捷和效率的同時,也使主體陷入數據異化的危機之中。
據此,我們將智能傳播的數據異化界定為:數據智能發展到一定階段后,傳播實踐中原本作為客體的數據及數據處理技術與人類主體相對立,成為外在于人的異己力量,并反向對人類進行控制和奴役。換言之,智能傳播中數據與人的異化悖謬在于,人被自己創造的數據控制,并最終成為被數據所定義的“人”。
二、智能傳播數據異化的表征
智能時代,數據成為一種存在,是日常生活中不可缺失的一部分。數據生產實踐中,從數據產品到數據生產,從數據主體到數據關系,都呈現異己的狀態。智能傳播本體的數據化和智能化消解了傳播中的主體性,出現數據與人的異化悖論。馬克思勞動異化理論可以闡釋當下智能傳播中數據與人的異化。馬克思在《1844年經濟學哲學手稿》中主要從四個方面論述了勞動異化理論:勞動者和勞動產品(物)相異化、勞動者和自己的生產活動(生產行為)相異化、勞動者同自己的類本質相異化,以及人同人之間相異化。其中,產品的異化是異化的外在表現;人的自我異化是異化的內在實質;社會關系異化是主體間的異化,體現為人與人之間關系的異化。智能傳播的數據異化通過實踐活動得以實現,具體表征為數據產品異化、數據生產異化、數據主體異化和數據關系異化。
1.數據產品異化
智能傳播活動中數字勞動所生產的對象主要是數據(產品)。數據(產品)是指,以數據為生產要素,凝結著一般人類勞動,通過信息市場交換,能夠滿足大數據社會條件下人類需要的勞動產品。數據的生產不再是傳統勞動中某個工人或雇員勞動的產品,而是由每一臺智能傳播終端的用戶行為所產生的結果。數據成為智能傳播的基本構成要素,海量數據通過相互連接與融合,形成數據網絡,在傳播實踐中彰顯強大的生產能力和價值規律。
智能傳播中的數據(產品)脫離于數據生產者,通過技術進行應用并實現交換,成為數據生產者之外的異己存在物,并對數據生產者形成控制,出現數據產品異化。首先,數據產品來源于數據生產者;其次,用戶在數字平臺中耗費的精力越多、時間越久,親手創造出來的異己的數據產品越強大,數據生產者就越容易喪失自己,形成數據產品與數據生產者之間的對立;最后,數據生產者與數據產品在算法技術作用下發生主客體顛倒,即主體客體化和客體主體化。概言之,用戶作為生產數據的勞動者,與自己的勞動產品相分離,自己的數據通過算法技術加工后又反向誘導或控制用戶,達成相關利益方的目的。伴隨數據技術的發展,數據內涵愈加豐富,甚至出現數據化的仿真世界或虛實交融的世界(元宇宙),在這一過程中,數據產品異化變得更加復雜。
2.數據生產異化
數據生產的過程中,用戶通過瀏覽網頁、刷短視頻、打賞直播、參與游戲、發布內容等方式生產大量的數據,通過這些可以留下數據痕跡的勞動,創造數字資本的價值。例如,愛德華·科莫爾(Edward Comor)指出,產消合一者生產的“用戶生成內容”(User-generated Content,簡稱UGC)成為數字資本主義新的剩余價值來源的增長點,并淪為資本的工具。1 數據異化不僅體現為數據生產的結果,也體現在數據生產的行為過程之中。
數字化生存的時代,人類被數據化是存在于數據世界的必要條件,用戶既是數據生產者,也是被數據化的人。用戶為數據平臺創造的價值越多,自己被侵犯的權益就越多;數據產品越完美,生產數據的勞動者就越畸形;數據生產勞動越有力量,數據生產者就越無力;數據生產過程越機巧,數據生產者就越能成為數據世界的奴隸。甚至,只有作為數據生產者才能維持自己作為被數據化的人而存在于數據世界,且只有作為被數據化的人才能是數據生產者。
現如今,人們離不開數據生產活動。韓炳哲曾批判指出,“人們與數據設備之間有一種近乎迷戀的、強制性的關系”。1 例如,社交媒體的使用者常常在發布一條信息后,總忍不住隔幾分鐘就要頻繁刷新頁面,以接收來自他人的評論和點贊。因此,這種生產活動是一種自身的喪失,在傳播過程中逐漸失去了對生產力的控制。此外,勞動的異己性還體現為數據智能相關企業和平臺對用戶生產數據的勞動報酬的無償占有,數據生產行為并不真正屬于生產數據的勞動者(用戶)。
3.數據主體異化
現代的主體理論起源于笛卡爾的哲學思想,架構了主體與客體、內在的自我與外在的世界之間的二元對立。康德的主體哲學則認為理性行為的人是實踐理性的中心。馬克思在分析勞動異化時指出,人是類存在物,異化勞動把類生活變成維持個人生活的手段,且這種生產活動是一種自由的有意識的活動。2隨著數據驅動算法技術的普遍應用,越來越多的數據被用于記錄和影響世界。數據技術深度嵌入人們的日常生活,幾乎已經覆蓋了人類全部的生存領域。這也意味著數據生產活動隨處可見,如打開智能手機、與智能音箱對話、查詢導航系統、佩戴運動手環等。看似是用戶自主發生的智能需求,往往不經意間就完成了數據的生產活動。這種隱藏更深的數據生產使異化持續不斷地加深,使生產數據的勞動者被深深嵌入其中且不易擺脫。擁有人的類特性的數據主體本應是自由且有意識地進行數據生產活動的,然而在智能傳播實踐中,數據主體在數據化的過程中被邊緣化,數據化的“新主體”不斷掏空并逐漸控制原本的數據主體。這構成了數據主體異化,主要體現在如下三個方面:
第一,度量化的數據主體異化。數據成為量化事物的一切度量工具,通過對海量數據進行挖掘分析、預測判斷,每個數據主體都被度量、被數據化。“萬物皆數據”沖擊著人的主體地位,進而人的自由、自主都有可能受到侵犯。甚至“如果大數據分析完全準確,那么我們的未來都可以被精準地預測,因此在未來,我們不僅會失去選擇的權利,而且會按照預測去行動。如果精準的預測成為現實的話,我們也就失去了自由意志,失去了自由選擇生活的權利”。3 德勒茲(G.Deleuze)提出分體(Dividuals)概念,4 原本在福柯規訓社會中的個體,在數據時代被信息技術消解,變為可分的數字化分體。通過將自己轉化為數據,以便在數據和算法搭建的數據化空間中存活,這也就使得分體更易被控制。人類應當是數據量化工具的主人,然而在智能傳播中,人們被各種數據及處理數據技術奴役,淪為數據量化工具的“工具”。
第二,鏡像化的數據主體異化。從被動的數據監控到主動的量化自我,海量的數據被存儲在數字空間,通過算法分析創造一個個“鏡像的自我”“通過各種生命和行為數據的精準采集、建模與分析,每一個個體可以在個人層面上得到刻畫和定義,個體由此投射為一種虛擬身體或數據孿生”。5 這樣形成的被數據化的主體是數據主體的一種鏡像,是不同于原數據主體的新事物,它以新的表征形式同環境和社會體系相關聯。大數據的發展為人類構造了一個充實且自由的數據環境,這使得自我和本我之間很容易產生失衡,進而出現鏡像化的數據主體異化,即主體在數據世界中的異化。以刷短視頻為例,當人們打開短視頻APP時,平臺會根據用戶以往的觀看記錄推送相關視頻。也就是說,平臺會根據鏡像化的“數據我”的觀看喜好,為用戶營造一個沉溺其中的媒介環境,而生成“數據我”的數據主體則被“自愿”綁定在平臺上,陷入算法的陷阱。
第三,標簽化的數據主體異化。我們對智能媒體的基礎要求之一是能夠準確地“識別”,這往往和“打標簽”相關聯。“標簽”又常常和“畫像”成對出現,表征的都是理解的能力。6 智能傳播中,隨著數據的巨量增加,為了能夠更方便迅速地進行數據分析、構建算法、洞察用戶,數據公司往往會采用給數據打標簽的方式工作,甚至一些互聯網科技公司還會尋求外包的“數據標注員”。但大數據呈現的往往是相關關系而非因果關系。數據可以被觀察,但數據背后的“原因”不能被解釋;此外,數據能展示人的行為結果,卻無法展示行為動機。對數據主體行為規律的洞察通常來自人類對數據的主觀解釋。盡管這些被標注的數據在收集階段的目的較為單一,但在闡釋及應用階段常常帶有強烈的主觀性和目的性。在進行個性化內容推薦時,傳播機構通常利用數據平臺提供的用戶“數據標簽”進行目標用戶的遴選,在這一過程中往往會忽略對人本身的價值關懷,只是機械式地完成尋找符合目標的“標簽化”數據主體的任務。這使得數據標簽背后的每一個個體成為僅具有數據差異的抽象符號,而非一個個鮮活的生命。
4.數據關系異化
馬克思指出,“當人同自身相對立的時候,他也同他人相對立。凡是適用于人對自己的勞動、對自己的勞動產品和對自身的關系的東西,也都適用于人對他人、對他人的勞動和勞動對象的關系。……人的異化,一般地說,人對自身的任何關系,只有通過人對他人的關系才得以實現和表現”。1 數據產品的異化、數據生產的異化和數據主體的異化必然會映射到數據勞動生產關系的異化,即數據主體之間的關系異化。
智能傳播中,數字勞動和數字勞動產品所歸屬的異己存在物,以及數字勞動為之服務和數據產品供其享受的存在物,只能是人自身。如果數字勞動產品不屬于用戶自身,而是作為一種異己的力量同用戶相對立,那么這只能是由于產品屬于用戶之外的他人。縱觀數據生產勞動實踐,數據勞動者與數據產品所有者是對立關系,在傳播實踐中即為用戶與數據平臺的對立關系。用戶無法獲取大量數據資源的使用權,也不具備處理大量數據的能力,但智能科技巨頭公司和數據平臺則利用人工智能技術將大量用戶生產的數據作為牟利工具。這就出現了數據生產者與數據應用者之間的矛盾。
此外,在大數據時代,我們都是以一種數據的形式在網絡空間中進行交換,我們的社會關系也從具體的身體關系變成了數字化的交換關系。2數字化平臺成為人與人之間溝通的主要方式,數字身份代替數據主體參與數據關系的交往。數據關系的異化主要體現為人與人之間交往的異化以及個體與社會之間的沖突。如微信朋友圈曾針對不同收入的消費者推送不同檔次產品的廣告,形成對消費者身份地位的區隔,這引發了對不公平議題的討論。而關系異化最終將指向信任危機,激化用戶(或消費者)對平臺、相關企業乃至政府機構的不信任感。
在智能傳播實踐中,用戶成為只需默默提供數據、接受數據分析結果的“工具人”,逐漸喪失了獨立思考、反思批判的能力,人的主體性因而面臨嚴重威脅。雖然智能傳播將人與人之間的連接擴展到人與人、人與物、物與物之間的全連接,但當理性冰冷的數據關系替代了人際的感性與溫暖,就會偏離人的社會文化本質,并引發一系列倫理風險。
三、智能傳播數據異化的倫理風險
現代社會中,風險無處不在。德國社會學家烏爾里希·貝克(Ulrich Beck)提出風險社會概念。人工智能、元宇宙等技術應用正逐漸沖擊并重構原本用以調節人與人之間、人與自然之間關系的倫理道德規范體系和價值體系,很可能帶來不可逆的倫理、道德和人本主義危機。倫理風險是風險中的一個重要類型,與經濟風險、政治風險、文化風險等密切相關。倫理風險是客觀存在和主觀認知的結合,是人類為獲得“道德合法性”或“存在正當性”的不確定要素和事件的組合。3 具體是指“在人與人、人與社會、人與自然、人與自身的倫理關系方面,由于正面或負面影響可能產生不確定事件或條件,尤指科技所產生的不確定的倫理負效應,諸如倫理關系失調、社會失序、機制失控、人們行為失范、心理失衡等”。4 數據異化的倫理風險就是人因主體性喪失而產生不確定性,進而帶來的倫理負效應。智能傳播活動中由數據異化帶來的倫理負效應及破壞力,常常具有影響程度廣泛、危害持久和不可逆等特征。
人的主體性即人作為活動主體的質的規定性,是人特有的屬性。1 主體存在于主客體相互關系中,主體是相對于客體而言的。因此,考察一切活動的主體狀況,最終必須進入主客體的相互關系中。從馬克思的主體性思想來看,在智能傳播實踐的主客體關系中,人是主體,客體世界包括他人、社會、自然界等。在“人與自我”“人與他人”“人與社會”的關系中,人的主體性通過人的認識和實踐活動得以實現,也只有在這種相關關系中,主體才具有自主的意義。以下我們將從人的主體性關系層面考察智能傳播數據異化的倫理風險。
1.“人—自我”層面的倫理風險
智能傳播中,數據驅動的人工智能技術使人與自我相隔離,并引發三類倫理風險。
第一,人的精神困擾引發的倫理風險。作為碳基生物的人類與動物相區別,除了肉身還有精神和意識。隨著數據驅動的人工智能技術對智能傳播實踐的全面介入,人們出現了一些精神困擾。例如,信息沉溺(Addiction)是一種嚴重的心理依賴現象,在沉溺機制中有一種主體難以抵制的誘惑與操控。2 進入人工智能時代,上癮機制設計變得更加智能化,可以通過對用戶行為數據的監測分析,結合算法技術,實現精準刺激,令用戶沉溺其中無法自拔。沉溺于虛擬游戲的玩家、網絡購物的買家、網紅直播的粉絲,背后都隱藏了平臺設計的智能化上癮機制,智能技術促使用戶被牢牢限定在特定的媒介場域并沉溺其中,甚至無法辨別虛擬與現實的邊界。此外,數據驅動的人工智能技術還會引發一些人的技術恐慌(Technophobia),即對技術和科學的恐懼。面對不斷增強的人工智能技術,人們產生壓力和不安情緒。尤其是一些相對弱勢的群體,如無法辨別智能傳播信息真偽的兒童和老年人,他們往往會在智能傳播實踐中變得更加手足無措。
第二,人的能力讓渡引發的倫理風險。智能算法的提升,使人類自愿將原本屬于人自身的獨特能力,諸如數據處理能力、邏輯分析能力、記憶能力等讓渡給智能技術。智能機器代替人類進行判斷、決策、分析,使得人本身的想象能力、創造能力、認知能力、獨立思考能力等受到限制和阻礙。數據智能技術的創新對主體的現有思維和心智框架提出新要求,當這種要求無法滿足,不適應性隨之產生,出現主體焦慮。以人類的認知能力為例,智能算法可以根據從用戶處獲取的信息,分析其興趣及習慣,推薦個性化信息內容,從而強化用戶對某些問題的既有認知。當面對意見相左的問題時,“過濾泡”(Filter Bubble)就會發揮剔除功能,回避與自己相反的信息,排除了相對的信息源,也就徹底遠離了其他認知。3 長久的結果便是人會被固化在某一認知之中,導致其對某些認知觀點的盲從和對其他認知觀點的遮蔽,進而形成內生性偏見。2016年美國總統大選中,劍橋分析公司對Facebook社交軟件的用戶數據進行分析判斷,進而推送對應信息給用戶,這很容易放大“信息繭房”(Information Cocoons)效應,將人類困在封閉狹窄的信息系統中,禁錮他們的思想認知能力,降低他們對信息的判別能力。
第三,人的存在意義消解引發的倫理風險。縱觀人類與技術的相處之道,人類為適應技術社會發展的需要,往往深陷被客體化的危機之中。人類本身借助技術獲得了主體身份,卻常常在不知不覺中沉迷于對技術的膜拜。數據驅動的人工智能技術以前所未有的強度干預人的實踐活動。人類主體對技術的迷思使人類陷入客體化的困境,人類主體的存在感和存在價值被消解和重構,進而產生本體性焦慮。智能傳播中,數據主體產生被數據控制和替代的焦慮感。一方面,數據驅動的智能算法剝奪了人類的尊嚴,人們的數據軌跡被監控、展示、應用,智能算法對人的想法和行為的解讀使人在數據面前變得一覽無余,人的尊嚴與自由在算法面前甘拜下風;另一方面,智能語音助手、社交機器人等人機交互智能產品的出現,進一步強化了一些人被時代淘汰的無力感。這種對數據技術的畏懼,容易使人自愿接受技術權力的宰制,導致個人沉淪。
2.“人—人”層面的倫理風險
馬克思認為,人的本質就是一切社會關系的總和。主體間關系標明了人作為主體地位的實現和表現,每一個人需要在人與人之間的社會關系中實現自我確認。人是一種社會動物,有群體存在的必要,也有社交的需要,數字世界的人際交往常常是現實世界社會關系的映射。智能傳播中,數據關系疏離和關系物化都會引發倫理風險。
第一,關系疏離引發的倫理風險。現代化背景下,技術進步打破了人與人之間原有的有機聯系。表面上,人們之間溝通聯絡的方式變得更加便捷,似乎更有利于人與人的交往;但在表面之下,是人與人之間的疏離與冷漠,以及普遍性的不信任。大數據組成的信息大量涌入我們的生活,形成數據海洋,而個體就像是在大海中奇幻漂流的少年派,孤立無援,煢煢孑立。這種孤獨在數據驅動的智能時代更加凸顯。首先,大數據技術使得人與人之間的關系更加脆弱。當智能系統為個體提供全部服務時,人所需要的就是系統的服務而非他人,他人將不再是交往關系中的另一個端點。數據驅動下的自動化智能技術的廣泛應用,進一步加速了原子化個體的形成。原子化的個體組成了現代社會,而這些微粒是相互脫離的。將微粒聯系在一起僅僅是出于各自的利益和互相利用的必要性,這就構成了庫克里克(Christoph Kucklick)所描述的“微粒社會”。1 從人機關系看,近年來興起的AI合成主播、智能語音助手等,以其惟妙惟肖的真實感,將智能機器人變得和真人一般。人工智能產品在日益拉近其與人之間距離的同時,人與人之間的倫理關系卻被弱化。例如,當前有些父母的育兒方式是把智能設備當成“電子保姆”,這在一定程度上破壞了親子關系。其次,技術也重塑了人類社會的人際關系。低頭族和手機成癮者出現,使得人與人之間的現實溝通逐漸減弱。從熟人社會到陌生人社會再到如今的智能解析社會,無孔不入的數據智能技術支配和控制著人的自由時間,使人陷入社交恐懼之中,人與人之間的疏離和冷漠加劇,成為機器控制下的孤立個體。最后,智能傳播中基于相同的興趣愛好和價值觀等感性因素而形成的人與人之間的社群關系,常常呈現出“群體極化”趨勢,即新的數字鴻溝的出現進一步強化了不同階層、群體之間的信息隔膜,造成某一群體針對某一信息不能暢通地與其他群體進行溝通交流,加劇了群體內部的極端化程度。2 這導致主體間的偏見和隔閡,加深了主體間的信任危機,帶來社會負效應。
第二,關系物化引發的倫理風險。喬治·盧卡奇(Ceorg Lukács)將“物化”定義為“人與人之間的關系具有物之性格”。3 物化概念常用于描述主體間關系被物的關系遮蓋,呈現非正常化的現象。數據驅動的智能時代,數據已經成為替代貨幣、維持人際關系的一般等價物。在物化的社會關系中,社會交往活動被簡化為可量化的關系,甚至感性價值也可以被量化評估。《大數據時代》的經典案例中,懷孕少女的家人還不如商家更早知道其懷孕的消息。驅動商家“關心”懷孕少女的出發點,當然并非真正的關愛,而僅僅視她為“潛在的目標消費者”。這使得數據驅動的智能傳播中功利主義、拜金主義滋長。正如馬克思批判的,使人和人之間除了赤裸裸的利害關系,除了冷酷無情的“現金交易”,就再也沒有任何別的聯系了。4數據世界中,主體間原本生動的交往關系,被附著了利益的冰冷數據關系替代,數據對人進行支配和控制的過程中,人也逐漸喪失了本真。社交媒體就像一座金礦,其中所蘊藏的用戶數據,早已成為各利益方競逐的資源。人們已經成為智能傳播的標靶,甚至整個社會都可能被“數據權力”主宰。
3.“人—社會”層面的倫理風險
建立在人與人關系基礎之上的是人與社會的關系。個人是社會整體的一部分,社會整體包含于每一個人之中。智能傳播數據異化引發的人與社會層面的倫理風險包括以下兩類。
第一,對社會公平的沖擊與消解。數據驅動下信息技術的巨大變革,深刻影響著社會生產和生活。大數據系統中數據生成、采集、分析、應用等各個環節疊加所引發的認知不足和利益關系失調問題,加劇了社會系統的歧視與不公平。5數據公平包括如何使豐富的數據資源被公平分配、如何公平共享數據智能產品、如何公平承擔責任和義務。讓數據公平地造福全人類成為我們必須面對的時代難題。當前,數據倫理研究涉及的數據不公平問題主要體現在數據壟斷和數字鴻溝兩方面,其根源是數據資源的不平衡和不平等。例如,在大數據的知識建構過程中,社會不同個體或團體在大數據資源的占有、使用和分配上出現了不平等,從而導致數據資源在“代表性”、“用戶畫像”、決策支持、行動干預等不同維度上出現“算法不正義”的情形。1 究其原因,一方面是采集來的數據本身就包含了不平等和偏見,另一方面則是使用數據(算法)時所蘊含的不平等和偏見。不同群體在數據計算的結果中遭受不公平對待,并與社會原有的不平等相互作用,構成新的不平等,引發許多社會問題。例如,谷歌的廣告推送系統存在性別歧視現象:給男性推送更多高收入、高職位的招聘信息,女性反之。2 這可能會進一步加劇社會中的性別歧視,傷害女性的公平權益。通常而言,越容易留下“數據痕跡”的人將越容易被數據平臺關注,這就導致那些在現實生活中原本處于社會邊緣、弱勢地位的群體(如兒童、老人、殘障人士等)被遺忘在大數據系統之外,破壞了社會公平體系。
第二,對社會信任的侵蝕與瓦解。風險與信任往往密切相關。在安東尼·吉登斯(Anthony Giddens)看來,風險和信任交織在一起,信任和經過估算的風險之間實際上總存在著一種平衡。3尼克拉斯·盧曼(Niklas Luhmann)認為,在任何情況下,信任都是一種社會關系,社會關系本身從屬于特殊的規則系統。4 智能傳播中的不信任既包含人們對數據智能產生的知識本身的不信任,也包含對數據智能技術的不信任,以及對數據智能技術背后操作的人、機構和制度的不信任。首先,以“深度偽造”(Deep Fake)技術為代表的人工智能技術可以輕松制作虛假圖像和視頻,構建虛假信息環境,普通人難以辨別真偽,增加了人們對傳播內容的“不確定”,加劇了后真相時代的信任危機。其次,數據流通過程中的數據泄露和用戶隱私問題,使得人們對數據應用缺乏基本的信賴,甚至產生不安全的心理感受,對隱私問題的高關注度和高參與度體現人們對新技術應用的不信任。最后,以數據流量造假為例,2020年,我國廣告主因移動廣告欺詐(Fraud)導致的損失達到180億元人民幣左右。5 相關利益方通過機器人流量作弊和“人肉流量”作弊等方式進行短視頻刷量、直播間刷人氣、帶貨數據造假等違規操作。數據要素已經成為數字經濟市場的重要資源,是許多數據智能技術公司的核心競爭力,但對數據流量的一味追逐也破壞了傳播渠道市場交易的信任之維。概言之,數據主義視域下“萬物皆可量化”,削弱了人的自由,使人成為數據智能技術的附屬物,并由此衍生出各種信任危機。
四、智能傳播數據異化倫理風險帶來的挑戰
數據驅動的人工智能技術一方面幫我們消除了許多的不確定性,另一方面也不斷產生新的不確定性,可謂機遇與風險共存。在傳播實踐中,數據驅動的人工智能技術對傳播的內容與形態產生了極其重要的影響,并不斷沖擊傳播過程中人的主體地位,帶來不可估量的倫理風險,對傳統的社會倫理帶來如下挑戰:倫理關系失調、倫理價值失衡、倫理行為失范和倫理秩序“失場”。
1.倫理關系失調
倫理關系是人與人之間的一種客觀關系。倫理關系本質上是現實合理性秩序中的關系,是主體精神滲透其中并通過道德、法律、習俗等規則體系維系的關系。6 快速發展的算法技術在帶來便捷的同時,也帶來了倫理關系紊亂,我們將此稱為倫理關系失調。傳統的社會倫理關系以“人”為基礎,而在智能社會中,一切都可以量化為數據,形成以“數據”為基礎的數據關系,打破了傳統主體的時空限制和傳統的社會倫理關系。
在信息文明時代,作為局部性的人與人關系問題,以及單純的自由和隱私問題等倫理關系,將全面融合為整體性的人與人、人與其所創構世界的整體關系問題。7 人工智能技術將現實社會與數據世界的區隔進一步打破,數字化的虛擬關系網絡解構了傳統的人與人、人與社會的社會關系網絡。一方面,倫理關系拓展到數據化世界,包括人與數據化的人、數據化的人與現實社會、數據化的人與數據化的人之間的倫理關系等,而伴隨人工智能技術的不斷發展強大,還將面臨“人—機”關系等問題。另一方面,現有的倫理關系與虛擬關系交織在一起,重塑了人們生產生活的社會情境,同時也將面臨更加復雜多元的道德與利益關系的挑戰。在這一過程中,應樹立人本主義數據倫理觀,提升人的主體地位,調適數據與人的關系。
2.倫理價值失衡
人工智能的發展必然會挑戰既有的人類價值,促使人類去重新思考人類的基本屬性與倫常關系。1 馬克斯·韋伯(Max Weber)區分了價值理性和工具理性,認為工具理性只關注效率、功用、計算和手段,價值理性則注重行為本身的價值,人才是終極目的。法蘭克福學派批判性地指出工具理性導致技術理性霸權,消解了人生存的價值基礎。數據驅動的人工智能技術廣泛應用,加速了工具理性與價值理性的背離,對社會原有的價值體系進行解構,使其處于一種價值失衡狀態。
智能傳播中,不同技術力量的滲透和利益的驅使,使數據的收集、存儲、分析、開發和應用等各個環節都可能引發倫理問題。在數據的生產實踐中,往往無法同時滿足多維度的價值評估準則,比如安全與隱私、效率與公平等。不同群體的利益價值取向與價值需求之間存在潛在的難以彌合的沖突。用戶需要在讓渡個人隱私帶來的危害與可獲得的技術帶來的便捷之間進行價值判斷。通過確認“隱私聲明”和勾選“用戶協議”的方式,數據主體與數據平臺建立了并不完全公平的契約關系。數據的相關利益者陷入價值的分裂與沖突,價值框架如何彌合工具理性和價值理性的鴻溝,實現數據的工具理性與人的價值理性的統一,成為另一種挑戰。對此,應堅持開放、公平、人本的道德價值取向,摒棄非人道、非人性和非自由的倫理價值選擇。
3.倫理行為失范
倫理行為是人的自由意志選擇的結果,而自由意志的有效行使,取決于主體對行為過程及其后果的知曉和控制能力。換言之,倫理行為應該是一種以自由意志為前提,由選擇機制和責任能力共同決定的責任行為。2 倫理行為失范是指在具體情境中,行為主體違反既有的倫理規范并通過行為表現出來的一種狀態。
面對倫理風險時,人們常常會根據風險認知預測后果,從而決定其倫理行為。由于數據異化倫理風險往往是潛在的、長周期的、影響范圍廣且深遠的、結果不可逆的,因而容易被智能傳播主體忽略。在一定的倫理意識支配下,從業者根據一定的倫理價值標準,進行“義”與“利”、“工具理性”與“價值理性”、“經濟價值”與“人本價值”的倫理抉擇。智能傳播生態中,職業共同體的倫理意識尚未達成共識,新型倫理行為準則尚未構建,難以對海量的數據進行監管,從而導致傳播主體的倫理行為處于失范狀態,帶來消極影響并破壞社會秩序。這就有待建構一整套全新的倫理行為規范及其標準,通過自律與他律、內部與外部相結合的方式,制約相關利益方的失范行為。
4.倫理秩序“失場”
狹義的倫理秩序指稱符合倫理性的善的秩序,廣義的倫理秩序指稱具有倫理屬性的秩序。倫理秩序是倫理關系的結構性存在。倫理秩序首先是一種客觀性的關系結構,這種結構自身具有客觀交往規則系統,是倫理關系的內在秩序。對這種客觀交往關系及其交往規則系統的自覺意識與主觀表達,即為倫理規范要求。3 “失場”原為戲劇表演術語,意為演員該出場時而未及時出場(或未出場),借用這一術語,倫理秩序“失場”是一種隱喻,意指適應智能傳播時代的新倫理秩序本應及時登場卻滯后出現。數據作為新型生產要素,業已影響了人類的生產生活方式以及傳統的倫理秩序。當前,傳統的社會倫理秩序被沖擊和解構,已經無法應對智能時代的倫理風險,但智能化社會的新型倫理秩序尚未塑造成熟。
智能傳播中,倫理秩序“失場”的挑戰一方面源于倫理責任的弱化。在傳統的傳播實踐活動中,通常由傳媒工作者等專業人員擔任維護社會倫理秩序的角色。但在智能傳播實踐過程中,數據驅動的算法技術具有復雜性、隱蔽性和系統性等特征,當某一環節出現問題時,很難進行嚴格的責任主體界定,主體之間的利益糾葛也很難明確,加之部分從業者數據倫理意識的模糊和道德信仰的缺失,使得倫理責任難以落到實處。另一方面源于智能傳播場景下倫理共識理念尚待確定。這妨礙了新型倫理秩序——一種在傳播實踐活動中形成的普遍認同的、穩定的、能維系智能傳播實踐活動有序運行的價值規范體系——的建構。
五、結語
正如人類歷史發展中每一次新技術的產生都會對人類既有制度產生深刻影響,隨著科技的快速發展,信息數據化速度不斷加快,人類社會進入了“數據爆炸”時代,數據反噬人類,造成數據異化。關注智能傳播中的數據異化問題,并不是拒絕智能技術的創新發展,更不能因噎廢食,抵觸大數據及算法技術的應用,成為抵制新技術的“盧德分子”(Luddites),而是要辯證思考數據與人的關系,既要看到數據異化帶來的倫理層面的風險,也要看到風險中蘊藏的合理規約數據發展的機遇和挑戰。
馬克思認為,異化是一種暫時而非永恒的歷史現象,并不是一種不可改變的人類境況。人的異化的克服與人性的復歸、人類的解放應當是同一過程。在實踐活動中,既要高度警惕數據對人的奴役,也要揚棄物化的社會關系,通過構建數據異化倫理風險防范機制,樹立人本主義數據倫理觀,以探尋人類在數據智能時代的自由解放之路。
The Paradox of Data and Human: Data Alienation and Ethical Risks ofIntelligent Communication
YANG Xianshun, AN Jia
Abstract: This article, guided by Marx’s theory of alienation, reflects on the relationship between “data and human” in the era of intelligent communication, analyzes the characteristics, ethical risks, and challenges of data alienation in intelligent communication. The alienation of data in intelligent communication is characterized by the alienation of data products, data production, data subjects, and data relationships. The paradox of alienation between “data and human” also brings ethical risks at three levels, namely, human and self, human and human, human and society. It will lead to challenges such as disruption of ethical relationships, imbalance of ethical values, deregulation of ethical behavior, and “collapse” of ethical order. Reflecting on risks is not about rejecting innovation, but rather advocating for establishment of a humanistic data ethics perspective in the practice of intelligent communication, enhancing subject status of human, and adjusting essential relationship between data and human.
Key words: intelligent communication; data alienation; ethical risk
(責任編輯:陳" "吉)
基金項目:國家社會科學基金項目“大數據營銷傳播的倫理治理體系研究”(19BXW100)
作者簡介:楊先順,暨南大學新聞與傳播學院、媒體國家級實驗教學示范中心教授,博士生導師(廣東 廣州510632)。安佳,暨南大學新聞與傳播學院博士研究生(廣東 廣州510632)。
1 王樹人:《關于馬克思主義之前的異化理論》,《哲學研究》1983年第10期,第42頁。
2 廣松涉:《唯物史觀的原像》,鄧習議譯,南京大學出版社2009年版,第201—211頁。
1 哈特穆特·羅薩:《新異化的誕生:社會加速批判理論大綱》,鄭作彧譯,上海人民出版社2018年版,第7頁。
2 段偉文:《人工智能與解析社會的來臨》,《科學與社會》2019年第1期,第115頁。
3 楊先順:《技術異化中的人性殘缺——對當前網絡廣告的追問與反思》,《現代傳播》2005年第2期,第44頁。
4 陳萬球、石惠絮:《大數據時代城市治理:數據異化與數據治理》,《湖南師范大學社會科學學報》2015年第5期。
5 陳仕偉:《大數據技術異化的倫理治理》,《自然辯證法研究》2016年第1期,第46頁。
6 藍江:《從物化到數字化:數字資本主義時代的異化理論》,《社會科學》2018年第11期,第112頁。
1 姚建華:《數字勞動:理論前沿與在地經驗》,江蘇人民出版2021年版,第7頁。
1 韓炳哲:《在群中:數字媒體時代的大眾心理學》,程巍譯,中信出版集團2019年版,第52頁。
2 馬克思:《1844年經濟學哲學手稿》,中共中央編譯局編譯,人民出版社2018年版,第52頁。
3 維克托·邁爾-舍恩伯格、肯尼斯·庫克耶:《大數據時代——生活、工作與思維的大變革》,盛楊燕、周濤譯,浙江人民出版社2012年版,第205頁。
4 G.Deleuze, Negotiations:1972-1990, trans. Martin Joughin, New York:Columbia University Press,1995,pp.177-182.
5 段偉文:《面向人工智能時代的倫理策略》,《當代美國評論》2019年第1期,第31頁。
6 黃升民、劉珊:《重新定義智能媒體》,《現代傳播》2022年第1期,第127頁。
1 馬克思:《1844年經濟學哲學手稿》,第54頁。
2 藍江:《智能算法下人的數字異化與生存變革》,《人民論壇》2021年第Z1期,第 22頁。
3 張彥:《“風險”研究的歷史嬗變:轉向與建構》,《學術月刊》2008年第6期,第30頁。
4 陳愛華:《高技術的倫理風險及其應對》,《倫理學研究》2006年第4期,第96頁。
1 袁貴仁:《主體性與人的主體性》,《河北學刊》1988年第3期,第25頁。
2 段偉文:《信息文明的倫理基礎》,上海人民出版社2020年版,第79頁。
3 伊萊·帕里澤:《過濾泡:互聯網對我們的隱秘操縱》,方師師、楊媛譯,中國人民大學出版社2020年版,第9頁。
1 克里斯多夫·庫克里克:《微粒社會:數字化時代的社會模式》,黃昆、夏柯譯,中信出版集團2018年版,第VI頁。
2 徐漢明、孫逸嘯:《算法媒體的權力、異化風險與規制框架》,《西安交通大學學報(社會科學版)》2020年第11期,第131頁。
3 阿克塞爾·霍耐特:《物化:承認理論探析》,羅名珍譯,華東師范大學出版社2018年版,第17頁。
4 《馬克思恩格斯選集》,人民出版社1995年版,第275頁。
5 劉麗、郭蘇建:《大數據技術帶來的社會公平困境及變革》,《探索與爭鳴》2020年第12期,第114頁。
1 林曦、郭蘇建:《算法不正義與大數據倫理》,《社會科學》2020年第8期,第3頁。
2 A.Datta,“Automated Experiments on Ad Privacy Settings”,Proceedings on Privacy Enhancing Technologies, No.1(2015),pp.92-112.
3 安東尼·吉登斯:《現代性的后果》,田禾譯,譯林出版社2000年版,第31頁。
4 尼古拉斯·盧曼:《信任:一個社會復雜性的簡化機制》,瞿鐵鵬、李強譯,上海世紀出版集團2005年,第6頁。
5 騰訊防水墻、騰訊安全天御、InMobi:《2020中國移動廣告反欺詐白皮書》,2020年12月。
6 宋希仁:《論倫理秩序》,《倫理學研究》2007年第5期,第1頁。
7 王天恩:《大數據、人工智能和造世倫理》,《哲學分析》2019年第5期,第38頁。
1 孫偉平:《關于人工智能的價值反思》,《哲學研究》2017年第10期,第120頁。
2 劉大椿:《科技時代倫理問題的新向度》,《新視野》2000年第1期,第35頁。
3 高兆明:《“倫理秩序”辨》,《哲學研究》2006年第6期,第111頁。