隨著現代技術的迅速發展,技術對倫理的僭越愈加突出,并且愈加復雜。算法是當前智能技術的核心,它使得人工智能具有了分析、判定、決策等擬主體性,成為擬倫理角色。擬倫理角色導致的隱私侵犯、道德越軌、價值錯位等問題,是否需要擬主體負責?如何負責?如何規制?此類科技與人、社會的關系沖突,在算法分發普遍應用的當下陸續浮出水面,成為社會亟待解決的難題。算法分發異軍突起對提升新聞傳播時效、匹配用戶需求均有所助益,然而算法黑箱、隱私侵犯、算法偏見、權力控制等技術倫理沖突頻頻出現。為了盡可能減少算法分發給人類帶來的風險,提高其正效應,社會就需要對算法分發所產生的技術倫理沖突進行判斷,進而做出規制。
對于傳統的新聞業而言,“透明性”實踐早已是推動多年的“公信力運動”的一部分,業已形成一系列倫理規則和操作規范使得新聞“透明可信”,這些規則包括指出倫理依據、信息源、使用更為平衡的報道等。對于缺少自律機制和外部管制的新聞算法分發而言,開放透明是其安身立命之本以及保障用戶信息權利的重要內容。然而在新聞算法分發中存在著“模糊不清”問題,算法分發的內容像從“黑箱”里冒出來一樣,用戶并不知道算法如何設計、分發內容是否準確無誤、是否有著利益關聯方等內容。2016年5月,臉書曝出編輯團隊人工干預算法結果的丑聞,更加深了公眾對算法分發透明性的質疑。此外,算法分發的設計邏輯也常被視為平臺獲取用戶、市場的核心機密,技術區隔會帶來競爭優勢,然而技術的晦澀也加深了外界對其透明公開的擔憂。
新聞算法分發是以用戶主動或被動讓渡隱私為前提的,深挖個體特征、關系、使用習慣等信息給用戶帶來便利的同時,也侵犯著用戶的隱私,使得隱私的不為人知與算法下用戶無所遁形成為悖論。
隱私指自然人的私人秘密和私生活安寧不被外界公開和干擾的狀態。它的本質在于所有者獨自控制,不對外公開,外界亦不得侵犯。隨著算法技術對信息采集、檢索、處理、傳播等能力的增強,個人隱私面臨著全方位的威脅,已無所遁形。隱私分為信息隱私、空間隱私、自決隱私等內容。算法分發將通過網絡收集到的個體信息進行編碼、分析,個體信息隱私面臨泄露風險。算法分發的數據收集還遍及使用傳感器的任何場所,如商場、車站、街道、交通等,這也就存在侵犯用戶空間隱私的可能。此外,理論上用戶有權決定哪些隱私可以公開或不公開,然而算法完全可以在當事人不知情的情況下進行數據的收集、處理,也可以從用戶公開數據中關聯出一些不公開的隱私內容,用戶的自決隱私在算法面前基本上是形同虛設。
客觀全面是新聞倫理的基本范疇,它是指新聞工作者必須從可靠信息來源獲得真實全面的信息,并以客觀的態度忠實地反映現實。這就要求內容有足夠的廣度與深度,能夠描述客觀世界的真實發展狀態。在傳統媒體中客觀全面雖然受到多重因素如固有思維和習慣、事實自身的立場等的影響,然而整體上看其能夠保持受眾對社會的全面認知。算法分發的實質則是建構信息過濾機制,濾出用戶“想要”的信息,極易產生算法偏見。
從傳統的編輯把關讓渡為個體興趣至上,過濾機制無疑增強了人們捕獲自己“回音”的能力,然而極易使個體陷入信息閉環和信息孤島,放大對信息的選擇性注意,這也就意味著社會全景有著支離破碎的風險。此外,算法設計也有著諸如安全性、準確性、可讀性、高效率、響應快與低存儲等需求,這些設計需求也都會使得新聞分發內容因人而異、因網而異、因機而異。如對網速較慢的用戶減少視頻、圖片新聞等的推送,可能使其未接收到最為重要的新聞。
算法作為“非人類行動者”,和人類的傳播活動編織成了新型社會關系網絡。英國學者大衛·比爾提出了“算法的權力”概念,他認為算法已經成為一種權力,影響著內容的分類、優先、推薦、判定。大眾媒體以人民性、黨性為依托,通過設置議程、內容把關等方式對社會進行瞭望,對公權進行監督。在算法驅動的新聞業中,算法則是商業利器,互聯網公司通過對算法權力的掌握與使用,實現其價值意圖。
算法分發中用戶獲取到的內容是算法想讓它們獲取到的結果,是算法認為用戶需要得到的結果,因此算法除了分發權外,還獲得了事實上的議程設置權與把關權。我國媒介市場化的進程中“編輯終審權”的紅線,在算法分發的大趨勢中毀于無形。問題的關鍵不在于紅線是否被越過,而在于權力遷移下“權為誰所謀、權為誰所用”。當前互聯網平臺的新聞算法分發更多代表的是商業利益,通過“技術無意識”的運作,滲透到了我們的日常生活中。因此,在充分享受算法為用戶帶來全新閱讀體驗的同時,也要警惕算法的運作黑箱與背后的利益操縱,算法作為一種新技術究竟給予了用戶多大的權力,同時又在多大程度上使其處于全景監視中。
隨著智能技術的迅速發展,算法分發負載著越來越多的價值與責任,如何使算法分發具有倫理屬性,幫助使用者做出倫理決策或者發展一種具有倫理意向的算法分發技術,成為當前人工智能領域研究的重點。20世紀90年代美國華盛頓大學信息學院教授芭堤雅·弗里德曼提出了信息系統設計中的價值敏感設計的概念,將人的價值觀以一種原則和全面的方式加載到設計過程之中,為上述問題的解決提供了優化推送設計的參考。
價值敏感設計采用整合、迭代的方式,從概念、經驗和技術三個層面進行倫理的全方位注入,實現價值融入設計。概念研究階段主要分析算法分發相關的倫理道德內容,為后續道德注入奠定基礎。這些道德內容包括隱私、同意、可追責、誠信等。經驗研究階段主要采用實驗、訪談、調查等方式對算法分發技術與倫理價值的相關性進行評估,為倫理道德價值提供經驗數據支持。技術研究階段是在實驗模擬、數據驗證的基礎上,研究算法分發技術對道德價值的支持。上述概念-經驗-技術三個層面并非獨立,而是彼此連接、互動、更新,從而將人的價值與行為嵌入算法分發技術設計的全流程,實現技術上的價值規范。
算法作為大數據與人工智能的節點,在互聯網發展的下半場中發揮著構造流量入口、增強用戶黏性的關鍵作用。經由算法分發的新聞,削弱了大眾媒體時代媒體為受眾設置議程的權力。當平臺利用算法為受眾推送滿足其個性化需求的新聞時,更是將受眾牢牢聚攏在了自己所建立的擬態環境之中。由此,平臺借助算法成為編輯權、把關權的實際擁有者。傳統的編輯分發中,出現內容導向問題,把關的總編輯需要承擔第一責任。在新聞算法分發中,雖然算法具有分析、判定、決策等擬主體性,扮演著總編輯的中介角色,然而其擬主體性的賦權都來自平臺。平臺是算法規制的制定者、實施者、控制者,出現分發內容低俗和違規問題,平臺的主體責任自然不可推卻。因此,以“平臺治理”為抓手加強對資訊分發平臺的監管,具有必要性和緊迫性。
此外,技術演進與商業創新往往會帶來政策監管的空白地帶。在保護創新、服務社會發展的同時,也應及時完善法規,為理性健康的內容空間提供監管依據,明晰其責任邊界。譬如近年來制定的《互聯網新聞信息服務管理規定》《互聯網新聞信息服務許可管理實施細則》等就為新聞算法分發價值規制提供了參照。在法規他律之外,組建算法協會與擬定行業準則,建構同業監督機制也不失為一種可行的手段。
隨著信息技術在社會生活中的全方位涉入,獲取信息的意識、技術、道德等內容直接關涉個體生活、社會發展。新聞算法分發之所以強調用戶信息素養的提升,一方面是因為消費什么樣的信息,本身也是用戶的素養問題;另一方面,隨著智媒技術的發展,在新聞信息消費中人們的身份不再是單一的,而更可能同時扮演傳者、受眾、媒介等多重角色。因此,新聞算法分發中的信息素養不應只是傳者的素養,而應成為全社會的基礎素養。信息素養提升方面,應摒棄對信息的低水平滿足,通過宣傳教育和針對性引導推動全民信息素養的提升,這可以依托學校、家庭、社會等多個層面,將信息素養提升與公民的自我教育、個人良性發展予以緊密結合。
通過對算法分發的技術倫理風險分析,本文提出了重構算法分發價值的一些方略,如:進行算法分發的價值敏感設計,建立針對平臺的多方監管體系,多措并舉提升用戶普遍的信息素養。算法主導的內容分發之外,還有其他技術分發方式,如微博的社交關系分發、《人民日報》等黨媒的主編推薦分發。這些技術分發方式各有優勢,如編輯分發質量高、社交分發互動性強、算法分發效率高,然而它們的弊端也較鮮明,如編輯分發效率較低、社交分發受關系限制等。目前上述技術分發方式仍處于各自為政的狀態,如何對它們的倫理沖突進行社會適配,進而承接各自的正外部性成為未來思考的方向。