智能算法正在深刻地影響人們的生活、工作與思維方式,在社會中形成日益強大的算法文化。算法文化的本質特征包括算法迷思、算法平臺的強勢與用戶的弱勢以及算法文化的開放性與不確定性等。算法文化可能導致公眾產生對算法的非理性認知、破壞人類自主、侵犯隱私、危害社會公正、弱化人類文化的多樣性等倫理風險。智能社會中的算法文化建構應該遵循文化強國的價值導向,強化所有利益相關者(包括政府管理部門、企業、科技人員、媒體與用戶等)的責任內涵,營造以人為本、公正透明、安全可靠、風清氣正的算法生態,從而規避算法文化的倫理風險。
算法; 文化; 倫理風險
B82-057-A-0077-11
在信息時代與人工智能時代,算法一般指計算機或智能產品中采用的解決某個具體問題的計算方法、規則與步驟。自從20世紀中葉圖靈(Alan Turing)提出“機器能思考嗎?”的問題,并給出了自己的解答方式之后,哲學家們認為算法包含了智能和機械兩個方面的內涵,于是算法概念得到廣泛應用,并在20世紀發揮了核心作用[1]。新銳歷史學家赫拉利(Yuval Harari)在《未來簡史》中認為,21世紀將是由算法主導的世紀,現在算法已經可以說是這個世界上最重要的概念[2]。有學者認為,算法已經成為制造文化的發動機,因而可以稱其為文化機器(culture machines)[3]。眾所周知,算法是人工智能的核心要素之一。在人工智能時代,算法已經無處不在,算法文化亦是智能社會文化建設的核心組成部分。本文首先討論算法文化的內涵,接著分析其本質特征與倫理風險,最后主要從責任倫理的視角探討算法文化倫理風險的規避路徑,以期對算法文化形成較為清晰的認識,為智能社會建設提供有力的文化支撐。
一、 什么是算法文化?
(一)算法文化的定義
最早提出算法文化概念的可能是美國學者加洛韋(Alexander Galloway)。2006年,當時在紐約大學任助理教授的加洛韋在一本著作的標題中使用了算法文化的概念,但他并沒有對其進行明確的定義。那本著作的主要研究對象也不是算法,而是視頻游戲,加洛韋在著作開篇就指出,要把視頻游戲作為一種文化對象進行考察[4]。
斯特瑞佛斯(Ted Striphas)認為,人類逐漸把文化工作委托給計算過程,比如對人、地點、物體和思想的分類、分級與分層,這種轉變導致類別文化的實踐、體驗和理解模式的顯著改變,他稱之為“算法文化”。采用威廉斯(Raymond Williams)的“關鍵詞”研究方法,斯特瑞佛斯對算法文化的內涵進行了語義學分析。通過對信息、群眾和算法等三個與算法文化密切相關的概念的語義轉換分析,斯特瑞佛斯認為,把文化工作交給計算機、數據庫與其他各種數字技術,使得這些與文化密切相關的概念產生了新的意涵,它們可以通過經驗被感受到,但沒有得到恰當的界定和記載[5]395-412。斯特瑞佛斯的研究可以幫助我們更好地把握算法文化的特點,不過他也沒有給出一個明確的算法文化的定義。
威廉斯認為,英文里有兩三個比較復雜的詞,culture就是其中的一個,因為其有著極為復雜的詞義演變史[6]147。我們經常用文化來指人類在社會歷史發展過程中所創造的物質財富和精神財富的總和,而且一般特指精神財富。從這種角度看,算法本身也是一種文化,而且在智能文化中處于核心位置。不過這種理解過于寬泛,我們需要一個稍微細致的算法文化的內涵界定。
現代的文化概念包含了“依賴一種持續性的自然過程”的意涵。除了這種自然的意涵,現代文化概念通常分為三大類別:第一,指18世紀以來思想、精神與美學發展的一般過程;第二,表示一種特殊的生活方式;第三,用來描述關于知性的作品與活動,尤其是藝術方面[6]152。本文的討論主要涉及第一、二種文化的內涵,也就是人類思想的發展過程及其對人類生活、思維方式的影響。正如威廉斯所說,文化的觀念是針對我們的共同生活狀況所發生的普遍和重大變化所做出的一種普遍反映。而且,特定的變化會修改一種習慣法則,轉變一種習慣行為[7]。
由此,我們認為,算法文化至少包含算法本身的文化意涵、人們對算法的主觀認知以及算法的客觀影響三個層面。第一方面,如英國約克大學社會學家大衛·比爾(David Beer)所言,算法現在是一種文化存在(cultural presence),甚至可能是一種標志性的文化存在,這不只是因為它們所能做的事情,還因為用算法概念來展現的事物。我們需要分析算法代表著什么,它做了什么,以及它可能提示了什么,由此來探討算法概念的文化重要性[8]。第二方面包括人們對算法的各種認知與體驗、學界和媒體的理解與傳播以及這兩者之間的相互影響。第三方面即在算法得到廣泛應用的人工智能時代,受到算法的普遍影響,人類的思維、生活與工作方式所產生的顯著變化,這些變化反過來也會影響算法的發展與應用。
(二)算法與人類的復雜互動
本文主要關注算法文化第二、第三方面的內涵。眾所周知,算法對人類生活的影響已經無處不在。在現代社會中,幾乎所有的經濟運行流程或是人們的日常生活,都是由算法在幕后重新建立一種秩序。算法成為操縱與維持經濟運行、日常生活的一只“看不見的手”[9]。無論樂意還是不樂意,自覺還是不自覺,我們都把很多日常行為交給算法來處理,算法已經成為技術化生存的重要組成部分。
當代技術哲學已經不再將技術看作中性的工具,而是認為技術在人與世界之間發揮著積極的調節作用,它深刻影響人類的認知、行動與體驗。也就是說,算法并不只是在我們使用它的時候被動地發揮作用,而是積極主動地影響人類行為,而我們對這種積極主動的影響可能并無明顯的感知。比如,傳統的友誼概念一般強調個人之間自由、平等的交往,但臉書(Facebook)平臺改變了傳統的友誼概念,算法越來越多地協助用戶選擇誰可以(以及誰不可以)成為朋友。因此,布赫(Taina Bucher)提出了算法友誼(algorithmic friendship)的概念,用來說明臉書平臺上的友誼不只是個人之間的關系,還包括算法、軟件等非人類行動者在內,而且算法友誼還破壞了傳統友誼所擁有的分享、互動、自愿等特點。考慮到算法所發揮的重要作用,我們甚至可以把算法稱作“友誼制造者”[10]。
算法對人類行為可能產生巨大影響,而人類卻沒有明顯察覺,這種現象可以用“助推”(nudge)概念來進行解釋。在行為經濟學中,助推是指在人們的選擇體系中任何一方面都不采用強制的方式,而是以一種可以預見的方式去改變人們的選擇或者改變他們的經濟動機及行為。比如,為兒童擺放食物時,把健康食品放在更容易看到和拿到的地方,使兒童更多地選擇健康食物[11]。行動經濟學中的助推是靜態的,也沒有明顯的個性化色彩。但是,在人工智能時代,基于大數據的算法分析能夠對用戶的個人習慣、偏好有準確的把握,因此可以給出個性化的、動態的推薦輸出,從而對用戶行為產生更大的影響,導致產生“超級助推”(hypernudge)現象[12]。
當然,在一些具體的工作場景中,我們能夠明顯感受到算法的影響。比如對于某些運用較為廣泛和頻繁的App或平臺,人們基本都會認識到算法的基礎性作用。在智能社會中,人們經常利用算法來進行各種監管。有時為了達到算法監管的要求,我們甚至會調整某些工作與生活方式。比如,現在人們普遍運用文本匹配算法來檢測學術文本的重復率,以此判定是否存在學術不端的情況及其嚴重程度。很多高校對學生的畢業論文要求進行重復率檢測,雜志社對學術論文的重復率也有明確要求。由于腳注與參考文獻容易提高論文的重復率,有的學者在寫作時故意減少腳注和參考文獻的數量。同時,盡量減少直接引用,更多地采用間接引用的方式,也可以有效降低重復率。可見,算法已經在一定程度上改變了學術寫作的風格。
需要強調的是,我們不僅被動地受到算法制約與影響,還經常主動求助于算法的強大力量。不論是在學術文本中,還是在大眾媒體中,有關算法(人工智能)賦能教育教學、行政管理、意識形態、社會服務、科技創新、企業發展、經濟貿易等的文章隨處可見。在阿爾法圍棋戰勝人類頂尖棋手之后,很多職業棋手主動向阿爾法圍棋學習,甚至開始模仿其下棋方法。智能算法在圍棋中的應用,對職業棋手與圍棋行業產生了深遠的影響。
二、 算法文化的本質特征與倫理風險
一般認為,算法具有“有限、確定、有效”等基本特點[13]。從算法文化的角度出發,我們可以更全面地認識算法及其社會影響的本質特征,在此基礎上才能更好地理解算法文化的倫理風險。
(一)算法文化的本質特征
第一,算法迷思。一方面,不少學者大力鼓吹算法的強大能力。美國華盛頓大學計算機科學教授多明戈斯(Pedro Domingos)認為,所有知識,無論是過去的、現在的還是未來的,都有可能通過單個通用學習算法從數據中獲得,他將其稱為“終極算法”[14]33。在他看來,終極算法會給出所有學科的統一思想,并有潛力提出一套新的萬有理論[14]59。多明戈斯對算法能力的樂觀自信,與庫茲韋爾(Ray Kurzweil)在《奇點臨近》《如何創造思維》以及波斯特洛姆(Nick Bostrom)在《超級智能》等著作中對強人工智能、超級智能的樂觀非常類似,我們甚至可以將其稱為“算法萬能論”與“算法崇拜論”。
另一方面,也有不少學者從各個角度對算法進行了批判。數據科學家奧尼爾(Cathy O’Neil)認為,有許多模型(算法)【奧尼爾在其著作中交替使用“(數學)模型”和“算法”兩個概念。】把人類的偏見、誤解和偏愛編入了軟件系統,而這些系統正日益在更大程度上操控著我們的生活。模型得出的結論往往會懲罰社會中的窮人和其他受壓迫的人,而富人卻因此更加富有。她把這些有害的模型稱為“數學殺傷性武器”[15]。更多的人文學者對算法的種種弊端進行了較為強烈的質疑與批判。社會學家大衛·比爾(David Beer)認為,算法不是一種中性的技術,它可以成為權力部署的組成部分,而且權力可以通過算法來進行運作,與算法的設計、功能、結果融合在一起[8]。法學家也非常關注算法的權力化趨勢,我國有學者認為,凡是特定主體擁有的足以支配他人或影響他人的資源的能力可稱之為權力,而算法擁有調配資源的力量已經使其成為一種事實上的技術權力[16]。
娜塔莉(Simone Natale)等人通過對20世紀40—70年代《科學美國人》《新科學家》等雜志有關人工智能的文章進行內容分析認為,類比、預測未來和爭論這三種主要的修辭和話語模式構成了20世紀中葉以來出現的人工智能迷思(myth)[17]。在關于算法文化的討論與爭論中,我們很容易發現,20世紀中葉關于人工智能的技術迷思仍然持續至今。人們對算法及其影響的分析充滿了各種樂觀與悲觀的預測、爭論,因此這種算法迷思也構成了算法文化的重要組成部分。
第二,算法平臺的強大與用戶的相對弱勢。算法具有分類、排序、選擇的強大能力,在很大程度上決定了用戶能夠看到什么,不能看到什么,由此也在相當程度上決定了什么是重要的,什么是最可見的。在《今日簡史》一書的最后一頁中,赫拉利表現出了對算法控制人類的憂慮。他認為:“在不遠的未來,算法就可能為這一切發展畫下句點,人類將再也無法觀察到真正的自己,而是由算法為人類決定我們是誰、該知道關于自己的哪些事。”[18]毫無疑問,算法以及以算法作為重要技術基礎的平臺與大型企業具有強大的社會影響力。想想西方人對谷歌、亞馬遜、微軟以及我們對京東、騰訊、阿里巴巴等大型平臺與企業的高度依賴,就很容易想象算法所具有的強大力量。
與此相比,用戶的地位與影響力相對弱小。比如,在智能推薦算法中,個人被當作一個原子,只是在統計意義上才會被智能推薦算法所關注,單獨的個體并不具備價值,甚至不被看作完整的人[19]。原子化的個人是算法的操作對象,在很大程度上是被動的,個人對算法的反作用較為有限。不過,盡管算法的制造者與運營者占據了主導地位,但并不意味著用戶(包括潛在的用戶)只能處于被支配的地位。事實上,人們制造、使用、體驗算法的過程頗為復雜,這個過程不僅僅是迫使用戶自動形成某些觀點,還充滿了超越、誤讀、不認同等各種可能性[20]。谷歌眼鏡的案例可能是用戶與社會對以算法為基礎的智能產品具有實質性影響的一個典型代表。谷歌眼鏡是一款增強現實型穿戴式智能眼鏡,曾經引起廣泛關注,當時該項目的負責人對其寄予厚望,認為谷歌眼鏡的最終目標是服務于每個人,要使其成為一個通用的設備。但是,谷歌眼鏡也引起了巨大的爭議,人們從科技、經濟、倫理、美學等多個角度對其進行了批判,最終使谷歌公司放棄了該項目[21]。
第三,算法強大的封閉性與算法文化較弱的開放性。就目前的人工智能技術發展水平而言,算法必然具有封閉性特征。從算法目標定位的角度看,算法要解決的任務是非常明確的,而且關于算法的描述也必須是清晰的。即使人們認為阿爾法圍棋擁有強大的學習能力,但其目標仍然是非常明確的。也就是說,阿爾法圍棋的學習算法只能用于學習圍棋,卻不能用于學習新的任務,不能像人類智能那樣舉一反三、觸類旁通。對此,阿爾法圍棋的研發人員亦束手無策[22]。“沒有免費的午餐”定理表明,一個算法不可能在所有問題上都表現得很好,算法在解決某類問題時性能的提升,是以在解決其他問題時性能的下降為代價的[9]171。從算法應用環境的角度看,算法的應用場景也需要具有封閉性,才能保證算法應用的成功[23]。從算法運營模式的角度看,以推薦算法為例,其主要目的是提高用戶的滿意度,算法主要通過獲取更多的用戶數據,從而產生更令用戶滿意的推薦成果,如此在封閉的商業閉環中反復循環[24]。
但是,算法文化必然具有一定程度的開放性。首先,從技術層面看,技術人員必須根據用戶的要求、反饋與批判不斷調整算法,使其運行更穩定、結果更精確,同時還需要根據不同的用戶群體與社會文化環境對算法進行某些修正。也就是說,算法與用戶、社會是一個相互形塑的過程。其次,從算法應用的效果來看,不同的用戶會有不同的感受,也就是同樣的算法會產生不同的應用效果,會對人們的思維與生活方式產生不同的影響。不過,相對于算法明顯而強大的封閉性而言,算法文化的開放性較弱,而且也未受到較多的關注。
第四,算法的有效性與算法文化的不確定性。算法的運行及其結果是可以實現的,這就是算法的有效性,無效算法不可能得到人們的認可與接受。無論是阿爾法圍棋對人類棋手的完勝,還是汽車導航系統精準地把我們帶到目的地,算法的有效性是毋庸置疑的。但是,不穩定、脆弱、混亂和容易失敗也是算法文化的重要特征[25]13-14。2009年,據說是由于一個小小的編目錯誤,同性戀浪漫小說在亞馬遜銷量排行榜上消失,同時標題中含有“健康、精神、身體、繁殖、性醫學”等的書籍也受到牽連,總共超過57000本書受到影響[5]396。2012年,交易算法的一個錯誤使得美國騎士資本集團在45分鐘內損失超過4億美元。算法本身的一個小問題,可能在社會應用中產生蝴蝶效應,其影響不斷被外在化、擴大化,最終產生難以消除的甚至是巨大的負面影響。
算法文化的失調并不只是由于算法本身的缺陷或缺失導致的,也可能歸因于人們對算法的合理性、客觀性的期望與實際的算法表現之間的不匹配[25]17。也就是說,雖然算法擁有較高的有效性與可靠性,但從算法文化的角度看,在算法與各種主體、技術設備等復雜的相互作用過程中,算法會表現出脆弱性、不穩定性、易錯性等特征。在現代信息社會中,不少人受到賽博意識形態(cybernetic ideology)的影響,追逐一種百分之百的有效、精確與可預測的沒有錯誤的世界[26]。但是,無論是從算法本身還是從算法文化的角度看,這種賽博意識形態都是不可取的。因此,我們不要過分高估算法的有效性,不能忽視算法文化內在固有的不確定性。
(二)算法文化的倫理風險
我國有學者認為,算法倫理的核心問題包括隱私問題、公平問題和算法透明性問題[27]。通過對算法文化的本質特征的分析,我們可以從更廣泛、更深遠的視角探討算法的倫理風險。以下主要結合算法文化的本質特征分析其倫理風險。
第一,算法迷思可能導致公眾形成對算法的非理性認知。一方面,學者對當前算法能力的超前預測與夸大描述,很可能使持樂觀立場的公眾對人工智能技術的發展形成不合理的期待,同時又使持技術悲觀立場的公眾強化其技術憂慮與技術恐懼的傾向。另一方面,對算法權力(霸權)的批判可能使公眾對智能產品產生不信任的心理,從而影響對智能產品的接受與使用。這兩方面的倫理風險對于智能社會的建構都可能產生不利的影響。
侯世達(Douglas Hofstadter)曾在一場演講中提及,盡管他強烈懷疑庫茲韋爾的奇點假設,但他承認仍然被其預言所困擾。他說:“如果這真的發生了,我們將被取代,我們將成為遺跡,我們將被塵埃淹沒。也許這就是正在發生的現實,但我不想讓它發生得太快。我不想讓我的孩子們淹沒在塵埃中。”[28]作為美國文理科學院院士和美國哲學學會會員,侯世達在認知科學、計算機科學以及哲學、語言學領域均有相當造詣。他不是簡單地擔心人工智能變得太強大、太聰明,而是擔心人類所擁有的智能、創造力、情感等特征被算法徹底破解。專業學者都會如此迷惑,公眾更是難以避免。由此,人們在為人工智能叫好、吶喊的同時又擔驚受怕,出現了所謂的“人工智能恐懼”現象[29]。
第二,平臺的強大可能強化算法文化的資本邏輯,使算法文化走向一種精英文化,同時產生社會不公、侵犯隱私等現象,但用戶的反抗能力較弱。在平臺逐利本能的驅動下,算法的設計者很自然地將效率與利益作為算法設計的基本目標,追求利益的最大化。同時,算法設計是一項高度專業化的工作,只有經過專業教育與訓練的人員才能從事相關工作,因此從業人員的結構特征與倫理素養在一定程度上會對算法文化產生較大的影響。在大多數發達國家中,從事算法設計的人員多為白人男性,而女性和其他種族的人員相對較少,這也被認為是導致算法產生偏見與歧視的一個重要原因。
近些年來,參與式文化成為新聞傳播研究者討論的一個熱門話題。中西方學者普遍認為,隨著現代信息技術的發展與普及,公眾可以借助各種社會化平臺表達觀點、交流討論與自我展示。公眾不再是被動的信息受眾,也不再是傳統意義上的信息消費者,而是成為主動的信息分享者、傳播者和創造者,這使媒介文化體現出參與、分享、互動等特征,因而參與式文化是互聯網文化的顯著特征[30]。在智能算法的助力下,人們可以更便捷地發布與分享各種信息,因而算法文化具有明顯的參與式、大眾化的特征。
雖然公眾也是算法文化的參與者與建構者,但總的來說處于較弱的地位。斯特瑞佛斯明確指出,算法文化的風險在于它逐漸放棄了文化的公共性,導致出現一種新的精英文化(elite culture)[5]395-412。習近平總書記強調:“服務人民是科技創新的本質要求,各國都有權通過自身努力和國際合作從科技創新中受益。科技創新成果不應該被封鎖起來,不應該成為只為少數人牟利的工具。”[31]由算法應用導致的社會不公、侵犯隱私等現象受到學術界與社會公眾的普遍關注,但如何規避風險仍然眾說紛紜。算法文化的此類風險在各種倫理風險中處于關鍵性地位,也將是算法文化建構中要解決的核心問題。
第三,算法強大的封閉性與算法文化較弱的開放性可能弱化人類文化的豐富性與多樣性,固化人們的品性與偏好,導致文化區隔與分層。算法推薦可能導致的所謂“信息繭房”受到不少學者的關注,但信息繭房事實上一直存在,而且是海量信息差異化消費的必然結果,同時也是“獨異性”社會的外在表現之一[32]。盡管信息繭房有其必然性,但算法的封閉性確實可能導致人們的某些特定品性與偏好得到更大的滿足,從而得到加強與固化。比如,推薦算法給傳統影視文化帶來巨大沖擊。對影視作品而言,個性化推薦所造成的封閉體系對用戶接觸異質的、具有創新色彩的作品造成了阻礙[33]。甚至于,用戶處于怎樣的社會層級位置,用戶之間的互動連接,不同層級用戶有著怎樣的品味偏好,什么樣的文化產品與之匹配,都由算法系統掌控,由此導致十分突出的文化層級區隔[34]。
個人品性與愛好的動態性、豐富性是個人發展的基本動力,而算法可能正在消解這種人類發展的動力。算法對用戶的分析完全依賴于用戶行為產生的數據,算法產生的對用戶未來態度、偏好與行為的認知完全沒有考慮用戶的心理動機與語言表達,甚至可以稱之為“數據行為主義”(data behaviou-rism)[35]。推薦算法主要關注個人行為,但行為與個人的思想、理想之間存在明顯差異。數據行為主義對人的認知必然是不全面的,可能產生誤導與偏差。因此,科技人員需要客觀認識算法強大的封閉性與算法文化較弱的開放性可能產生的倫理風險,更多地關注算法文化的開放性特征。
第四,算法的有效性可能導致人類對其產生較為普遍的依賴,使人類主體性減弱,同時加劇算法文化的不確定性,導致算法失效時產生巨大的負面影響。從人類文化發展的歷程來看,技術的影響日益突出。波斯曼(Neil Postman)認為,文化可以分為三種類型:工具使用文化、技術統治文化和技術壟斷文化。在工具使用文化的社會里,技術并不被認為是獨立自主的,技術受到社會體制或宗教體制的管束[36]23-24。在技術統治文化中,技術世界觀比傳統世界觀更加強大,但傳統世界觀依然存在,發揮著不容忽視的影響。技術壟斷興起之后,傳統世界觀隨之消失,“一切形式的文化生活都臣服于技藝和技術的統治”[36]58。波斯曼的著作于20世紀90年代問世,當時人工智能技術遠沒有產生像當下這樣的影響。如果我們說算法文化就是一種技術統治甚至技術壟斷文化的話,估計不會有太多人反對。
斯蒂格勒(Bernard Stiegler)在同樣誕生于20世紀90年代的著作《技術與時間》中指出,由于人把決策過程委托給機器,人的選擇和預判也因此受到威脅,這種對機器的依賴是必然的,因為人已無法控制信息交流的過程[37]。在算法統治或壟斷的時代背景下,由于算法的有效性與高效性,人們對其的依賴日益加深,越來越多的工作交給算法系統來完成。因此,學者們普遍擔心人類的主體性被算法削弱,算法甚至可能逐漸擁有一定的主體地位。有學者認為,現代社會是一個以主體性為支撐的社會,而算法卻在不斷消解著人的主體性,動搖人在世界中的主體地位,甚至使人面臨客體化的風險[38]。同時,主體性也不只是人類才能擁有。在人與算法互動的過程中,主體性存在于“人類行動者、代碼、軟件和算法”的集合中。人類主體永久地與“非人類行動者的主體能力”糾纏在一起,從而意味著主體性最終是分布式的[39]。同時,由于算法文化的不穩定性與易錯性,算法的小錯誤可能通過各種途徑被無限放大,產生蝴蝶效應,導致難以挽回的巨大損失。也就是說,算法文化既放大了算法的社會效益,也極大地放大了風險。
三、 算法文化倫理風險的規避路徑
責任倫理是科技倫理研究中的核心議題,只有明確所有利益相關者的責任內涵,并通過法律法規、倫理規范等多種途徑加以落實,才能切實防范技術倫理風險。根據前述對算法文化本質特征及其倫理風險的討論,依據“文化強國”發展戰略,我們嘗試提出不同主體在當前智能社會中建構先進算法文化的責任內涵。
(一)政府責任
要克服算法平臺的強勢與用戶的相對弱勢產生的倫理風險,很大程度上需要通過加強政府監管來實現。當前政府的主要責任在于:
其一,建立健全管理制度。2021年底,國家互聯網信息辦公室、工業和信息化部、公安部和國家市場監督管理總局聯合發布《互聯網信息服務算法推薦管理規定》,從信息服務規范、用戶權益保護、監督管理、法律責任等方面對算法推薦進行了較為全面的約束與監管。其中“監督管理”部分重點強調“根據算法推薦服務的輿論屬性或者社會動員能力、內容類別、用戶規模、算法推薦技術處理的數據重要程度、對用戶行為的干預程度等對算法推薦服務提供者實施分級分類管理”。相關管理制度的制定及其完善,對于規避算法文化倫理風險將產生舉足輕重的影響。
其二,加強算法審計(algorithmic audit)與評估。審計方法在航空航天、醫療設備和財政金融等對安全性要求較高的領域已有廣泛應用,并顯著提高了安全性。目前,算法審計也得到越來越多的關注。有學者認為,算法審計正成為倒逼各類與公共利益相關的平臺進行算法改良的重要手段。根據源數據的來源,可以將算法審計分為依托平臺的算法審計路徑和依托用戶的算法審計路徑。算法審計要遵守公共利益原則、介入無害原則、最小必要原則和情境理解原則[40]。從算法審計過程來看,大致可以分為調研階段(明確審計目標、動機與原則等)、映射階段(確定審計視角、確定利益相關者、識別關鍵合作者等)、材料收集階段(產品設計文件、研發程序、數據記錄等)、測試階段(采用多種方式測試算法、驗證算法性能等)與反思階段(分析風險、提出改進建議)等[41]。
其三,注重整體治理思路。本文的論述已經表明,從算法文化的角度看,平臺、數據與算法密不可分,對算法的研究不能僅僅停留在技術層面,還需要高度關注數據以及操縱算法的工作人員與平臺、企業。數據是算法的處理對象,數據與算法共同構成平臺的重要基礎。加強數據治理,既可以保護用戶的隱私等權益,也可以強化算法輸入端管控。另外,建立并完善風險應對機制,特別是針對可能涉及重要安全領域的算法研發與用戶,完善保險賠償機制,盡可能將算法文化風險降至最低程度。
另外,需要特別強調的是,政府管理部門要正確利用算法進行社會治理工作。目前,許多政府機構都廣泛運用算法進行工作,如何保證算法被正確地運用,進而保證公眾信任政府,在算法文化的建構中是一個頗為關鍵的問題。政府部門對算法的應用并不僅僅是一個技術問題,有學者用算法化(algorithmization)過程來凸顯算法應用過程的重要性。算法化過程分析涉及組織的多個方面,除技術之外還包括專家雇員、信息資源、組織結構、組織政策、監督與評估等。只有通過多方面的努力,才能更好地應用算法履行政府機構職責,使公眾信任政府組織[42]54-56。因此,政府不僅是算法文化建構的管理者,也是具體的實踐者,政府在具體工作中表現出來的認真負責的態度將產生良好的示范效應。
(二)企業責任
企業需要處理好經濟利益與社會責任之間的關系。企業不能一味利益導向,簡單迎合用戶口味。為了使人工智能科技更好地為人類服務,規避潛在風險與負面效應,社會各界提出了各式各樣的理論主張與戰略規劃,在一定程度上形成了“人工智能向善運動”[43]。在這場運動中,企業扮演著重要的角色。比如,2019年11月,騰訊公司正式發布新的使命愿景:用戶為本、科技向善。騰訊公司的研究人員認為,產品層面的科技向善已成為重要的創新能力。企業可以兼顧用戶體驗與產品收益,平衡社會影響與商業價值,用長期效果贏取口碑、忠誠度與競爭力[44]。
根據算法的封閉性和前文提及的“沒有免費的午餐”理論,以及當前的人工智能整體發展水平,算法還不太可能對人類造成嚴重的威脅。也就是說,目前算法風險主要是誤用或濫用風險,只要企業不對那些尚不成熟、沒有經過嚴格測試與評估的算法進行應用,同時對符合規范的算法在應用過程中嚴格遵守各類法律法規與倫理準則,不故意濫用算法,算法風險就可以控制在較小的范圍之內。正如騰訊公司研究人員所強調的“避免技術作惡”,即堅持“產品底線”和“問題解決”,也就是要求企業不作惡,同時主動解決科技可能引發的各種意外的社會問題[44]255。田海平明確提出“算法從善”原則,認為算法在總體上永遠只能是達到目的的手段或工具而已,需要通過“算法從善”的“規范者指引”來規范人工智能的實際創制和運營[45]。如果企業能夠自覺遵循算法從善原則,就可以在很大程度上實現科技向善的目標,進而取得經濟與社會效益的雙贏效果。
(三)科技人員責任
其一,適當放慢科技研發節奏,切實重視科技的社會影響。2010年前后,一批科學家發起慢科學(slow science)運動,試圖扭轉當代的快科學文化。發起慢科學運動的科學家的主要目的是想爭取更多的自由時間和更大的自主性,事實上這與當代科學追求知識生產的高速與高效是相背離的。但是,慢科學的提倡者強調科學家要嚴肅對待他們通常視為非科學的憂慮與反對意見,重視科技引發的倫理與社會爭議問題,是具有積極意義的[46]。在世界各國政府積極鼓勵人工智能技術發展與應用,試圖占據領先地位的背景下,強調慢科學雖然有點烏托邦的色彩,但是通過倡導慢科學的方式使科技工作者更深刻地意識到自己的社會責任,對于智能社會的算法文化建構顯然具有積極意義。
其二,開發合倫理、負責任的算法。近些年來,許多國際組織與科技團體紛紛發布各種關于人工智能的倫理指南與倫理準則的報告,強調科技向善,對算法的性能與社會影響給予高度重視。比如,在2019年4月歐盟發布的《可信任的人工智能倫理指南》中,有十多處提及算法的內容,包括算法的研發、評估、可解釋、透明性、可問責性等等[47]。令人感到振奮的是,負責任、合倫理的人工智能、算法等研究已經得到科技工作者的高度重視,并產生了一些具有代表性的研究成果。比如科恩斯(Michael Kearns)和羅斯(Aaron Roth)合著的《合倫理的算法》,他們在該著作的導論中明確指出,要將倫理原則通過編碼的形式直接融入算法的設計之中,實現合倫理的算法設計[48]。阿加瓦爾(Sray Agarwal)和米什拉(Shashin Mishra)合著的《負責任的人工智能》其副標題就是“執行合倫理、無偏見的算法”,強調算法決策的公正性、無偏見性[49]。科技人員對算法文化倫理風險的關注與努力,是從技術層面防范倫理風險的重要手段,也是科技人員承擔前瞻性道德責任的具體表現[50]。
目前,關于算法或人工智能系統的主體性是一個頗有爭議的話題。有的學者認為,算法應該具有一定的主體性,可以承擔責任。但是,算法無論是輔助決策還是自動化決策,扮演的都是人的“代理角色”[51],也就是說,算法即使有主體性,也是間接的主體性。有的法學研究者甚至直接將算法主體定義為“具備特定的職業技術能力,直接參與算法研發、算法衍生產品的制造和生產等具體實踐活動的自然人、法人或相關組織”[52]。因此,算法本身不具有主體性,也無法承擔具體的責任,算法責任主要應該由人類主體來承擔,特別是科技人員、企業與用戶。
(四)媒體責任
媒體在算法文化建構中發揮著不可替代的關鍵性作用,特別是在引導公眾克服算法迷思、拓展算法文化的開放性等方面尤為重要。雖然算法文化是一種參與式文化,用戶在與媒體互動的過程中擁有一定的控制權和主動性,但是相對于算法文化強大的影響力和控制力而言,用戶的自主性被限制在非常有限的范圍之內。在智能社會中,社會媒體對公眾擁有強大的影響力。研究表明,在引導公眾的注意力方面,社會媒體比搜索引擎扮演著更重要的角色。媒體擁有提升主流文化而不是創造“回音室”(echo chambers)的強大能力[53]。根據前文對算法迷思的討論,媒體的首要責任在于引導公眾理性認知算法,應盡可能客觀報道與評價算法,不能簡單追求流量為王。
其次,媒體在算法文化建構中要體現主流價值的引導作用。2016年12月,在《財經》雜志的一篇訪談文章中,今日頭條CEO張一鳴強調今日頭條“算法沒有價值觀”等觀點,引發廣泛討論。爭論一方認為媒體必須要有特定的價值堅守,需要人工加以干涉(堅守派),試圖通過媒體對特定價值觀的堅持和引導達成社會共識,從而實現社會和諧進步之目的;另一方則認為媒體應當保持中立,不應拘泥于特定的價值觀,人工不應加以干涉(破除派),應該通過多元價值的相互博弈促成社會和諧進步[54]。從科技哲學的角度看,技術價值中性的思想已經受到全面的批判與質疑,因此企業管理人員在智能社會中仍然持算法中性論的觀點是不合時宜的。2019年1月25日,習近平總書記在中共中央政治局第十二次集體學習時強調:要打造新型傳播平臺,擴大主流價值影響力版圖;要旗幟鮮明地堅持正確的政治方向、輿論導向、價值取向,要從維護國家政治安全、文化安全、意識形態安全的高度加強網絡內容建設[55]。因此,媒體應該堅持明確的價值導向,以主流價值觀引導算法文化建設。
(五)用戶責任
算法通常以我們看不到也不知道的方式運作,影響著生活的方方面面,但我們并無明顯覺察,即所謂的技術無意識(technological unconscious)[56]。我們可以通過提升算法意識、培育算法想象、豐富算法經驗、加強算法培訓等多種途徑來培育公眾的算法理性,使公眾對算法形成理性的認知,在與算法互動的過程中既充分利用算法的優點為自己服務,也盡量客觀認識算法的風險與局限[57]。首先,用戶不要被過分夸大的算法宣傳所誤導。薩普特(David Sumpter)在《被算法操控的生活》一書的最后一章中強調,我們要理性認識算法的社會影響。他說:“如果你理解今天的算法是如何工作的,那么就更容易判斷關于未來的預測,哪些是比較現實的,哪些是虛無縹緲的。當我們無法理性地思考算法的影響,忘乎所以地做著科幻大夢時,算法就成為了我們面臨的最大風險。”[58]
其次,充分理解算法文化的倫理風險,特別是對可能承擔較大風險的算法用戶持寬容的態度。2020年,一篇《外賣騎手,困在系統里》的文章描繪了外賣騎手受制于算法系統,被迫掙扎于派送時間縮短、工作環境缺乏安全保障、超時懲罰體系設計不合理等多重生存矛盾之中,引發社會熱烈討論,公眾普遍關注外賣員包括生命安全在內的人身安全問題。事件發生后,“美團”和“餓了么”兩大外賣平臺相繼推出對送餐時間進行彈性調整的方案[59]。如果公眾普遍對外賣騎手的送餐時間給予一定的寬容,顯然可以緩解算法文化的倫理風險。
再次,積極參與算法文化建構,營造風清氣正的算法文化生態。從弗洛里迪(Luciano Floridi)分布式道德觀點的角度看,公眾在算法文化的建構中亦可以發揮重要的作用。弗洛里迪認為,信息與通信技術使得分布式道德成為一種更為常見、更有影響的現象,往昔“過于微弱”而且過于零星的分布式道德的事例現在在我們的生活中發揮著日益重要的作用[60]。雖然公眾與算法平臺相比處于相對弱勢地位,但分布式道德為公眾充分發揮其功能提供了理論支撐。不過,如何把公眾的行為整合成能夠產生積極影響的集體行動,使其在算法文化建構中發揮更大的積極功能,同時避免產生不必要的輿情危機,是我們面臨的一個重大挑戰。
四、 結 語
鑒于算法已經全面融入現代社會的政府管理、人們的日常生活與工作,不少學者認為“算法社會”(algorithmic society)已經到來[42]195。算法文化的概念已經充分表明,算法不是一種獨立的技術存在,它的產生、演化與發揮作用都是與各種社會因素密不可分的。也就是說,算法研究不能僅僅包括代碼和技術細節,還需要關注更加復雜的物質文化、技術設備和社會實踐。像“算法霸權”“算法統治世界”這樣的提法很容易產生誤導,使人們把矛頭都指向算法本身。算法會塑造文化,也會被文化所塑造。算法文化的概念有利于我們從更廣闊的社會與技術相互作用的大環境中去研究算法,特別是關注算法在現實世界中的運作與影響。
明確算法文化的概念及其重要性之后,我們就會發現,所謂算法倫理風險實際上大多應該是算法文化的倫理風險。同時,從算法文化的角度進行倫理風險防范,具有更高的可行性與更強的針對性。算法文化不僅僅是一種技術文化,而且是智能社會的核心文化。建構先進的算法文化是全社會的共同任務,我們需要明確所有利益相關者的責任,全方位營造以人為本、公正透明、安全可靠、風清氣正的算法生態,由此才能規避各種算法文化的倫理風險。
格雷克. 信息簡史[M]. 高博, 譯. 北京: 人民郵電出版社, 2013: 202-203.
[2] 赫拉利. 未來簡史[M]. 林俊宏, 譯. 北京: 中信出版集團, 2017: 75.
[3] FINN E. The black box of the present: time in the age of algorithms[J]. Social Research: An International Quarterly, 2019, 86(2): 557-579.
[4] GALLOWAY A. Gaming: essays on algorithmic culture[M]. Minneapolis: University of Minnesota Press, 2006: 1.
[5] STRIPHAS T. Algorithmic culture[J]. European Journal of Cultural Studies, 2015, 18(4-5): 395-412.
[6] 威廉斯. 關鍵詞:文化與社會的詞匯[M]. 劉建基, 譯. 北京: 生活·讀書·新知三聯書店, 2016: 147.
[7] 威廉斯. 文化與社會:1780-1950[M]. 高曉玲, 譯. 北京: 商務印書館, 2018: 425.
[8] BEER D. The social power of algorithms[J]. Information, Communication amp; Society, 2017, 20(1): 1-13.
[9] 徐恪, 李沁. 算法統治世界[M]. 北京: 清華大學出版社, 2017.
[10] BUCHER T. The friendship assemblage: investigating programmed sociality on Facebook[J]. Television amp; New Media, 2013, 14(6): 479-493.
[11] 塞勒, 桑斯坦. 助推[M]. 劉寧, 譯. 北京: 中信出版集團, 2018: 1-7.
[12] YEUNG K. Hypernudge: big data as a mode of regulation by design[J]. Information, Communication amp; Society, 2017, 20(1): 118-136.
[13] 胡鍵. 算法治理及其倫理[J]. 行政論壇, 2021(4): 42.
[14] 多明戈斯. 終極算法[M]. 黃芳萍, 譯. 北京: 中信出版集團, 2017: 33.
[15] 奧尼爾. 算法霸權[M]. 馬青玲, 譯. 北京: 中信出版集團, 2018.
[16] 張凌寒. 權力之治:人工智能時代的算法規制[M]. 上海: 上海人民出版社, 2021: 35.
[17] NATALE S, BALLATORE A. Imagining the thinking machine: technological myths and the rise of artificial intelligence[J]. Convergence, 2020, 26(1): 3-18.
[18] 赫拉利. 今日簡史[M]. 林俊宏, 譯. 北京: 中信出版集團, 2018: 309.
[19] 王曉通. 電影智能推薦算法的潛在文化影響[J]. 電影藝術, 2020(1): 54.
[20] COHN J. My TiVo thinks I’m gay: algorithmic culture and its discontents[J]. Television amp; New Media, 2016, 17(8): 675-690.
[21] ROBERGE J, MELANCON L, Being the King Kong of algorithmic culture is a tough job after all: Google’s regimes of justification and the meanings of glass[J]. Convergence, 2017, 23(3): 306-324.
[22] GIBNEY E. Google masters go[J]. Nature, 2016, 529(7587): 445-446.
[23] 陳小平. 人工智能倫理建設的目標、任務與路徑:六個議題及其依據[J]. 哲學研究, 2020(9): 83.
[24] HALLINAN B, STRIPHAS T. Recommended for you: the Netflix Prize and the production of algorithmic culture[J]. New Media amp; Society, 2016, 18(1): 117-137.
[25] SEYFERT R, ROBERGE J. Algorithmic cultures[M]. London: Routledge, 2016.
[26] NUNES M. Error: glitch, noise and jam in new media cultures [M]. New York: Continuum, 2011: 3.
[27] 陳昌鳳, 呂宇翔. 算法倫理研究:視角、框架和原則[J]. 內蒙古社會科學, 2022(3): 167.
[28] 米歇爾. AI 3.0[M]. 王飛躍, 等, 譯. 成都: 四川科學技術出版社, 2021: 9-10.
[29] 趙磊. 人工智能恐懼及其存在語境[J]. 西南民族大學學報(社會科學版), 2021(11): 66.
[30] 謝新洲, 趙珞琳. 網絡參與式文化研究進展綜述[J]. 新聞與寫作, 2017(5): 28.
[31] 習近平. 習近平談治國理政:第三卷[M]. 北京: 外文出版社, 2020: 458.
[32] 喻國明, 曲慧. “信息繭房”的誤讀與算法推送的必要[J]. 新疆師范大學學報(哲學社會科學版), 2020(1): 128.
[33] 陳家洋. 推薦算法與流媒體影視的算法文化[J]. 電影藝術, 2021(3): 153-160.
[34] 李婧, 陳龍. 算法傳播中的文化區隔與分層[J]. 蘇州大學學報(社會科學版), 2021(2): 180.
[35] ROUVROY A. The end(s) of critique: data behaviourism versus due process[M]// HIDEBRANDT M, VRIES de K, ed. Privacy, due process and the computational turn," London: Routledge, 2013: 143.
[36] 波斯曼. 技術壟斷:文化向技術投降[M]. 何道寬, 譯. 北京: 中信出版集團, 2019.
[37] 斯蒂格勒. 技術與時間:第一卷[M]. 裴程, 譯. 南京: 譯林出版社, 2019: 93.
[38] 鄭智航. 人工智能算法的倫理危機與法律規制[J]. 法律科學, 2021(1): 17.
[39] 卡爾波卡斯. 算法治理[M]. 邱遙堃, 譯. 上海: 上海人民出版社, 2022: 116-117.
[40] 張超. 資訊類推薦算法的算法審計路徑、倫理與可審計機制[J]. 中國出版, 2021(7): 31-35.
[41] RAJI I, SMART A, WHITE R, et al. Closing the AI accountability gap: defining an end-to-end framework for internal algorithmic auditing[C]// FAT 20: Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency, HILDEBRANDT M ed. Association for Computing Machinery, 2020: 33-44.
[42] SCHUILENBURG M, PEETERS R. The algorithmic society[M]. London: Routledge, 2021: 54-56.
[43] 杜嚴勇. 人工智能科技:向善及其可能[J]. 中國科技人才, 2021(6): 9.
[44] 司曉, 馬永武. 科技向善:大科技時代的最優選[M]. 杭州: 浙江大學出版社, 2020.
[45] 田海平, 鄭春林. 人工智能時代的道德:讓算法遵循“善法”[J]. 東南大學學報(社會科學版), 2019(5): 7.
[46] 孟強. 慢科學:重返自主性還是文明化?[J]. 自然辯證法通訊, 2021(3): 45-51.
[47] High-level Expert Group on Artificial Intelligence. Ethics guidelines for trustworthy AI[EB/OL]. (2019-04-08). https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai.
[48] KEARNS M, ROTH A. The ethical algorithm: the science of socially aware algorithm design[M]. New York: Oxford University Press, 2020: 3-4.
[49] AGARWAL S, MISHRA S. Responsible AI: implementing ethical and unbiased algorithms[M]. Cham: Springer, 2021: 2.
[50] 杜嚴勇. 論人工智能研究中的前瞻性道德責任[J]. 上海師范大學學報(社會科學版), 2018(4): 43-49.
[51] 肖紅軍. 算法責任:理論證成、全景畫像與治理范式[J]. 管理世界, 2022(4): 203.
[52] 金夢. 立法倫理與算法正義——算法主體行為的法律規制[J]. 政法論壇, 2021(1): 31.
[53] WU A X, TANEJA H, WEBSTER J. Going with the flow: nudging attention online[J]. New Media amp; Society, 2021, 23(10): 2979-2998.
[54] 董小菲. 算法機制對媒體社會責任的影響[J]. 網絡傳播, 2017(9): 94-96.
[55] 習近平在中共中央政治局第十二次集體學習時強調:推動媒體融合向縱深發展,鞏固全黨全國人民共同思想基礎[N]. 人民日報, 2019-01-26(1).
[56] BEER D. Power through the algorithm? participatory web cultures and the technological unconscious[J]. New Media amp; Society, 2009, 11(6): 985-1002.
[57] 杜嚴勇. 厭惡算法還是欣賞算法:人工智能時代的算法認知差異與算法信任建構[J]. 哲學分析, 2022(3): 161-162.
[58] 薩普特. 被算法操控的生活[M]. 易文波, 譯. 長沙: 湖南科學技術出版社, 2020: 233.
[59] 林嘉琳, 陳昌鳳. 算法決策下零工經濟平臺的權力關系變動及價值選擇[J]. 西南民族大學學報(社會科學版), 2021(12): 153-157.
[60] 弗洛里迪. 信息倫理學[M]. 薛平, 譯. 上海: 上海譯文出版社, 2018: 401.
Algorithmic Culture in the Construction of Intelligent Society:
Essential Characteristics, Ethical Risks and Prevention Approach
DU Yanyong
School of Humanities,Tongji University, Shanghai 200092, China
Intelligent algorithms are deeply influencing people’s daily lives, work and thinking modes, forming an increasingly powerful algorithmic culture. The essential characteristics of algorithmic culture include algorithm myth, the strength of algorithm platform and the weakness of users, as well as the openness and uncertainty of algorithmic culture. Algorithmic culture may pose a number of ethical risks including the irrational cognition of algorithms of the public, the destruction of human autonomy, the violation of privacy, the disruption of social justice, the weakening of the diversity of human culture and others. Therefore, to avoid the ethical risk of algorithmic culture, the construction of algorithmic culture in intelligent society should follow the value orientation of a culturally strong nation, strengthen the responsibility of all stakeholders (including government management departments, enterprises, scientists and engineers, media and users, etc.), and establish a people-oriented, fair, transparent, safe and reliable algorithmic ecology.
algorithm; culture; ethical risk