黃曉偉 李育慧


摘要:近年來的數據集下架潮、算法偏見大辯論使得算法偏見成為一個不可忽視的社會問題,這歸根結底是由算法的政治性決定的。本研究從技術與權力的互構共生關系視角,批判了算法的價值中立論,在算法賦權的社會—技術系統中,算法作為非人類行動者參與到人類行動者的決策過程中。算法偏見可以區分出若干類型,其實質是當代數字化社會的一種形式偏見,可能加劇新興的數字排斥。算法社會的道德底線應該是不造成算法傷害,避免算法作惡,同時還要從激勵性倫理的角度推動算法的負責任創新,實現算法向善。算法風險的基本治理機制是算法透明,而同樣重要的是算法問責。
關鍵詞:算法偏見;算法權力;技術與權力的互構;數字排斥;算法向善
中圖分類號:B829;TP18? ? ?文獻標識碼:A? ? ?文章編號:1003-1502(2021)01-0039-10
在啟蒙現代性發端之初,英國哲學家培根發出了“知識就是力量”的時代呼喚。隨著工業化進程的擴散,世界各國人民也確實見證了現代技術迸發的巨大力量。20世紀以來,現代性的迷思為世界大戰、環境公害、核威脅、恐怖主義等風險事件所動搖,居于技術力量背后的“權力”幽靈不再游蕩,“知識即權力”以及“技術即權力”的觀念受到越來越多思想家的重視和討論。近年來,算法創新、海量數據與運算能力共同推動了新一代人工智能的蓬勃發展,由于算法創新的核心驅動作用及其廣泛的社會影響,一些社會理論家們甚至宣稱“算法社會”正在來臨。與此同時,以黑箱化為特征的算法所引發的殺熟、歧視、偽造等風險也逐漸暴露,因而有必要批判性地反思算法力量背后的權力因素。本研究嘗試從算法與權力的互構共生關系視角,分析“算法偏見”這一基本且為熱點的社會問題,從而更深入地理解現代技術的權力之維,以期為推動新一代人工智能的健康發展提供學理借鑒。
一、算法偏見何以成為社會問題
從學術史的角度看,社會科學領域關于偏見問題的研究由來已久,經歷了從早期聚焦人類偏見到后來關注技術偏見的擴展。社會心理學家戈登·奧爾波特在其經典著作《偏見的本質》(1954)中,將偏見定義為“因為錯誤和僵化的推論,而對某一群體的成員產生反感或厭惡的情緒”,分析了人類偏見的認知過程、動機過程和社會文化過程,但忽視了新型的、內隱的、復數的偏見形式[1]。由于技術偏見大多是內隱的,早期的偏見研究并不涉及技術議題,對非人類行動者與人類行動者的關注是不對稱的。20世紀末,計算機和互聯網逐步普及,“價值敏感性設計”理念的提出者芭蒂婭·弗里德曼等最早討論了計算機系統的偏差問題,尤其關注那些具有道德含義的偏差[2]。計算機倫理學中的偏見研究由此發端,如今引起熱議的算法偏見指涉的就是算法造成的具有道德含義的偏差。進入21世紀,算法倫理伴隨深度學習的發展而興起,最早關于算法倫理的專題論文發表于2011年,基于醫學圖像分析技術的案例分析,得出了特定算法是負載價值的判斷[3]。此后,信息哲學家盧西亞諾·弗洛里迪與合作者們持續追蹤并系統綜述了算法倫理領域的爭議與進展,指出了由算法決策引發的六類倫理挑戰:論據不確定、論據難理解、證據有誤導、結果不公平、影響多變化以及可追溯性,旨在提供對算法的認識論和規范性問題的最新分析,并為算法的設計、開發和部署提供可行的治理建議[4] [5]。在快速增長的算法倫理文獻中,算法偏見問題始終是一個焦點議題,不過從算法權力角度的探究還有待深化。
時至今日,算法偏見不再僅僅是一個人工智能領域的學術問題,而成為一個不容忽視的社會問題。在新一代人工智能發展熱中,算法創新開始顯現出熊彼特意義上的“創造性破壞”的現實特征。一方面,算法賦能數字經濟發展的“創造性效應”不斷積聚,這在很大程度上得益于三位圖靈獎得主杰弗里·辛頓、楊立昆、約書亞·本吉奧為深度學習算法奠定的基礎,并在多個領域得到了規模化應用;另一方面,有關算法的社會爭議也引起公眾對其“破壞性效應”的警惕。以大量應用深度學習算法的圖像識別領域為例,2019年以來因系統性的標注缺陷而出現了“數據集下架潮”,迄今已涉及微軟公司的MS-Celeb-1M名人人臉數據集、杜克大學的Duke MTMC行人監控數據集、斯坦福大學的Brainwash頭部檢測數據集、麻省理工學院的Tiny Images Dataset微小圖像數據集,以及目前世界上最大的圖像識別數據集ImageNet中的“人物”子集,不一而足。
如果說上述數據集下架潮引發的社會關注還主要集中在數據偏見問題,那么一場關于深度學習算法的大辯論將算法偏見問題前所未有地凸顯出來。在2020年的國際計算機視覺與模式識別會議上,杜克大學的研究者們發布了一種基于StyleGAN人臉圖像生成器的PULSE算法,這種算法能將模糊圖片迅速高清化。有網友試用了上述算法,輸入美國前總統奧巴馬的模糊照片,卻生成了一張白人男子的照片,算法的不完備性隨即引發了激烈的辯論。圖靈獎得主楊立昆發推特表態,從技術角度將此歸結為數據偏見問題,認為機器學習系統的偏見來自數據的偏見,這一面部采樣系統讓每個人都變白,是由于網絡的預訓練基于主要為白人圖片的FlickFaceHQ數據集。如果同樣的系統使用塞內加爾的數據集訓練,那每個人看起來都會像非洲人”。黑人女性AI科學家蒂妮特·葛卜路對楊立昆的立場深表失望,在推特上回應,“你不能將機器學習導致的傷害簡單還原為數據集偏見”。在輿論壓力下,杜克大學的研究者們也不得不公開回應,算法訓練所用的都是虛擬的人臉圖片,不會用于識別或重構真實人臉。此外,他們還在預印本論文中新增了一節,專門討論算法偏見問題,“PULSE算法可能解釋了一些內在于StyleGAN的偏見”,并報告了該算法識別不同種族、性別人群圖片的成功率差異[6]。與之類似,新近的AI研究更為詳細地描述了人工圖像生成算法中隱含的人口統計學偏見,發現生成的圖像更偏向年輕人,尤其是白人女性[7]。最終,這場多方參與、持續兩周的“算法偏見大辯論”以楊立昆退出推特而暫告一段落,而由此引發的學術討論仍在繼續。
二、算法觀的分歧:內在主義,還是外在主義
現代意義的“算法”概念歷史并不久遠,早期預設了內在主義的認識論立場。“Algorithm”的詞源可追溯至波斯數學家、“代數之父”阿爾·花拉子密,最初指代加、減、乘、除等基本算術法則。直到20世紀七八十年代,隨著計算機科學的發展,現代意義的“算法”才成為一個專業術語。在經典的計算機科學教科書中,算法通常被定義為一組有窮的計算規則,這些規則給出求解特定類型問題的運算序列,并具備有限性、確定性、輸入、輸出和有效性等特征[8]。區別于基于規則的傳統機器學習算法范式,杰弗里·辛頓2006年在《科學》上發表的關于深度學習算法的論文,真正開啟了新一代人工智能的先河[9]。從技術角度分析,深度學習算法的工作流程可以簡化為:選擇問題→挑選算法→數據收集→預訓練→應用→校準→測試→再設計。而目前引起熱議及爭議的算法都是深度學習算法,是輸入數據與學習模型的共同產物。
進入21世紀,關于算法的哲學與社會科學研究開始興起,對算法概念的理解出現了狹義和廣義之分。計算機科學哲學家完善了算法的狹義理解,將其界定為數學建構物,即一種有窮的、抽象的、高效的復合式控制結構,其命令已給定,用以在設定的規定條件下實現設定的目標[10]。而社會科學學者傾向于一種外在主義的認識論立場,將算法理解為一種社會—技術系統,它“不只是一組能夠編碼為計算機程序的、足夠精確的指令,還是運行于一個實體的計算機系統之上并能夠影響其他系統的程序”[11]。本研究主要從算法概念的廣義理解去分析算法偏見問題。
近年來的數據集下架潮、算法偏見大辯論使得“算法本身是否具有偏見”成為技術的社會學與倫理學研究紛紛關注的焦點。事實上,爭論雙方的分歧首先體現在算法觀上,即算法是一個純粹數學意義上的技術系統,還是一個復雜的社會—技術系統?作為“深度學習三巨頭”之一的楊立昆就將算法視為單純技術系統,是算法領域持技術價值中立論的典型代表。他早在2019年就曾發推特表達過“算法自身的無偏見性”觀點。他寫道,“人類是有偏見的。數據是有偏見的,部分是由于人類是有偏見的。基于有偏見的數據訓練出來的算法是有偏見的。但學習算法本身是無偏見的。數據偏見能夠被修正。修正人類偏見則要困難得多。”
其實,這種算法無偏見的觀點之所以得到很多人的認可,與根深蒂固的技術價值中立論有關。技術與價值無涉的觀念古已有之,直到20世紀下半葉才得到深刻批判。在前現代社會,亞里士多德的技術觀影響深遠,他將“人工物”與 “自然物”對立起來,認為人工物的目的因在其自身之外,無內在目的之物只能從屬于手段領域[12]。及至現代,馬克斯·韋伯區分了“實質合理性”與“形式合理性”,認為前者包含價值偏見,而后者是價值中立的[13]。在韋伯看來,技術的本質是一種形式合理性,這進一步強化了技術中立性的現代迷思。法蘭克福學派理論家赫伯特·馬爾庫塞尖銳地批判了技術中立性的傳統概念,主張技術成了新的社會控制形式,在單向度的發達工業社會,“技術的合理性已經變成政治的合理性”[14]。在反思韋伯與馬爾庫塞的技術觀基礎上,技術哲學家安德魯·芬伯格區分了“實質偏見”與“形式偏見”,指出關于技術的形式偏見是現代社會獨一無二的特點,而且不可避免地負載價值,“形式偏見的本質是在時間、地點和由相對中性的要素組成的系統引入方式上存有成見的選擇”[15]。
因此,循著芬伯格的思路,本研究認為算法偏見是當代數字化社會的一種形式偏見,一切算法系統皆是社會—技術系統,在引入技術性與非技術性要素的過程中都有可能嵌入人類的價值偏見。那些執著于算法無偏見的學者,仍然將技術系統視作實現人類目的的手段與工具,而無視技術系統的可編碼性和價值負載性。而從技術與權力互構的角度解析算法偏見,就是基于算法的政治價值負載性,解讀算法偏見與算法權力之間的復雜關聯。
三、算法的政治性與算法偏見的多樣性
在數字化的社會,人機協同決策的場景不斷擴展,算法作為非人類行動者參與到人類行動者的決策過程中。“大數據和算法作為顯然可靠的治理工具,可能會取代人類的‘自由裁量權”[16]。從購物/新聞/音樂推薦、貸款發放、保險理賠、雇傭招聘,再到精準醫療、自動駕駛、量刑評估、預測性警務,算法決策服務及其質量已經成為利益攸關方關注的焦點。當然,目前真正能實際應用的場景還相對有限,可以完全自主決策的、代表通用人工智能的算法仍然處在思想實驗階段。
技術哲學家蘭登·溫納的經典之問“技術物有政治性嗎?”[17]對當今理解算法的政治性仍有啟示意義。溫納認為,各種技術系統與現代政治深入地交織在一起——這里的“政治”是指權力和權威在人類交往中的配置以及這種配置之下的活動。有些技術的變遷會產生政治后果(如紐約城市規劃師羅伯特·摩西為限制少數族裔和低收入群體而設計的一系列低橋),此即“技術的外在政治性”;有些技術甚至在某種意義上具有政治本性(如原子彈、核電廠),此即“技術的內在政治性”。事實上,在算法的政治性問題上,這一區分仍然是適用的。
一方面,有些算法被外在地賦予政治性,司法領域的量刑評估算法是一個典型案例。COMPAS算法是由美國Northpointe公司數據科學家蒂姆·布倫南發明的司法輔助決策模型,該算法結合刑事案件被告人對 137 個調查問題的回答(涉及以往犯罪記錄、第一次被捕的年齡及現在年齡、教育水平以及一個小時的問卷調查等人口統計學信息)來預測他們再次犯罪的可能性,他聲稱該算法不會把種族作為變量。美國一些州的法官在被告人申請假釋時,通過用該算法對他們再犯的風險進行評估,以作出最終決定。2016年,一家公益機構ProPublica基于佛羅里達州布勞沃德縣的用戶數據開展的調查發現,COMPAS算法對非裔美國人存在偏見。具體而言,假釋評估時被算法標注為高風險(容易再犯),但后來沒有再犯的白人為23.5%,黑人為44.9%;假釋評估時被算法標注為低風險(不易再犯),但后來再犯的白人為47.7%,黑人為28.0%。因此,那些雖有前科但沒有再犯的黑人被算法錯誤標注為高風險罪犯(如表1所示)[18]。
另一方面,有些算法則內在地具有政治性,這突出體現在那些意圖實現政治操控的算法上。以2016年的兩個政治“黑天鵝事件”為例,英國公投支持“脫歐”和特朗普當選美國總統的背后都有一家加拿大政治咨詢公司聚合智囊(AggregateIQ)技術介入的活躍身影。據加拿大信息隱私專員辦公室系統的一份官方調查報告顯示,聚合智囊利用算法模型刻畫用戶的心理特征并向其投送定制的政治廣告或虛假新聞,介入了英、美、加等國的政治選舉活動,期望影響選民的投票決定[19]。電影《脫歐:無理之戰》中,為英國“脫歐派”提供選民定位算法決策服務的就是這家公司;此外,聚合智囊還一度利用英國一家政治咨詢公司劍橋分析非法獲取并共享的5000 多萬臉書(Facebook)用戶隱私數據,為特朗普的總統競選活動提供算法決策服務。其實,早在2012年的總統競選活動中,奧巴馬就已經嫻熟地運用名為“選民關系管理系統”的大數據分析結果;盡管最終不敵特朗普,但希拉里在2016年總統競選活動中也使用了The Groundwork團隊(受谷歌公司的間接支持)提供的算法決策服務。
總之,算法偏見之所以成為社會問題,歸根結底是由算法的政治性決定的。算法決策為人類決策“賦權”,但受所輸入數據的質量以及算法模型本身的限制,內在地嵌入了人類正面或負面的價值觀,并能動地制造著各種風險后果[20]。從技術與權力互構論的角度分析,可以依據對象、起源兩個標準來進一步區分出算法偏見的六種理想類型。
第一,根據遭受算法偏見的對象劃分,主要包括算法中的社會偏見、用戶偏見和信息偏見[21] 。
1.所謂“社會偏見”,是指算法可以展現社會對個體或利益攸關方的偏見,并明確體現在信息系統中,或者受到使用這些系統作出的決定的直接影響。研究者將有害的算法比喻為“數學殺傷性武器”,揭露了算法的不透明、規模化、毀滅性等特征[22]。下列案例同樣涉及算法的社會偏見:英國圣喬治醫學院的自動化招聘模型給來自外國的優秀申請人和女性申請人打分偏低,每年2000個申請者中有60個申請者無法進入面試環節,僅僅是因為他(她)們的種族或性別;一位得過躁郁癥的年輕人在康復后重新求職,但由于不同公司采用了同一套人格測試算法模型,導致他在申請低薪職位時也接連被拒。
2.所謂“用戶偏見”,是指同一個信息系統對不同用戶(個人、團體或組織)的可用性偏見,具體包括系統對不同用戶的可獲取性,用戶可以使用系統特性的舒適性,以及系統能夠滿足用戶需求的程度等[23]。一個典型的案例是谷歌實施的“自殺預防結果”項目:當用戶在引擎上輸入與自殺相關詞匯時,谷歌就會在第一時間向具有自殺傾向的群體呈現出能夠預防其自殺的干預措施。然而,谷歌這項表面看起來具有巨大社會效益的項目,面臨的最大挑戰是來自不同的搜索語言得出的算法輸出結果之間的明顯差異。有研究者發現,當使用英語搜索與自殺相關的危害信息或求助信息時,會有90%以上的概率出現自殺預防結果,這遠遠高于在使用日語、中文、印地語、德語等地區進行搜索“自殺預防結果”顯示的概率。這限制了使用非英語語言地區的用戶對于“自殺預防結果”項目的可獲得性,從而導致全球網民在健康信息上的“用戶偏見”[24]。
3.所謂“信息偏見”,是指某個信息系統提供的信息選擇和表征方式而造成的認知性偏見。以醫學圖像分析的算法為例,它旨在以精確的方式在計算機中表現人體生物結構,從而改善有關疾病的診斷前景。這些算法是否應該將某個生物結構計算為病變,與所選擇的閾值有關,由此引起的倫理問題之一是使用產生假正例和假負例結果的風險。而閾值往往是“似乎合理”,而非先驗正確的,這取決于算法設計者在避免假正例/病變之間的偏好,偏好就不可避免地涉及價值判斷[3]。
第二,根據算法偏見產生的起源劃分,主要包括先天偏見、過程偏見和后果偏見[21]。
1.所謂“先天偏見”,是由數據科學家的判斷引入,這類有偏見的算法包括算法代碼和指令在預設前提的基礎上設計的情況。例如,程序員和軟件工程師的偏見心態找到進入算法設計方式,成為嵌入在規定算法的條件和結果部分的過程中這種算法設計者意識形態和算法的結合,可以使算法成為負載規范性和命令性陳述的載體。
2.所謂“過程偏見”,是指機器學習算法與社交或信息環境交互的過程中學習和復制偏見行為。2016年3月,微軟公司在推特(Twitter)上推出的智能聊天機器人Tay是一個試驗性的機器學習項目,專為與18—24歲之間的年輕人交流而設計。但在學習過程中,Tay不僅臟話連篇、辱罵用戶,還發表煽動性的政治評論和種族歧視言論,結果在短短24小時內就被迫撤下整改。
3.所謂“后果偏見”,是指一些算法輸出的結果是有偏見的,但并非有意為之。2015 年,谷歌公司處于開發早期的圖像識別算法竟然將一些黑人圖片錯誤地標注為“大猩猩”,為了平息風波,谷歌從照片數據庫內屏蔽了“大猩猩”和其他靈長類動物的標簽。這起算法事故是對曾以“不作惡”為行為準則的谷歌的一個反諷。
從社會學意義上分析,各類的算法偏見將在特定時空條件下促生一群“數字窮人”或“數字難民”,這是因數字技術變遷導致的新型社會排斥問題,即“數字排斥”。“雖然社會排斥有各種定義,但它意味著這樣一個過程:個人或群體被全部地或部分地排除在充分的社會參與之外”[25]。個體或群體的數字排斥過程有主動或被動之分,其中算法偏見涉及的案例主要是由被動排斥所導致的。總之,算法偏見可能導致勞動力市場排斥、公共服務排斥和社會關系排斥等潛在的社會問題,是數字社會治理的重大挑戰之一,若治理無效可能成為新的社會不平等源頭。
四、算法社會的倫理治理路徑探究
社會科學學者較早從算法權力的角度覺察到“算法社會”正在加速來臨。相比以往,越來越多的經濟與社會決策依賴算法系統作出的自動化決策,正在來臨的算法社會正是以運用算法、智能代理和大數據來治理人口為特色的。斯科特·拉什指出,在媒體和代碼無處不在的社會,權力越來越集中于算法這種生成性規則[26],而戴維·比爾強調“算法能夠形塑社會文化形態,并直接影響個體的生活”[27],弗蘭克·帕斯奎爾強調了算法社會的黑箱化風險(即“黑箱社會”),用于作出判斷的算法程序將主觀偏見偽造成看似中立的分數,逐漸成為分配機遇和施加懲罰的“看不見的仲裁者”[28]。
之于算法社會的倫理治理,本研究從倫理內涵與治理機制兩個分析維度,嘗試構建一個倫理治理的矩陣模型。從倫理內涵維度分析,可以辨識出預防性倫理和激勵性倫理[29]兩種類型;從治理機制維度分析,主要有兩種:作為事前治理方式的算法透明制和作為事后治理方式的算法問責制(如表2所示)。
第一,在算法社會,對“機器人學三定律”的闡釋應該與時俱進,其道德底線應該是不造成算法傷害。美國作家艾薩克·阿西莫夫在科幻作品中提出了廣為流傳的“機器人學三定律”,即“第一定律——機器人不得傷害人,也不得見人受到傷害而袖手旁觀;第二定律——機器人應服從人的一切命令,但不得違反第一定律;第三定律——機器人應保護自身的安全,但不得違反第一、第二定律”[30]。與阿西莫夫虛構的科幻世界不同,美國法學家杰克·巴爾金指出,算法社會的“機器人學三定律”應該是針對人類與人類組織的法則,而不是針對機器人本身的法則。“首先,機器人、算法和智能代理的操作者是信息信托人,對終端用戶、委托人和客戶負有誠信和公平交易的特殊責任。其次,私有的數字平臺企業雖然不是信息信托人,但同樣對公眾負有責任。再次,機器人、算法和智能代理的使用者核心的公共責任是不造成算法傷害。”[31] 事實上,上述倫理準則可以凝練為“算法社會的三定律”,即主張數據科學家和算法工程師的角色是用戶的信息信托人,數字平臺企業也需要履行公共責任,二者的核心責任是不造成算法傷害。此處的算法傷害,具體可以理解為前述的六類算法偏見,而它們在現實中往往交織在一起。“不造成算法傷害”的道德律令,更多體現了預防性倫理的視角,其基本治理原則是算法透明,即要求算法的設計方或使用方公開披露算法決策相關的源代碼、輸入數據或輸出結果。
第二,在算法透明制之外,同樣重要的算法風險治理機制是提高決策學習算法的可問責性。事實上,算法透明制在操作層面仍有諸多限制,而且透明性不是最終目的,它只是通向可理解性的一個階梯[28]。簡言之,算法問責制是要求算法的部署方確保算法按預期運行,并有能力糾正有害后果。算法問責制的一個成功應用案例是美國對P2P 算法風險的治理。P2P算法在文件傳輸領域的成功應用反而成為一柄“雙刃劍”,即迅速滋生了盜版、淫穢等音視頻內容的傳播。為治理此類算法風險,美國音樂電影產業界與互聯網產業界共同推動了相關的版權立法。由于美國版權領域有著成熟的責任追溯體系,因此主要采用了事后治理性質的算法問責機制,仍然達到了有效的治理效果,而無須借助算法透明原則深究P2P 算法的技術性實質[32]。
第三,從激勵性倫理的視角,算法不僅不得“作惡”,同時還要積極“向善”。面對層出不窮的算法偏見問題,一些致力于實現算法向善的理念已經出現。典型案例之一是,為應對可能出現的自動駕駛汽車版“電車難題”,有研究者提出了可定制“倫理旋鈕”的構想。乘客有三種倫理選擇:第一種是“利他”模式,自動駕駛汽車在緊急情況下選擇犧牲乘客以拯救第三方(行人或過路人);第二種是“利己”模式,緊急情況下犧牲第三方以拯救乘客;第三種是“公正”模式,賦予乘客和第三方以同等的道德權重,緊急情況下依據“兩害相權取其輕”的功利主義原則決策,而在乘客與第三方人數相同的特殊情況下,可能會有一個有利于乘客或第三方的推定,或者在兩者之間進行隨機選擇。此外,選擇不同的倫理旋鈕,還需要引入相應的乘客法律責任、第三方保險賠償等社會治理機制[33]。事實上,盡管這一方案還有待實踐的檢驗,但已經超出了技術性修正的范疇,開始意識到在技術與社會的交互界面思考解決方案的必要性。
第四,在算法向善的實踐層面,算法風險治理應該重視發揮第三方機構的專業監督作用。從激勵性倫理的角度看,算法問責制的一個典型案例是算法正義聯盟,這是由麻省理工學院計算機科學家喬伊·布拉姆維尼發起,致力于糾正算法偏見的公益機構。數據科學家們通過網站收集遭受過算法傷害的受害者申訴,并圍繞申訴撰寫文章、錄制視頻、發起研究課題等,爭取使現有(尤其數字平臺企業的)算法變得更加公正與客觀。主要的工作方式有研究、傳播和監督三種:1.通過專業的科學研究,調查、評測和呈現重要算法的偏見水平,呼吁數字平臺企業改進算法;2.通過論文、視頻、演講等傳播形式以及多種藝術、媒體形式進行宣傳報道,并收集算法傷害的案例和招募志愿者,引起公眾和有關企業對算法偏見的理解和重視;3.發揮第三方組織的監督作用,通過建立“類行業標準”的規范協議(如“安全人臉承諾”),鼓勵企業、政府、科研人員等利益攸關方加入,進行自律或他律[34]。
結? ?語
本研究從算法與權力的互構共生關系視角,批判了算法的價值中立論,主張一切算法系統皆是社會—技術系統,算法偏見是當代數字社會的一種形式偏見。算法作為非人類行動者參與到人類行動者的決策過程中,要么被外在地賦予了政治性,要么內在地具有政治本性。層出不窮的算法偏見可能導致新型的數字排斥,必須高度重視算法風險的社會治理。其基本的治理機制是算法透明,而同樣重要的是算法問責;算法社會的預防性倫理底線應該是不造成算法傷害,避免算法作惡,此外還要從激勵性倫理的角度推動算法的負責任創新,實現算法向善。
在算法偏見已經成為一個不可忽視的社會問題的今天,特別需要來自社會科學領域與自然科學領域的學者通力協作,促進深度學習算法的健康發展。在2020年深度學習領域的國際頂級會議ICLR2020上,社會科學學者反思算法偏見問題的聲音受到廣泛關注,“沒有歷史深度和社會深度的計算深度只是淺薄學習”[35],而非深度學習。對算法風險的社會治理已經開始起步,仍然任重而道遠。
參考文獻:
[1] 高明華.偏見的生成與消解:評奧爾波特《偏見的本質》[J].社會, 2015,35(1).
[2] Friedman B., Nissenbaum H..Bias in Computer Systems[J]. ACM Transactions on Information Systems, 1996, 14(3).
[3] Kraemer F.,et al. Is There an Ethics of Algorithms?[J]. Ethics and Information Technology, 2011,13(3).
[4] Mittelstadt B., et al. The Ethics of Algorithms: Mapping the Debate[J].Big Data & Society,2016,(12).
[5] Tsamados A., et al. The Ethics of Algorithms: Key Problems and Solutions [EB/OL]. https://www.researchgate.net/publication/343472595,2020-08-06.
[6] Menon S., et al. PULSE: Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models [EB/OL]. https://arxiv.org/abs/2003.03808,2020-07-20.
[7] Salminen J., et al. Analyzing Demographic Bias in Artificially Generated Facial Pictures[EB/OL]. https://dl.acm.org/doi/10.1145/3334480.3382791,2020-04-25.
[8]〔美〕高德納. 計算機程序設計藝術(第1卷:基本算法)[M].蘇玉林,譯. 北京:國防工業出版社, 2007.4-5.
[9] Hinton G., Salakhutdinov R.. Reducing the Dimensionality of Data with Neural Networks[J]. Science,2006,313(5786).
[10] Hill R.. What an Algorithm Is?[J]. Philosophy & Technology, 2016,29(3).
[11] MacKenzie D.. Material Signals: A Historical Sociology of High-Frequency Trading[J]. American Journal of Sociology, 2018,123(6).
[12]〔古希臘〕亞里士多德.物理學[M].張竹明,譯. 北京:商務印書館,1982.43-46.
[13] Weber M.. The Theory of Social and Economic Organization[M].Glencoe,IL: The Free Press,1964.35-40.
[14]〔美〕赫伯特·馬爾庫塞.單向度的人[M].劉繼,譯.上海:譯文出版社,2006.導言7-8.
[15]〔美〕安德魯·芬伯格.技術批判理論[M].韓連慶,等,譯.北京: 北京大學出版社,2005.97-98.
[16]〔美〕希拉·賈薩諾夫.發明的倫理:技術與人類未來[M].尚智叢,等,譯.北京:中國人民大學出版社, 2018.177.
[17] Winner L.. Do Artifacts Have Politics? [J]. Daedalus, 1980,(109).
[18] Angwin, J., et al. Machine Bias: There's Software Used Across the Country to Predict Future Criminals. And It's Biased against Blacks [EB/OL]. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing, 2016-05-23.
[19] McEvoy M., Therrien D. INVESTIGATION REPORT P19-03 PIPEDA-035913,AggregateIQ Data Services Ltd. [EB/OL].? https://www.oipc.bc.ca/investigation-reports/2363,2019-11-26.
[20] 黃曉偉.互聯網平臺壟斷問題的算法共謀根源及協同治理思路[J].中國科技論壇, 2019,(9).
[21] Sattarov F.. Power and Technology: A Philosophical and Ethical Analysis[M]. London: Rowman & Littlefield International, 2019.
[22]〔美〕凱西·奧尼爾. 算法霸權:數學殺傷性武器的威脅[M].馬青玲,譯.北京:中信出版社,2018.
[23]Van Den Hoven J.. Computer Ethics: Philosophical Enquiry[M]. Rotterdam, Netherlands: Rotterdam University Press,1998.
[24] Haim M., Arendt F., Scherr S.. Abyss or Shelter? On the Relevance of Web Search Engines Search Results When People Google for Suicide[J]. Health Communication, 2017, 32(2).
[25] 景曉芬.“社會排斥”理論研究綜述[J].甘肅理論學刊, 2004,(2).
[26] Lash S.. Power after Hegemony: Cultural Studies in Mutation? [J]. Theory Culture & Society, 2007, 24(3).
[27] Beer D. .Power through the Algorithm? Participatory Web Cultures and the Technological Unconscious[J]. New Media & Society,2009,11(6).
[28]〔美〕弗蘭克·帕斯奎爾.黑箱社會:控制金錢和信息的數據法則[M].趙亞男,譯. 北京:中信出版社, 2015.
[29]〔美〕理查德·伯恩. 工程倫理:挑戰與機遇[M]. 叢杭青,等,譯. 杭州:浙江大學出版社,2020.
[30]〔美〕艾·阿西莫夫. 我,機器人[M]. 國強,等,譯. 北京:科學普及出版社,1981.1.
[31] Balkin J.M..The Three Laws of Robotics in the Age of Big Data[J]. Ohio State Law Journal, 2017,78(5).
[32] 沈偉偉.算法透明原則的迷思——算法規制理論的批判[J].環球法律評論,2019,(6).
[33] Contissa G., et al. The Ethical Knob: Ethically-customisable Automated Vehicles and the Law[J]. Artificial Intelligence and Law,2017,25(3).
[34] 司曉,馬永武,等. 科技向善[M].杭州:浙江大學出版社,2020.205-211.
[35] Benjamin R.. 2020 Vision: Reimagining the Default Settings of Technology & Society [EB/OL].https://iclr.cc/virtual_2020/speaker_3.html,2020-04-28.
An Analysis of the Problem of Algorithmic Bias Based on the Co-production Theory of Technology and Power
HUANG Xiaowei, LI Yuhui
Abstract: Recently, many institutions have deleted some controversial datasets, and there is also a heated debate on algorithmic bias. Both events make algorithmic bias a social problem that cannot be ignored, because algorithms themselves are political. This paper criticizes the neutrality notion of algorithm based on the co-production theory of technology and power. In a socio-technological system empowered by algorithms, algorithms have been embedded into the human decision-making process as non-human agent. Several ideal types of algorithmic bias can be identified, while the algorithmic bias by its nature is a kind of formal bias in contemporary digitalized society, and it probably intensifies more and emerging digital exclusions. The ethical baseline of an algorithmic society is the avoidance of being algorithmic nuisances, that is, to avoid the evil algorithms. The aspirational dimension of ethics calls for the responsible innovation of algorithms, that is, the creation of more algorithms for good. The basic risk governance mechanisms of algorithm include algorithmic transparency as well as algorithmic accountability.
Key words: algorithmic bias; algorithmic power; co-production of technology and power; digital exclusion; algorithms for good
責任編輯:翟? ?祎
基金項目:國家社會科學基金青年項目“互構論視域的算法風險生成邏輯及治理機制研究”,項目編號:19CZX012。
作者簡介:黃曉偉(1987—),男,天津大學馬克思主義學院講師。
李育慧(1997—),女,天津大學馬克思主義學院碩士研究生。