曲 亮,張智敏,劉 瑾
(浙江工商大學工商管理學院,浙江杭州 310018)
近年來,基于第四次工業革命的數字經濟蓬勃發展,人工智能(artificial intelligence,AI)作為炙手可熱的新興技術加持了人類社會的諸多領域,尤其是自2022 年11 月30 日ChatGPT(chat generative pre-training transformer)正式上線以來,這一通過人工智能模型對海量數據進行訓練、借助深度學習模型進行數據分析處理的生成式預訓轉換機器人[1],更是引起了社會的廣泛關注。如在人文領域,ChatGPT 可顯著提升藝術創作和語言處理等行業的工作效率,為實現教育行業個性化教學和教育范式改革賦能;在醫學應用領域,ChatGPT 在疾病診斷、治療、監測等方面也具有巨大潛力。此外,復旦大學于2023 年2 月發布類ChatGPT 模型MOSS、中國百度也開放了相應產品文心一言(ERNIE Bot)的內測。GPT 等人工智能技術的陸續推出及其廣泛的應用領域帶來的顛覆性技術變革,使其背后隱藏的人工智能再次成為技術焦點。作為一種新興技術,人工智能的持續發展和廣泛應用帶來的各類顛覆式變革為人類社會帶來了巨大紅利,技術創新給傳統領域帶來了眾多滲透式的創新賦能與顛覆式的管理變革。
算法(algorithm)作為人工智能的核心技術,在此過程當中深度介入與迭代發展,儼然具有形成算法社會(algorithm society)之勢[2]。然而,迅猛發展的算法嵌入在發揮技術創新優勢的同時也產生了技術異化。AI 算法的技術異化在平臺經濟、零工經濟等諸多以算法為底層技術的領域引發一系列負面的社會問題,“過濾氣泡”“信息繭房”“數字圓形監獄’等“爆雷”現象層出不窮[3]。不論是人工智能還是作為其基本結構的算法,這類科學技術終究都是以工具的形態出現和被運用,因此人類在享受蘊含巨大價值的算法技術的同時開始警惕算法的作用力偏向問題以及算法技術異化與權力擴張造成的管理困境與發展陷阱。實踐層面上,算法具有廣泛應用落地場景,但同時也存在技術異化這一棘手問題;理論層面上,國內外學者在算法歧視、人工智能倫理、技術中立等相關主題上已有較高的研究熱度,從學術曲線、投資曲線、輿論曲線3 個方面均可探見AI、算法等研究熱度呈現持續增長態勢。
縱觀已有AI 算法技術異化的相關研究,可概括為3 個經典問題:(1)What: AI 算法及其技術異化是什么?(2)Why: 為什么會產生算法的技術異化?(3)How: 怎樣去治理算法技術異化問題?由于算法異化屬于新興研究話題并且研究呈現多學科多層次的特點,相關的研究相對比較零散;加之自然科學與社會科學之間存在學科壁壘,研究與研究以及研究與實踐之間存在斷裂與落差,因此系統梳理出算法異化整合性的研究框架具有重要性與必要性。鑒于此,本研究系統梳理算法技術異化的研究進展,通過文獻計量方法提煉出“內涵特征—異化歸因—算法治理”的邏輯框架,凝練AI 算法技術異化的研究框架,具體包含內涵特點與外在表征、異化歸因與理論解釋、算法規制與算法治理三部分內容,旨在整合和拓展算法異化的相關研究,以定量和定性相結合的方式梳理出現有研究脈絡,嘗試聯通跨學科之間的研究壁壘,為未來更好地探究算法治理框架、發揮算法紅利、規避算法隱患提供參考。
AI 算法技術異化是在數智化時代算法技術發展和廣泛運用的基礎上產生的前沿話題。為了更清晰地梳理這一研究領域的脈絡及發展趨勢,本研究從Web of Science 和中國知網的核心數據庫對有關算法異化的研究文獻進行初步檢索,其中外文文獻來源為商業、管理、社會學等領域的SSCI 期刊,中文文獻來源為商業、管理、社會學等領域至少被收錄于CSSCI 和《中文核心期刊要目總覽》的文獻。采用關鍵詞“algorithm alienation”“算法異化”“algorithm governance”“算法治理”“algorithm discrimination”“算法歧視”“algorithm bias”“算法偏見”等進行檢索,部分用AI 作為前綴補充搜索,初步檢索結果發現,有關算法技術異化的研究文獻集中發布于近10 年,因而進一步將文獻檢索的年限界定在2013—2022 年。此外,為保證文獻獲取的主題相關性,對初步檢索出的文獻的參考文獻進行了篩選,選取其中與AI 算法異化主題相關的文獻。篩選標準有以下3 點,滿足其中1 項即可:一是題目或關鍵詞中包含“algorithm/AI alienation”“算法/AI 異化”“algorithm/AI governance”“算法/AI治理”“algorithm/AI bias”“算法/AI 偏見”等能夠顯著表明其屬于AI算法技術異化研究等詞匯的文獻(如張玉宏等[4]、Lambrecht 等[5]的研究);二是題目或關鍵詞中不包含類似詞匯,但文獻的摘要或引言中包含此類詞匯,且該文獻研究的核心問題是與算法異化主題高度相關的(如Loureiro 等[6]、范如國[7]的研究);三是不滿足以上條件,但在文獻內容分析時有明確提到與算法技術異化相關的內容(如吳飛等[8]、Curchod 等[9]的研究)。篩選后,共得到252 篇有關AI 算法技術異化的研究文獻(以下簡稱“樣本”)。
由圖1 可見,有關AI 算法技術異化研究的文獻數量呈現出快速增長趨勢,說明在算法技術快速發展和深度嵌入的背景下,越來越多的學者開始關注算法技術紅利之外技術異化產生的消極現象。

圖1 AI 算法技術異化研究的發文量年度分布
對樣本文獻的細分主題進行分類統計,通過對這些文獻進行詳盡的內容分析,發現主要集中探討3 個方面的問題,即相關概念內涵與特征研究、異化產生的原因與解釋研究以及對算法異化的治理研究。基于此,梳理提煉出“內涵特征—異化歸因—算法治理”的研究框架(見表1),據此對樣本文獻進行編碼和分類,形成主題分布圖,如圖2 所示。近10 年來,有關算法異化的內涵特征、異化歸因和算法治理3 個主題的研究保持增長趨勢,其中在2013—2017 年研究關注程度保持相對均衡和緩步增長態勢,但在2017 年后開始大幅增長,有關算法異化治理的研究呈現激增的態勢并逐步成為AI 算法技術異化領域的主要研究主題。

表1 樣本文獻編碼框架

圖2 各主題的樣本文獻發文量年度分布
在新一輪技術革命的推動之下,人類繼信息化、數字化之后逐步邁入數智化的時代[10],AI 算法作為人工智能的核心與底層技術成為數智化時代的關鍵技術工具。然而,“算法”一詞并非新時代產物,而是可溯源至古希臘歐幾里得計算最大公約數的算法[11],以及成文于我國西漢后期的《周髀算經》[12]。在現代發展背景下算法內涵的界定包括廣義、狹義以及中義3 個層面:狹義的算法界定歸屬于科學技術領域,是以解決數學與計算科學為目的的一系列指令規則,包括邏輯回歸、支持向量機(SVM)、隨機森林等等;科技在社會科學領域的應用豐富了算法內涵,廣義算法被定義為使用系統的方法解決目標任務而形成的一系列解決問題的策略機制;中義的理解介于兩者之間,指人機交互決策模式下基于數理統計模型與決策程序,以系統的方式來描述解決問題的一系列指令[13]。AI 算法基于數據、網絡、系統、機器等構建更高層次的復雜邏輯系統,具有升級迭代的功能屬性[14]。
“AI 算法技術異化”的概念來自“異化(alienation)”概念的延伸,來源于《圣經》的“異化”一詞,意為轉讓、脫離等,在19 世紀被黑格爾引入哲學領域,而后產生勞動異化等理論,如今技術異化主要從技術非中立以及對人的負面效應兩個角度進行考察。一方面,20 世紀80 年代美國最高法院確立的“技術中立原則”被逐漸推翻,技術中立包含功能、責任、價值三重中立屬性[15],對于技術價值絕對中立的否認已達成一定共識;另一方面,技術并非僅僅帶來進步,亦有可能成為抑制個人本性的原動力,由此引發一系列負面的社會問題與治理困境。技術異化之下算法將成為桎梏。陳思[16]認為在智能社會中算法技術異化會表現出兩大特征,一方面,在工業社會向智能社會的轉型過程當中,以追求效率最大化為目的的工具理性與以信念價值和行為為導向的價值理性逐漸失衡,工具理性滿溢膨脹而價值理性相對退位;另一方面,技術的意識形態化,當算法是科學的、系統的等印象深入腦海,人們會普遍認可算法的決策結果,算法的技術力量進而會對人類社會不斷進行滲透與干預。以ChatGPT為例,作為一種大語言模型(large language models,LLM)[17],ChatGPT 因其深度學習算法和強大算力在教育、經濟、醫療等多個領域都具有廣泛的應用前景,但國內外有部分專家和學者在ChatGPT 等此類人工智能應用爆火之后提出了對其可信度的質疑,即對ChatGPT 所帶來的信息是否是專業的、真實有效的且無誤導性的擔憂。
人工智能時代下算法在營銷、金融、新聞媒體等諸多領域有了全方面、多層次的嵌入,特別是以算法作為底層技術支撐的平臺經濟、零工經濟等,由于算法技術異化與權力擴張已引發出一系列的算法失當現象。近來,算法歧視(algorithm discrimination)在學術界與實務界中關注度較高,算法決策時會固化或強化人類社會的偏見與歧視,從而對公眾利益等造成危害[18],從熟客賣高價的大數據殺熟、“千人一價”到“千人千價”的價格歧視等便是算法歧視的典型表現[19]。經濟學中合謀的商業競爭策略也因算法介入出現新興算法合謀問題,企業間運用算法進行定價在一定程度上可以實現企業與消費者的共贏,但是更好的需求預測和更大的利益前景也會使企業偏離初心[20],從而引發負面的算法合謀現象。算法合謀具體包括信使型合謀(messenger)、自主型合謀(autonomous machine)、軸輻型合謀(hub and spoke)以及預測型合謀(predictable agent)等合謀方式[21],其作為“數字化的手”在市場競爭中引發了大量反競爭性平臺壟斷行為[22]。例如淘寶交易平臺為入駐商家提供統一動態定價算法,形成輻射性算法合謀侵害了消費者利益,與此相關的衍生問題還包括算法霸權(algorithmic hegemony)、算法壟斷(algorithmic monopoly)等。傳統零工經濟也在如今互聯網業態的快速發展之下從大眾生產演化為平臺依賴[23],算法在其中不僅被用以協調分散個體的統一生產過程,更進一步被用來時時監督零工。以外賣平臺與騎手為典型案例,以效率為先與商家利潤最大化為設計邏輯的平臺算法剝奪騎手權益、使其被困在系統當中。此外,算法異化在特定領域亦會引致特定風險,例如在金融領域算法濫用會強化投資者偏見、算法趨同的羊群效應會加大金融順周期風險等等[24]。
由于算法本身的技術屬性及其應用場景的社會屬性,在對算法技術異化進行歸因研究時呈現出多維度的特征,主要包括主體維度與交互維度兩個方面。
主體維度是從算法本身的屬性特征出發,基于自然科學的知識和手段進行分析,主要包括社會范疇化、算法“黑箱”效應、非人性化以及挖掘敏感屬性等主流原因。此外,亦有學者提出算法具有生物學特質,是自我實現技術化的外在化,能夠沿襲人類的歧視意識,因為樣本的隨機性與大小差異導致有偏結論使得算法具有缺陷等觀點[4]。
(1)社會范疇化。Wu 等[25]曾通過深入調查排序出十大數據挖掘算法(如支持向量機、聚類算法等),這些算法大多屬于分類或聚類算法,正映射了算法的心理學特質——范疇化。認知心理學家認為人類會傾向于節省認知資源、簡化認知過程、進行范疇化思考[26]。在數據記錄更加易得的情況下,人類面臨更加海量的信息數據,具有計算優勢的算法在信息過載(TMI)時代被廣泛應用,算法思維中也烙印了社會范疇化的運作機理,而范疇化正是偏見的本質歸因[26]。機器學習算法在運作時,通過訓練集歸納出類別特征后對新輸入數據進行迭代,與人類刻板印象的形成具有神似的內涵,因此算法本身便隱含歧視與偏見的“基因”[4]。技術的開發與進步在一定程度上是為了提高效率,而能強化這一效率提升效果的范疇化的思考與運作在賦予算法信息處理優勢的同時也在不斷強化偏見。范疇化的算法不斷從海量數據中提取特征形成定律[27],在不同的場景中通過個體行為反饋機制對使用者或者被分析者進行區分、排序和評分,作為算法運用主體的個人不僅面臨著不斷強化的偏見與歧視,也在被分類的過程中逐漸被客體化。
(2)算法“黑箱”效應。算法在運行時為公眾所知的是通過收集獲取、分析處理以及評估預測等步驟進行決策,總而言之,涉及輸入、處理、輸出3個過程,但是其中具體的操作明細卻是不得而知的,如算法為何或如何推薦A 產品而非推薦B 產品依舊不清晰,用戶無法理解“黑箱”過程中算法的目標意圖,亦無法得知設計者與實際控制者的意圖及責任歸屬等信息[28],進而無法維護自身的權益或者行使對算法的監督、評判權。數字資本將無規律可循的算法系統視作競爭資本[29],鮮有公開,不可知、不透明的算法運行不僅減少了用戶對算法的選擇自由,也降低了用戶對算法的信任度與接受度。精準性(accuracy)與可解釋性(interpretability)是影響算法相關者心理與行為反應的關鍵中介機制,具有“黑箱”效應的算法在可解釋性中介機制的作用下會導致算法厭惡(algorithm aversion)的消極響應[30]。算法的高度不透明性是研究學者對算法擔憂的核心[31],不透明性在增加算法歧視的可能性之外,還增加了不可控性、算法偏見、算法霸權等風險的隱蔽性與追責難度。
(3)非人性化。從20 世紀70 年代中期開始,人工智能的研究從推理期進入知識期,而后進階到學習期,并發展出學習型算法[32]。然而,根據奇點理論(singularity),當下仍處于奇點到來之前的弱人工智能時代[33],以神經網絡、深度學習算法為底層架構的算法具有學習能力,但仍不具有生命概念,不能獨立自主思考。意向性(intentionality)是人與AI 最本質的區別之一[34]。算法的設計運用是為了完成特定的目標,然而被設定的算法并非人性化、一心一意地追求目標實現[35],也因此缺乏了感知情緒的能力[36]。以效率最大化為目標而缺少價值理性,在涉及高同理心和情感性的目標任務時展現出短板并可能造成使用者權益剝奪、勞動競爭等倫理沖突的社會問題[37],尤其是近年來廣受關注的平臺騎手權益問題,更是引發了大眾對用人平臺、平臺算法的思考。雖然部分學者認為ChatGPT的出現標志著強人工智能時代的到來,但我們仍需認識到GPT 的本質是通過在大型數據集上的深度學習,從而形成了類人的文本理解和輸出能力,其核心依舊是算法的運作,會存在預訓練模型偏見性、價值觀判斷缺失等一系列弊端。GPT 的出現是人工智能技術發展的重要里程碑,但也僅是人工智能通往技術奇點之路中的一步。
(4)敏感屬性挖掘。對于隱私泄露與算法歧視問題,公眾呼吁應當對數據進行脫敏處理,篩選過濾出敏感信息,然而算法分析處理的強大功能之一在于可通過交叉數據和相關性推測出不可知屬性[38]。部分敏感信息雖未明確標注,但是已顯性或隱性地被編碼在足夠豐富的特征空間當中[4],在算法設計的過程中,這些需要保護的敏感屬性無法被徹底移除。在數字平臺中,算法對具有特定社會文化和人口背景的用戶會表現出歧視性結果[19]。例如,算法在強化種族歧視時,沒有確切標注種族信息,但是普遍而言,黑人等少數族群會收入偏低、居住地離市中心遠,甚至名字也隱含種族信息(例如由于美國奴隸的這段歷史背景,白人常用名William 會稍加修改賜給男性奴隸成為Will)。因此,有研究認為單純對敏感屬性進行保護不適用于現實中的算法歧視場景,與敏感屬性相關的其他代理屬性是導致算法歧視更直接和主要的原因[39]。挖掘算法透過更多樣、更易于采集的代理屬性尋找隱含歧視因子的信息,產生更隱蔽的偏見,“完美”躲避反歧視審查。
算法異化的發生情境不僅局限于技術維度,而是作為技術中介嵌入到了社會結構當中,甚至被視為社會技術實體,因此算法在具有自動化的機器屬性之外還具有社會性、嵌入了人的價值因素,構成了二維矩陣式的價值空間[10]。鑒于此,目前亦有學者從技術性與社會性的雙重交互維度對算法異化進行理論解釋,主要包括數據的社會性、操作的干預性、應用的市場化等等。
(1)數據的社會性。在計算機領域,“Garbage In,Garage Out”(以下簡稱“GIGO”)定律獲得廣泛認可,即若輸入的是垃圾數據則輸出的也會是垃圾數據。對應到算法異化問題,“Bias In,Bias Out”就是算法歧視現象的生動展現[40]。數據是人工智能的三大基石之一,亦是算法的作用對象,而產生于人類社會的大數據雖然強調客觀標度,但不可避免地是人類社會的“鏡子”。算法偏見雖然根植于非代表性的數據集,但是它可以嵌入社會偏見,即算法中使用的數據集通常反映了社會中長期存在的結構不平等[20]。歷史數據是有偏見的個人創建的[41],對具有非中立性、有瑕疵的數據進行學習訓練出來的模型自然也帶有非中立性的傾向,因此算法技術下輸入數據的社會性是異化的原因之一。
(2)操作的干預性。當代人工智能技術中機器學習算法等包含從特殊到一般的泛化(generalization),屬于廣義上的歸納學習(inductive learning)。如圖3 所示,學習環節中的特征提取、假設空間、正則化等便涉及人為的干預性,進而將設計者的價值偏好施加到算法之中[42]。首先,在復雜的現象可被少量的特征所概括的前提下,算法工程師對數據進行特征提取(feature extraction),在監督學習中人為地貼上標簽(laber),在無監督學習中特征好壞的評判也是根據設計者賦予的價值傾向排序,設計者的偏好影響了算法的價值偏好[43]。算法的預測、決策功能基于求解最優解來實現結構風險最小化(structural risk minimization,SRM)[44],為得到良好的預測能力需進行正則化等操作,例如在奧卡姆剃刀定律(Occam's razor)中給定的λ 參數便是一個超參數,即并非從數據中學習所得,而是由人為給定。因此,在操作的干預下,人工智能不僅學習了數據和目標,也學習了人們的價值取向與偏好。

圖3 機器學習算法的迭代流程
(3)應用的利益化。算法技術從自然科技邁入社會科學領域,因其蘊含的巨大商業價值被市場青睞,在此驅動下,市場中的互聯網企業、平臺企業等成為應用算法、推動算法發展的重要主體。然而市場和資本具有逐利性,企業亦是以營利為目的,市場中AI 算法規則的背后不可避免地隱含了商業利益[25]。Burrell[32]認為企業算法不透明的原因之一是對自身競爭優勢的保護,但也可能是對其操縱和歧視消費者等行為的掩飾;甚至有學者從哲學角度分析認為,算法技術異化歸根到底是人的異化[17]。一方面,企業未注重算法技術研發團隊的算法倫理培訓,另一方面,企業以市場邏輯導向,在利益的操縱與誘導之下放大算法的工具理性而忽略人性、權益保障等價值理性,造成技術中立轉向惡德主義的傾向[11]。目前的算法仍以工具屬性的應用為主,其實際控制者是背后的使用主體,代表了人有意識的篩選和偏見。
實踐中算法異化問題不斷“爆雷”,對個人的權益、社會的經濟穩定、政府監管等都產生了深刻影響,經濟管理、哲學法學、計算機等多學科、多領域的研究學者對此進行交叉研究,對于進行算法規則與算法治理的必要性達成共識,各方也具體提出了相關的合理性建議與治理策略,大致可概括劃分為算法技術本身的完善、國家法律層面的規制問責、企業層面的社會責任履行以及社會生態各主體的共同治理。
基于從主體維度對算法異化的歸因,可見弱人工智能時代下的AI 算法仍不能被給予完全的依賴和信任[45]。美國電氣和電子工程師協會(IEEE)亦提倡將倫理原則優先考慮進人工智能研發過程當中。總體上,在算法設計時考慮倫理原則有助于使價值理性歸位、約束與限制膨脹的效率理性。謝洪明等[46]在總結人工智能領域倫理沖突時指出,AI 設計的倫理原則應把人類利益、責任、透明性、教育與意識等納入其中。劉新生等[47]認為在人工智能運用領域對企業使用“軟法”,即道德規制,具有必要性與可行性。針對特定的異化問題亦有對應策略,如針對飽受關注且具有范疇化歧視“基因”的算法歧視問題可引入歧視指數(discrimination index)、基于權力角度的維護與數據權力對等的用戶權利等。另外,透明度不等于可見度[48],針對算法“黑箱”效應,學術界亦呼吁對可解釋的人工智能(eXplainable AI,XAI)技術的研究,即可以在一定程度上向適用對象解釋算法運行過程以及輸出結果合理性的技術[49],例如事前基于算法模型進行算法透明化設計和可解釋性說明[50];或事后對因精確度而需犧牲透明性時進行額外的復雜模型結果解釋[51]。算法在社會生活中的廣泛運用,在影響用戶們的認知和行為的同時也在不斷重塑社會中的各類關系,逐步形成了算法權力,權力需要正確的價值觀引導和約束,要提高主流價值觀的引導力和全民的算法素養,進而加強算法的價值理性設計。
算法的崛起對人類的知情權、自主決策權、個人信息隱私權、平等權等方面發起了挑戰,算法的價值非中立性也使其具備法律的可規制性,各個國家和地區在不斷發展人工智能、部署相關戰略的同時亦對其引發的相關問題提高重視,目前已有不少相關法律條約被提出與實施(見表2)。例如,歐盟在《通用數據保護條例(GDRP)》中對人賦予可在自動化決策對其造成重大影響時不予接受的權力,對算法主體增加了對程序設計等信息披露的義務[52];中國的《信息安全技術個人信息安全規范》第7 條中體現算法的透明化原則。

表2 全球部分國家和地區AI 算法相關部署與法律條約
對于強化相關法律法規的算法進一步完善方面,丁曉東[13]認為在強化傳統的算法公開、個人數據賦權、反算法歧視的法治相關措施下,需要進一步考慮算法的場景性,在場景化規制原則的指導下進行制度建構;張紹衣[53]在詳細分析各國已有算法問責制度的基礎上進行反思,建議應當完善算法價值目標體系,并且明晰算法解釋的限度與義務邊界,在認責時分階段認定從而有效規制;宋喆等[54]通過梳理歐美國家現行的數據治理思路與模式來探索數據治理及人工智能的應用邊界。相關部署和法律條例的制定體現了近年來越來越多的國家和地區重視AI 算法,在此基礎上,制定算法治理準則不失為加強算法治理和規制的有效途徑。
有學者認為在企業市場場域下的算法異化可回到企業層面進行規制,平臺算法的價值傾向在一定程度上映射了平臺企業的主觀意圖,對平臺算法異化的治理可從其背后的“操盤手”著手,針對現有負面問題與潛在隱患豐富時代背景下企業的社會責任內涵,并督促企業履責擔責[55]。肖紅軍[56]強調企業社會責任范式的超越,提出應當構建負責任的平臺算法,樹立科學的責任觀、內生出履責的動力意愿并增強社會責任的實踐能力,將社會責任根植模式與議題嵌入模式進行高階耦合與綜合運用[3]。同樣,深耕平臺經濟領域的陳勁等[10]學者將平臺企業的社會責任與算法治理相結合,闡述了企業社會責任治理視角下算法技術異化的內在邏輯,在制度場域內提出治理策略,如對算法技術研發團隊進行責任型創新制度的設計、構建算法責任披露制度。肖紅軍[57]結合治理要素和治理機制構建了算法責任的全景畫像和算法責任綜合治理的九宮格模型,提出了適配不同場景的算法治理方式。除此之外,近來同樣獲得關注度極高的零工經濟也因算法技術異化引發了一系列的負面社會現象,裴嘉良等[58]在此研究領域進行深入研究,從零工工作者的感知視角出發,基于扎根理論與實證研究構建三維度(規范指導、追蹤評估、行為約束)分析框架,測量出了零工工作者對算法控制的感知,并且強調在以算法提升組織效率時亦不能忽視對個體心理與行為的關懷。企業作為算法的操盤手、算法的實際控制者甚至是設計者,加強社會責任意識、夯實責任基礎、強化責任擔當是構建正確的算法價值理性、加強算法人性化的重要手段。
算法異化并不僅僅與企業相關聯,其引發的社會問題嵌套在結構更復雜的廣泛社會生態背景之下,目前由于技術鴻溝等原因,各相關主體尚未凝聚成治理合力。浮婷[59]研究得出基于影響性、正當性、緊迫性被鎖定的開發者、應用者、用戶、監管者為4 類與算法較高水平關聯的利益相關者,但廣大的公眾群體由于算法本身高度的復雜化、非透明化以及商業的保密性等對此知之甚少,與算法存在較大的知識距離,即使算法造成侵權也難以及時發覺并有效抵制。同時,作為監管者的政府部門也會因技術發展過快而存在技術鴻溝,如審查監管手段等滯后于日新月異的技術更迭[46];提高各小主體的認知水平、增強抗風險能力,例如通過各類途徑提高用戶對算法的感知,促進自下而上的算法治理模式的實現[60],又如從算法理念更新、規制提前、去污名化、良好用戶環境4 個方面構建算法決策的社會信任機制[61],在此基礎上謀求更廣泛層面的算法治理共識,凝聚治理力量。平臺生態圈可以小范圍發展成為算法治理單位,平臺企業通過履責價值導向與賦能支持推動,從自我履責延伸至平臺生態圈內成員盡責[3];也可政府牽頭,建立數據監管機構和數據審查與問責機制,強化商業搜索引擎與政府數據開放平臺的合作等[62];程雪軍等[63]更是提出要從政府規制的單元規制向企業自治、社會監督和政府治理的多元共治轉變,構建更大范圍的多元共治格局。
人工智能技術在為人類社會帶來了眾多不可思議的顛覆式創新與跨越式效率提高的同時,亦伴隨算法技術異化引發了一系列負面社會問題,因此對算法技術異化進行梳理總結有助于推動創新技術的良性發展與應用。本研究按照“內涵特征—異化歸因—算法治理”的思維邏輯框架總結概括了目前相關研究的主題領域,對2013—2022 年間252 篇國內外相關文獻的發表時間和主要內容進行分析和編碼統計,發現算法異化的概念內涵、歸因解釋和規制治理3 個主題的研究保持增長趨勢,同時根據各國和地區關于人工智能和網絡安全的相關部署和條約,發現2017 年可以作為算法技術異化研究內容重心轉變和相關研究大幅增加的節點,進而從平臺經濟、零工經濟等多方面列舉出如算法歧視、算法合謀等侵害相關者利益、破壞經濟秩序、社會穩定的算法失當問題,并基于算法異化的技術屬性與社會屬性,從主體維度與交互維度兩個大方面梳理目前學術界對于算法異化的歸因與理論解釋,包括社會范疇化、算法“黑箱”效應、非人性化、敏感屬性挖掘,以及數據的社會性、操作的干預性、應用的利益化等等,最后綜合多學科的交叉研究重點介紹了4 個方面的治理策略,分別是算法本體的完善、法律層面的規制、企業層面的履責盡責以及希望形成多元生態主體共同參與的治理合力。由此,總結得出算法技術異化的整體研究框架,如圖4 所示。

圖4 AI 算法技術異化的整體研究框架
基于以上結論,未來研究方向可從以下3 個重點方向展開:
一是基于社會性規劃算法價值嵌入原則,推動技術從非中立升級轉向技術向善。目前學界對“技術價值中立”觀點的否認已達成一定共識,比如Friedman 等[64]、Martin[41]、樸毅等[42]的研究,甚至在資本逐利“基因”的驅動下有轉向“技術惡德”的趨勢與隱患。通過技術價值嵌入完善算法技術在社會生態中的適應性是實現“技術向善”的本質之措,然而,算法工程師更多精于算法編程完成目標任務,對具體價值嵌入的原則與路徑不甚清楚。在經濟管理領域,學者可結合算法實踐與理論邏輯提出具體的算法價值嵌入原則、要求、可行路徑以及人工智能人類關切(human-centric)等,為算法研究者與工作者提供社會性向導,推動技術從非中立升級轉向技術向善。此外,在考慮人工智能倫理問題時,對于不同原因導致的倫理問題如何進行有效的針對治理同樣值得關注,例如算法數據依賴導致的歧視問題和知情同意制度下的數據隱私風險問題等等。
二是遵循“問責—免責—擔責”路徑,實現算法企業責任范式的進階。算法技術的非中立使得算法規制有存在的必要性,算法“黑箱”的存在則強調確立算法責任范式的重要性。“黑箱”的存在為算法設計者與使用者提供了卸責推責的理由,當企業感知到“卸責鏈條”的存在并利用其模糊責任主體[65],算法治理就會陷入問責難題。因此,算法相關問責制(accountability)開始引起重視。認可在相關負面社會影響中算法具有一定份額的責任認定與分配,應在事前、事中、事后確認主體責任事項,明確義務承擔主體,構建高效問責體系,但同時需要注意把握好責任邊界、道德限度,對于已較好自覺盡責的企業實體,在有關責任認定時考慮其實際責任份額予以一定理解,避免“一刀切”的強責任挫傷企業技術創新的活力。此外,在構建問責與免責制度之時,在企業社會責任的制度場域下如何最大程度撬動企業自覺擔責、由內激發意愿與動力,并通過平臺企業等核心載體在其經營發展的生態圈中輻射算法履責價值導向,是實現算法企業責任范式進階的深入話題。
三是合力治理,制定多視角、多主體的系統治理策略。由于算法異化涉及技術、制度、文化、倫理等多領域,其異化的負面影響滲透消費者、用戶、設計開發者、企業、政府等多利益主體,制定算法設計者、執行者和監督者等多視角、多主體的系統治理策略,搭建“攥指成拳”而非“九龍治水”的多元生態治理體系成為兼具挑戰性與價值意義的議題。法律層面的規制可為平臺經濟、數字政府等劃定合法邊界,例如加強互聯網平臺分級治理、完善算法分級規制、健全平臺數據的合規治理和算法治理體系的構建等等;企業層面社會責任視野可督促形成責任型數智企業,以及促進廣大公眾跨越“技術鴻溝”,增進了解相關知識內容、樹立算法意識可提高大眾參與的監督與治理力量等等。如何從宏觀層面統籌以及在更微觀層面落地系統的治理策略、形成治理合力,是未來需要多方為之共同努力、進一步探索的方向。