魯斯齊
(復旦大學法學院,上海市 200438)
自生成式人工智能問世以來,全球掀起了人工智能賽道的競爭。有機構預測,大模型將深入各行各業,每年可為全球經濟創造2.6 萬億到4.4萬億美元的價值。[1]各國政府及超政府組織正積極采取行動,在平衡人工智能人權保護風險、國家安全風險、人類存續風險的同時,搶抓其帶來的產業升級機遇,爭奪在全球數據規則與標準制定中的領先地位。2023年6月,歐盟針對通用人工智能增設《人工智能責任指令》(AI Liability Directive)、《人工智能法》(AI Act)等以風險預防和責任追究為主要內容的監管標準,以此落實人工智能企業責任。這些監管標準采用了與數據監管和個人信息保護相似的監管思路,試圖通過采取以強制性立法為核心的自上而下監管規則輸出競爭戰略,贏得全球競爭。
與此同時,美國開始實施自下而上以自愿性承諾為核心的市場規則輸出競爭戰略,企圖以企業作為切入點,鼓勵企業自愿承擔社會責任,堅持行業最高標準,通過美國人工智能頭部企業及其在人工智能底層技術和科技創新生態系統中的影響力輻射全球其他參與方。2023 年5 月、7 月、9月,美國分三輪召集多家處于人工智能創新前沿的人工智能企業①,并獲得了這些企業的自愿承諾。這些公司認為,企業應承擔社會責任,致力于負責任的人工智能,遵循安全、有保障、可信任三原則。
反觀我國,目前的監管主要聚焦于自上而下的競爭戰略布局,試圖通過模仿和超越歐盟《通用數據保護條例》(General Data Protection Regulation,GDPR),以更嚴格的監管來產生中國規則和標準,實現對歐盟模式的取代[2]。受市場規模限制,單憑以他國跨國企業為主要傳播途徑的歐盟模式難以產生理想效果。相反,利用我國算法企業和數據市場綜合優勢,通過企業社會責任進行協同治理,能促使自下而上的市場驅動戰略與自上而下的監管驅動戰略形成互補關系,共同引領負責任的人工智能向前發展。不過,在制度設計上,盡管2023 年7 月10 日國家互聯網信息辦公室等七部門發布的《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》)要求對生成式人工智能服務實行包容審慎和分類分級監管,其他政策文件也多次倡導企業承擔社會責任、參與敏捷共治,但目前法學界關于人工智能治理的研究主要基于自上而下的監管治理視角,鮮有研究基于企業治理視角對生成式人工智能為何以及如何承擔社會責任進行探討。
如何發展負責任的人工智能已經成為全世界共同關心的議題,生成式人工智能企業社會責任治理在當今時代具有重要意義。本文從企業角度出發,深入探討生成式人工智能企業承擔社會責任的現實需求、理論基礎和制度建設的體系化路徑,在理論層面為大模型技術爆發以來的人工智能治理提供新的理論邏輯,在實踐層面為全面構建落實人工智能企業社會責任治理制度提供體系化方向和路徑。
算法的不可解釋性讓人工智能技術成為影響人類的算法黑箱,超越了人類現有的知識范圍。這種不可解釋性主要意味著兩個方面的不確定性風險:一是技術本身帶來的不確定性風險;二是相關產品與應用創新爆發、功能交叉、場景分散帶來的人工智能產業的不確定性風險。這些均會導致治理對象、治理環境、治理目標的不斷變化,需要對生成式人工智能治理方案進行不斷調整。然而,算法黑箱內外的信息不對稱會導致監管者和被監管者共同無知。共同無知意味著監管者和被監管者均難以準確把握算法技術創新應用過程中可能出現的風險以及引發風險的原因[3],會導致技術風險泛化與制度供給不足之間的緊張關系。這具體表現為以下兩對矛盾:
1.利益訴求多元性與制度供給有限性之間的矛盾
2022 年11 月30 日ChatGPT②問世后,巨大的產業升級機遇和違法風險同時涌現。《暫行辦法》提出,國家要堅持發展與安全并重、促進創新與依法治理相結合的原則。自此,效率和安全成為我國人工智能治理新一階段的目標。在追求效率和安全雙目標的情況下,技術治理的制度供給要考慮多維需求:既要滿足企業增加利潤和創新試錯的需求,又要滿足公眾對隱私保護、安全保障、平等對待的需求;既要防止專有制度過于嚴格,限制先進技術與知識傳播,阻礙行業內差異化技術能力發展,形成專有性陷阱,又要防止專有制度過于寬松,放任風險在不同主體間傳播,甚至形成系統性風險。
然而,我國監管能力和監管資源有限,多元目標與制度供給之間關系緊張,導致我國企業社會責任制度供給出現市場化傾向。也就是說,我國在人工智能研發、運營過程中主要采用基于商業自利邏輯的制度供給方案,沒有建立負責任的研究與創新制度體系。比如,外賣平臺采用以純粹商業利益為導向的算法規則,通過犧牲外賣騎手的安全不斷縮短最佳送餐時間,這種缺乏社會責任的效率評價機制已經構成對利益相關者合法權益的侵犯。再如,在2021 年的人工智能軟件使用明星形象創設虛擬人物構成侵犯人格權案中,某款智能手機記賬軟件利用算法鼓勵用戶上傳相關圖文,通過侵害他人人格權實現軟件核心功能[4]。
2.風險動態流動性與硬法僵化性之間的矛盾
目前我國的法律制度供給主要由硬法構成。生成式人工智能爆發以來,傳統場景下的產品和應用紛紛接入應用程序編程接口(Application Programming Interface,API),“生成式大模型+辨識型小模型”的商業模式使數據安全風險和算法安全風險動態流動于人工智能產業鏈各個環節和各類主體。面對技術風險的不斷變化,以封閉性、單向度、強制性為基本特征的硬法范式難以有效防范風險擴大,難以及時回應社會訴求。風險動態流動性與硬法僵化性之間的矛盾主要有三個方面的表現。一是調整時間上的滯后性。一方面,隨著技術的發展,人與生成式人工智能的關系不斷變化,對此硬法很難予以及時回應,會使新的社會現象面臨于法無據的境地;另一方面,正式制度制定程序復雜,新舊法之間轉換成本高,制度調整經常滯后。二是調整范圍上的有限性。以國家強制力為保障的硬法并非適用于所有的社會關系和風險類型,完全依靠硬法規范不僅會導致法治資源緊張,而且會壓縮社會創新空間。三是調整方式缺乏靈活性。追求普遍性、整體性的硬法規范難以兼顧特殊時空條件下的公平正義。
生成式人工智能企業以數據采集為基礎,控制人們對世界的感知和數字身份的產生,直接影響算法的設計,以算法運行為主要工具,直接作為行為規范影響人類的行為。在人工智能時代,數據和算法已然成為新的權力生產要素。數據權力和算法權力既具有建構數字社會關系、維護數字空間秩序的重要功能,也存在權力擴張和濫用的風險。傳統互聯網平臺頭部企業基于雄厚的資金實力、科技實力以及原有應用場景下積累的海量用戶數據,率先完成智能化轉型,成為人工智能頭部企業。人工智能頭部企業,一方面,可基于自身在數據和算法方面所擁有的獨特技術優勢,內生出部分權力;另一方面,可通過為國家治理提供技術輔助而外獲部分權力,成為新的權力中心。若責任革新不能匹配權力流動,內生權力與外源權力加持下的人工智能企業很容易對社會產生侵害。
1.內生權力加持下企業對私人利益的侵害
內生權力加持下企業對私人利益的侵害主要表現為企業在資本邏輯下利用算法優勢對利益相關者剩余價值的壓榨、對用戶意思自治空間的侵犯。前者具體表現為“產消合一”背景下用戶無酬勞動產生的數字剩余價值和零工經濟下眾包勞動產生的數字剩余價值。在資本權力算法化的推動下,由數據和算法構成的數字資本形成了數字壁壘,促進了對用戶和勞動者的進一步剝奪。后者具體表現為數據收集過程中的霸王格式條款、服務使用過程中的差異化定價、以用戶畫像和算法推薦為基礎的消費引導、侵犯消費者福利的算法合謀等。當人工智能應用成為日常生活所必需的基礎設施時,用戶只能通過犧牲自治空間來防止自己被數字社會拋棄。
2.外源權力加持下企業對公共利益的侵害
隨著人工智能向各領域深度滲透,政府在治理過程中也開始運用大數據技術和算法決策系統對社會進行精準監管,以提高公權力運行效率。比如,在新冠疫情防控期間,各地政府委托微信平臺和支付寶平臺開發健康碼應用程序,通過手機收集陽性患者行蹤軌跡并實現精準定位。此外,公權力在借助人工智能企業提升行政效率的同時,也與企業分享傳統上僅由國家和政府專享的公權力。比如,政府在利用企業開發的智能平臺處理政務時,后臺產生的大量數據也會被企業俘獲。然而,需要注意的是,少數掌握外獲權力的人工智能企業可能會利用數據和算法方面的優勢,在資本邏輯驅動下對國家治理和社會管理的過程進行干預和操縱。比如,劍橋分析(Cambridge Analytica)公司就曾利用臉書(Facebook)③泄露的5 000 萬條用戶信息,通過人工智能分析技術預測用戶政治傾向,并基于此精準投放政治廣告,最終對2016 年美國總統大選產生了影響[5]。目前,我國人工智能與政府合作方面的法律尚不完善,責任監督程序和鏈條尚未完全建立,因此極有可能產生侵害公共利益的事件。
企業缺乏社會責任導致社會不僅要面臨技術本身帶來的風險,而且要面臨技術風險溢出帶來的社會性風險。企業社會責任缺失下的風險外溢有以下兩個方面的表現。
1.自主決策能力受損下互動系統的失調
隨著生成式人工智能技術的崛起,算法權力和數據權力對人的主體性構成嚴重威脅。人與技術互動時,人的認知功能、判斷功能等會逐漸弱化,人的地位會逐漸邊緣化,這在較大程度上受自動化算法決策結果制約。比如,通過搜索引擎的競價排名操縱人類決策,通過新聞媒體平臺的虛假新聞推送污染人類知識來源。算法權力和數據權力對人類認知和判斷能力的影響,會從根本上侵蝕人類自主決策能力,甚至對人類主體性構成潛在威脅,弱化人與技術互動過程中人類的支配力。
2.新興技術濫用下社會秩序的失范
企業具有天然的逐利性。在缺乏社會責任引導的情況下,很多企業秉持利益最大化原則,在制度灰色地帶,通過算法開發、設計、部署與應用實施商業營利行為,引發新型社會風險。這具體表現為算法系統對勞動者剩余價值的壓榨、人工智能機器對人類員工的替代、自動化決策對用戶意思自治空間的侵犯、人工智能生成內容對未成年人意識行為的塑造等。比如,2017 年,美國盧卡(Luka)公司開發了聊天機器人雷普利卡(Replika),但受商業利益驅動未設年齡驗證機制,非法收集處理個人數據,對未成年人保護造成了實質危害;2019 年陌陌公司推出的ZAO 換臉軟件應用深度偽造技術,在商業邏輯下強制收集用戶人臉數據,且未對用戶敏感信息進行有效保護,助長了侵犯人格權、詐騙勒索等違法犯罪行為;2016 年美國總統大選期間,推特(Twitter)利用水軍機器人模仿人類寫作、發帖、討論、轉發,傳播虛假新聞和煽動性信息,吸引點擊流量,干擾了民眾大選投票和正常政治秩序。
面對社會責任缺失下生成式人工智能帶來的失位、失衡、失調的治理風險,有必要在一定的制度場域內打造一個公共治理場域,由各類社會責任治理主體共同實施相應的企業社會責任治理機制,規制、規范、影響企業社會責任認知理念和管理實踐,進而有效約束企業機會主義行為[6]。根據企業社會契約理論,企業應對為自身生存提供條件的社會承擔責任,社會應對企業發展承擔責任。由于每個與企業訂立顯性或隱性契約的利益相關者都會以某種形式為企業發展提供某種資源,所以企業應承擔社會責任以滿足各利益相關方的利益。在傳統社會,物質資本所有者、人力資本所有者、債權人等利益相關者之間進行土地、勞動、資本、技術等生產要素的交換。在數字經濟時代,數據成為新型生產要素,數據所有者、技術開發商、技術服務提供者等利益相關者加入價值鏈,與企業形成新的契約。2020 年3 月30 日發布的《中共中央國務院關于構建更加完善的要素市場化配置體制機制的意見》提出,要加快培育數據要素市場。人工智能企業與國家、社會、公民簽訂的社會契約可作為企業承擔社會責任和回應公共利益訴求的基礎。
科斯(Coase)[7]認為,合法權利的初始界定決定著資源配置的有效性和資源配置過程中的交易成本。也就是說,制度是決定交易成本的關鍵。國家通過法律規范、相關政策等正式制度安排為人工智能企業提供充分的發展空間,允許人工智能企業享有一部分技術權力,人工智能企業通過技術置換權力形成新的權力中心[8]。因此,人工智能企業作為顯性契約的簽約對手方,要履行應盡的社會責任。也就是說,企業組織通過與國家達成契約合意而獲得合法性。
1.基于法律契約的社會責任依據
為推動人工智能產業發展,國家通過以公權力保障的正式制度為企業發展保駕護航。企業作為法律契約的對手方,理應承擔相應的社會責任。
第一,數據是人工智能應用的基礎。為推動人工智能產業發展,國家通過法律制度安排將公民通過讓渡數據換取便利服務的非正式社會契約,轉化成國家公權力支持的正式社會契約(即法律契約),降低企業獲取和利用數據的交易成本,人工智能企業作為正式社會契約的當事人應履行應盡的社會責任。目前,我國已經出臺多項規范性政策文件,對數據產權、交易流通、收益分配、安全治理等數據市場化體系進行規定,鼓勵企業在合法合規的前提下充分利用數據資產。比如,2022 年12 月印發的《中共中央國務院關于構建數據基礎制度更好發揮數據要素作用的意見》要求,推動建立企業數據確權授權機制,建立健全個人信息數據確權授權機制,建立健全數據要素各參與方合法權益保護制度,尊重數據采集、加工等數據處理者的勞動和其他要素貢獻,充分保障數據處理者使用數據和獲得收益的權利;2021 年9 月1 日起施行的《廣東省數字經濟促進條例》、2022 年1 月1 日起施行的《深圳經濟特區數據條例》和《上海市數據條例》、2023 年1 月1 日起施行的《四川省數據條例》均規定,自然人、法人和非法人組織對其以合法方式獲取的數據,以及通過合法處理數據而產出的數據產品和服務依法享有相關權益。再比如,《暫行辦法》指出,對生成式人工智能服務實行包容審慎和分類分級監管,推動公共數據分類分級有序開放,擴展高質量的公共訓練數據資源。相對于2023 年4 月11 日國家互聯網信息辦公室公布的征求意見稿,《暫行辦法》明顯放寬了對生成內容以及訓練數據真實性、準確性、可靠性的要求,體現了立法者對現實技術的包容,減輕了服務提供者在生成內容上的責任。
第二,算法是人工智能發展的引擎。為促進人工智能創新,我國積極為算法研發提供創新空間,并對其生成內容進行保護。在研發環節,考慮到人工智能技術創新需要試錯空間,若企業僅在內部研發或應用人工智能技術而不對外提供服務,則不受《暫行辦法》監管。在尚未立法明確規定人工智能生成內容受知識產權法保護的情況下,考慮到企業為研發大模型所付出的高額成本,我國司法實務界仍為通過法律保護生成內容留出了空間。在北京菲林律師事務所訴百度百家號著作權侵權案中,法院雖然認為只有自然人創作完成的獨創性作品才可獲得版權保護,并因此否定了人工智能直接且獨立生成作品的版權保護可能性,但同時也指出可以通過競爭法等方式對人工智能生成內容的相關權益(如競爭性權益)進行保護[9]。此外,2020 年新修正的《中華人民共和國著作權法》通過兜底條款的開放式作品認定方式,為人工智能技術發展催生的新客體預留制度空間。
2.基于政策契約的社會責任依據
國家通過政策性制度安排為人工智能產業發展提供資源支持。其一,在宏觀戰略層面,國家對人工智能產業進行倡導。2015 年7 月1 日發布的《國務院關于積極推進“互聯網+”行動的指導意見》將“互聯網+”人工智能列為11 項重點行動之一,首次提出要培育發展人工智能新興產業。“十三五”規劃綱要、“十四五”規劃綱要將人工智能作為重點新興領域。此后,科學技術部、教育部、工業和信息化部等按照黨中央指示,持續對人工智能領域進行戰略部署。其二,在中觀法治層面,國家通過《暫行辦法》中的原則性條款和具體規定,對生成式人工智能產業進行政策鼓勵和法律支持。《暫行辦法》從生成式人工智能服務的技術研發、基礎設施建設、市場參與、資源投入、產業扶持等方面提出了多元化、多層次的鼓勵方案。其三,在微觀實踐層面,國家通過試驗區、先導區等對人工智能產業進行創新支持和沙盒監管。2020 年9 月29 日科學技術部印發的《國家新一代人工智能創新發展試驗區建設工作指引(修訂版)》提出,到2023年,布局建設20 個左右試驗區。截至2021 年12月,我國已經建立了17 個國家新一代人工智能創新發展試驗區[10]。2022 年以來,各地陸續出臺相關政策,推動人工智能產業落地發展。比如,2022 年9 月5 日,深圳市人民代表大會常務委員會公布《深圳經濟特區人工智能產業促進條例》;2023 年5 月30 日,北京市人民政府發布《北京市加快建設具有全球影響力的人工智能創新策源地實施方案(2023—2025 年)》和《北京市促進通用人工智能創新發展的若干措施》;2023 年5 月30 日,上海市發展和改革委員會發布《上海市加大力度支持民間投資發展若干政策措施》,支持民營企業廣泛參與數據、算力等人工智能基礎設施建設。基于以上國家為人工智能產業發展提供的支持,人工智能企業作為政策契約的當事人理應履行應盡的社會責任。
在顯性契約之外,還有部分無法通過正式制度安排或者正式制度安排成本極高的隱性契約。這種隱性契約由社會中各利益相關方的共同意識、習慣、內部規則、社會性交換、對未來的期待等交織組成,往往會涉及道德倫理和公序良俗。也就是說,企業組織通過與社會達成隱性契約合意而獲得合理性。在人工智能時代,隱性契約主要基于人類命運共同體的科技倫理共識和人工智能企業與社會之間的共生共創共識。
1.基于倫理契約的社會責任依據
人權是人類社會文明的準則,是國家合法性的標準,是我國憲法與國際法律條約的基石,由此人權就成為人工智能倫理準則的倫理底線,成為事關人類命運與未來的核心價值準則[11]。以人權法則為基礎的人工智能倫理準則,是一種普遍主義的價值觀念。以不損害人類利益、不取代人類為前提發展人工智能,應該成為企業和社會的共同倫理準則。ChatGPT 的自主學習能力和規律總結能力預示了通用型人工智能的發展趨勢,人工智能已經開始挑戰人類作為獨立個體的自主性、自由意志和自我決定能力。面對人工智能的躍遷式發展,各國正積極開展以人權和倫理為進路的應對辦法。2016年,英國發布《機器人技術和人工智能》(Robotics and Artificial Intelligence)報告。2018 年,法國公布《法國人工智能發展戰略》(French Intelligence Artificielle)。2019 年,美國簽署《美國人工智能倡議》(American Artificial Intelligence Initiative)。2023 年,我國提出《全球人工智能治理倡議》。該倡議提出,發展人工智能應堅持倫理先行,明確人工智能相關主體的責任和權力邊界,充分尊重并保障各群體合法權益;應堅持以人為本理念,以增進人類共同福祉為目標。至此,以人類命運共同體為關鍵、以人權準則為核心的科技倫理共識,已經成為企業與社會之間倫理契約的重要內容。
在人類命運共同體的科技倫理下,人工智能企業在發展過程中依然會不可避免地犧牲一部分利益相關者的利益。比如,人工智能企業會在服務過程中向用戶提出無法拒絕的數據收集“霸王條款”;外賣平臺會通過算法控制騎手的工作時間和工作方式。但為推動人工智能發展創新,各國對此基本都采取了包容性的監管策略。因此,人工智能企業更應以不斷改善人類福祉為己任,彌補自身在發展過程中對人權的侵犯。
2.基于信任契約的社會責任依據
人工智能企業之間已形成相互依存、損害連帶的共生關系,共生共創共識成為企業之間的隱性契約。基于商業信任契約,生成式人工智能企業與作為其利益相關者的上下游供應商要相互承擔社會責任。
在“生成式大模型+辨識型小模型”的商業生態圈中,企業可以通過選取不同的業務活動并在其中扮演特定角色,與生態圈中的其他主體進行交易,而由此可以衍生出很多不同的商業模式。在數據共享、算法開源的大環境下,生態圈里的企業之間形成了一榮俱榮一損俱損的共生關系。數據一旦受到污染,相關損失將由生態圈成員共同承擔。數據污染包括非人工智能生成內容帶來的污染和人工智能生成內容帶來的污染。其中,前者是指,當包含大量偏見和歧視性內容以及侵犯名譽和隱私等的數據使用不當或者存在人為故意“數據投毒”時,大模型訓練會導致某些刻板印象被進一步強化或者得出錯誤結論;后者是指,當人工智能生成內容被作為語料訓練大模型時,會產生“遞歸的詛咒”[12],導致模型崩潰④和災難性遺忘⑤現象的發生。而這兩種現象不僅會在利用本體生成數據進行大模型訓練時產生,而且會受其他模型生成數據影響。可見,只有所有人工智能大模型企業都給生成內容做好標記,才能防止數據污染,否則就會出現文本多樣性喪失、內容準確性下降、模型微調效果受損等后果。這種共生關系形成了企業之間的商業信任契約,企業應對作為其利益相關者的上下游供應商承擔社會責任。
ChatGPT 問世后,巨大的產業升級機遇和違法風險同時涌現。對此,我國一方面要抓住產業升級良機,在全球人工智能競爭中占據優勢地位;另一方面要進行有效監管,防范未知風險。在傳統科技治理方案失靈之際,2019 年6 月17日,國家新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》,要求人工智能發展相關各方遵循敏捷治理、開放協作原則,以更好協調發展與治理的關系,共建人類命運共同體。因此,企業應以高度的社會責任感和自律意識共同承擔法律責任和倫理責任。
在傳統社會中,政府作為公民權的唯一擔保人,為保護個人公民權、社會權、政治權等權利提供相應的福利和制度保障。然而,人工智能技術躍遷背景下,政府在監管資源和監管信息方面均處于弱勢地位。政府傳統職能的局部失靈使之喪失了公民權唯一擔保人的地位。在此情況下,企業公民理論認為,擁有更多監管資源、監管信息、監管能力的企業有必要輔助國家進行公民權的補充管理,特別是在政府管理缺失和管理乏力的領域承擔相應的社會責任[13]。因此,企業應在敏捷共治框架下主動承擔社會責任,通過多方共治和動態溝通應對政府治理失靈帶來的挑戰。
1.監管能力匱乏下政府對企業自我監督的需求
隨著生成式人工智能技術不斷發展,其對社會結構的滲透度、風險在不同主體間的傳播度、多重風險疊加后的復雜度日益上升。這意味著,在監管方案上,政府不僅要兼顧具有張力的多元目標,而且要結合現有條件和未來演化趨勢進行綜合判斷。然而,面對人工智能技術的破壞式創新,政府監管和治理經驗不足,無法全面有效地識別和防范風險。在政府管理缺失和管理乏力的領域,企業理應在政府失靈時承擔起對企業公民權的補充管理責任。
企業作為人工智能技術的開發者、運營者、使用者,不僅擁有技術發展的第一手資料,而且與用戶直接對接,比政府更具備治理優勢。企業可利用技術優勢和專業知識進行自我監督管理,主動彌補市場機制缺陷,從源頭上識別和防范風險。《暫行辦法》第五條明確規定,支持企業及科研專業機構等在生成式人工智能技術創新、數據資源建設、轉化應用、風險防范等方面開展協作。2023 年7 月,美國開放人工智能研究中心(OpenAI)宣布,將在接下來的四年里將20%的算力資源用于人工智能監督模型研發,促使人工智能與人類實現價值相匹配,確保人工智能安全[14]。
2.監管信息匱乏下政府對企業主動反饋的需求
生成式人工智能技術發展時間短,更新快。面對新業態,受技術信息不對稱影響,政府監管方案的出臺往往滯后于人工智能企業的發展變化。人工智能具有自我學習和不斷變化的特征,其性能和行為即使在監管機構進行評估和監管的過程中,也可能發生變化。算法演化過程的動態性、應用方式的多樣性使以特定時間特定事實為評估依據的命令控制型監管模式面臨失靈,監管機構無法及時捕捉監管方案實施效果與動態并采取相應的調整和應對措施。
自我規制者往往比政府更接近被規制對象,更易獲得有關規制效果的反饋信息,且能夠基于內部信息優勢進行治理創新。因此,可以通過授權企業進行自我規制來緩解政府與企業之間的信息不對稱程度,形成動態可調整、靈活可適應的多元主體治理結構。應積極利用企業作為人工智能技術研發者和應用者的信息優勢,充分尊重一線研發人員專業判斷,不斷進行溝通、反饋和規則迭代,以此達到創新與安全的最佳平衡點。
目前,中美歐三足鼎立的全球數字地緣版圖已初現端倪[15]。歐盟形成了以跨境數據傳輸規則為核心、以數據本地化為手段、基于數據優勢的規則輸出策略。美國形成了以巨頭數字企業技術標準為核心、以技術脫鉤化為手段、基于算法優勢的規則輸出策略。隨著中美技術競爭的加劇和美歐戰略合作的加強,鞏固本國數字主權、削弱他國數字主權成為大國競爭的戰略目標。成功進行規則輸出是維護數字主權的重要途徑。以國別為單位的政府管制面臨數字經濟全球化帶來的傳統法律移植失靈問題。在這樣的局面下,企業作為全球公民,能夠通過承擔社會責任突破地域和文化界限,為本國規則超越國界發揮作用提供可能。通過促使企業承擔社會責任,能夠實現國家規則輸出和企業市場擴張的雙贏。一方面,跨國企業可通過標準合同主動規范全球價值鏈上的東道國市場及利益相關者;另一方面,跨國企業可通過在東道國推行內部行為標準,實現公司內部規范的全球傳播。
1.國家對突破布魯塞爾效應與擴張數據主權的需求
在數字空間中,算力、算法、數據是衡量數字技術的核心指標。金晶[2]認為,突破布魯塞爾效應的關鍵在于擴大我國數據市場規模,可通過增加我國貿易機會、擴大我國貿易規模,促使跨國企業優先選擇我國市場,增強我國規則制定權。然而,筆者認為,對我國而言,盡管尚不具備類似歐盟的特殊市場規模,但兼具算法與數據綜合優勢,可利用美國對數據市場的需求和歐洲對美國數字巨頭的忌憚,通過促使企業承擔社會責任實行差異化應對策略。也就是說,我國既可基于國內數字平臺巨頭企業算法優勢,通過美國模式對包括歐盟和發展中經濟體在內的國家和地區進行私人法律移植,也可基于國內海量用戶產生的數據優勢,通過歐盟模式對所有來華科技企業進行監管規則輸出。除單方面采用“基于GDPR、超越GDPR”(更嚴規則)[2]的規則輸出策略外,還可同時采用美國模式的規則輸出策略作為補充。與其被動等待他國跨國企業基于我國市場規模對標我國法律,不如主動通過我國跨國企業的域外經營實現本國規則的域外輸出。這既有助于突破以一國市場規模為前提的布魯塞爾效應,也有助于通過我國跨國企業的域外經營實現我國數據主權的擴張,打造以中國價值觀為核心的全球數字技術生態環境。
2.企業對獲得消費者認可和投資者青睞的需求
對跨國企業本身而言,可通過承擔社會責任獲得消費者認可和投資者青睞,進而實現企業利益和國家利益的雙贏。
第一,獲得消費者認可。在數字社會,負責任的人工智能成為消費者和其他利益相關者關心的首要議題。人工智能企業可以通過在算法可控、數據安全、算力環保等方面積極履行社會責任,樹立良好企業形象,獲得消費者對企業產品和應用的認可和信任。這既能幫助企業獲取“社會經營許可”,在市場上贏得競爭優勢,也能幫助企業獲得更多用戶數據,優化人工智能算法模型,實現可持續發展。此外,在進入域外市場時,積極履行社會責任有助于企業獲得域外消費者的認可和支持,實現雙贏。
第二,獲得投資者青睞。企業的社會責任表現會對市場競爭產生影響。在進入域外市場時,積極履行社會責任有助于企業得到域外消費者認同,進而得到域外投資者垂青。波夫(Boffo)等[16]的研究表明,勇于承擔社會責任的企業更有可能獲得投資者青睞。人工智能產品既改變用戶感知世界的方式,也改變用戶在世界上的行為方式和彼此間的互動方式,甚至對消費者產生一系列負面影響。企業在消費者隱私保護、避免算法歧視、充分解釋算法等方面履行社會責任的表現,會影響消費者選擇,進而影響企業績效和投資者判斷。因此,以較高標準承擔社會責任有助于企業形成競爭優勢,獲得投資者青睞,實現可持續發展。
區別于自上而下的政府監管策略,自下而上的企業社會責任治理強調企業與政府、社會與國家間的互動關系,提倡通過構建軟性規范和激勵措施來引導企業自發形成“逐頂競爭”。在推動生成式人工智能企業承擔社會責任的過程中,從國家層面看,應提倡構建軟法硬法協同治理的綜合網絡;從政企合作層面看,應積極構建企業自我規制與政府監管銜接互動機制;從企業層面看,應優化落實董事會結構和合規管理制度。
企業社會責任多層次內涵與軟法硬法協同治理范式具有天然的吻合性。硬法底線治理回應企業社會責任的最低要求,軟法協同治理回應企業社會責任的向善愿景。在硬法層面,對企業社會責任的監管應做到有法可依、有法必依、執法必嚴、違法必究,將硬法作為底線治理的依據。在軟法層面,對企業社會責任的監管應主要通過社會回應機制來鼓勵和引導企業自愿將社會責任融入自身經營管理核心戰略,以軟法作為協同治理的框架。
1.硬法底線治理落實法律責任
第一,明確生成式人工智能企業社會責任的入法范圍。入法范圍涵蓋法律規則和法律原則。法律規則作為對人工智能企業的底線性義務要求,是推動企業承擔社會責任的關鍵路徑。法律原則作為溝通強制責任與道德倫理的橋梁,可賦予法律規范應對技術躍遷式發展的靈活性,為軟法治理提供法律依據。目前,《中華人民共和國網絡安全法》《中華人民共和國數據安全法》《中華人民共和國個人信息保護法》《關于加強互聯網信息服務算法綜合治理的指導意見》《暫行辦法》等法律法規已對人工智能底層的算法安全、算法備案以及數據權屬、數據保護、數據安全等進行了具體的制度規定,企業社會責任和科技倫理方面的規定大多屬于倡導性法律原則。2023 年5 月31日,國務院辦公廳印發《國務院2023 年度立法工作計劃》,預備提請全國人大常委會審議人工智能法草案,在其后續制定過程中,可進一步聚焦企業科技倫理審查義務、訓練數據合法性判斷標準、自動化決策法律責任分配、人工智能生成內容權屬等方面。
第二,避免人工智能道德倫理的法律化。《暫行辦法》提出,要完善與創新發展相適應的科學監管方式。然而,人工智能道德倫理的法律化會遏制企業的創新發展。因此,在立法過程中應保持對企業行為的謙抑性。比如,《暫行辦法》針對生成式人工智能內容的真實性,謙抑地將禁止生成內容限定為虛假有害信息,而非虛假信息。該規定并沒有將倫理要求上升為法律要求,而是在明確保護社會公共秩序這一底線的同時,保護和支持大模型技術的發展創新。此外,在司法裁判和行政執法過程中,科技向善不能作為行政行為評價、司法裁判和生成式人工智能服務提供者合規的直接依據。對于超越法律責任的內容,應充分尊重企業的營利性特點。如有必要,可通過法律解釋及漏洞補充使科技向善的基本原則得以貫徹,或者通過調整公司內部治理結構和內容來激發企業承擔社會責任的內生動力。
2.軟法協同治理激發倫理責任
第一,推進自愿性團體標準治理。與政府標準相比,團體標準對技術和市場的反應速度更快,制定程序更簡易,覆蓋面更廣。一方面,團體標準能夠補足政府標準的制度空白;另一方面,團體標準之間能夠形成“逐頂競爭”的良好態勢,通過市場機制優勝劣汰,不斷提升標準的質量水平。
第二,積極制定行業自治性契約,使之成為企業社會責任的軟約束。行業組織既可以作為企業社會責任的監督者,又可以作為企業社會責任的倡導者。與指導性標準純粹的指導意義相比,自治性契約實現了行為標準、評價體系與獎懲措施的結合,具有軟約束的效果,能以更靈活的方式彌補公共監管的不足。此外,行業組織處于生產第一線,能以更充分的信息、更及時的手段對國家規范的缺失、薄弱、紊亂進行填補或補強[17]。為發展行業自治力量,政府可在合理范圍內對行業組織進行政策扶持,引導其吸納企業會員,加強國家標準之外的行業標準研究。
第三,以人工智能賦能企業社會責任個性化軟法定制。隨著人工智能的發展,數據收集和利用能力不斷提升,使個性化立法成為可能。可基于對企業以往社會責任支出水平、支出項目以及盈利水平、利益相關方滿意度等因素的數據化分析,構建針對該企業的個性化監管方案,在股東利益、企業利益、社會利益之間尋求最佳平衡,實現精細化立法。借助基于大數據分析的企業畫像,能對企業主體進行更細致的劃分,進而對不同企業應承擔社會責任的輕重進行具體判斷,形成有針對性的個性化監管方案。與“一刀切”的傳統監管方案相比,個性化軟法定制方案可避免一般監管邏輯少數服從多數的弊端,更具科學性、針對性、合理性。
目前,我國對數據、個人信息、算法以及人工智能的規制主要表現為基于行政法規和刑法的威懾性處罰。根據現行法律規定,一般行政處罰的罰款數額遠遠高于刑事處罰的罰金數額,如2022 年7 月21 日國家互聯網信息辦公室就對滴滴公司處以了80.26 億元的巨額罰款[18]。從事前角度看,企業違法違規給市場和社會造成的風險遠超其自身承受能力;從事后角度看,高額的行政處罰意味著更高的事后社會成本⑥,盡管能起到威懾作用,卻無法從源頭上減少企業違法行為,甚至會使罰款成為企業經營成本的一部分。而通過行政合規制度建設,能將外在的監管約束內化成企業內在的治理需求,實現企業自我規制與政府監管規制的有效銜接。行政合規制度不僅能從源頭上糾正企業行為,促使企業探索解決問題的最適宜方案,而且能在一段時間內對企業進行持續性監督,確保企業將合規方案內化于治理架構和日常研發運作。在美國,已經出現了針對人工智能企業的行政合規案例。2022 年,美國司法部要求元(Meta)公司開發能夠消除個性化廣告中算法歧視的治理工具,以此換取和解訴訟[19]。元公司通過開發方差衰減系統(Variance Reduction System),減少廣告投放中基于性別和種族差異的風險,從源頭上規避違法行為帶來的風險。具體而言,企業自我規制與政府監管銜接互動機制的構建可從以下兩個方面入手:
1.明確企業內部監督機構
企業內部監督機構對企業內部生態系統健康運行具有重要作用:一方面,在違規事件發生之前,負責企業內部合規事務的日常運營;另一方面,在違規事件發生之后,負責對接監管機構,按照監管機構要求對企業進行整改。為明確企業中負責內部監督、對接行政合規整改的機構,可結合企業具體情況,搭建以首席合規官為核心的單層結構或者“合規委員會-首席合規官”雙層結構。對于合規管理難度小、業務簡單、合規風險低的企業,可以搭建單層結構。在單層結構中,需要明確首席合規官的高管地位,設立首席合規官與董事會之間的直接溝通渠道。對于合規管理難度大、業務復雜、合規風險高的企業,可以搭建雙層結構。在雙層結構中,合規委員會專門負責協助董事會加強合規管理體系建設,對首席合規官進行指導和監督,化解企業中合規事項與商業事項之間的潛在利益沖突;首席合規官負責執行企業合規計劃中的具體事項。
2.細化行政責任減免激勵措施
目前,我國企業行政合規治理主要由公權力主導。在合規激勵不足的情況下,企業合規很可能演變成僅追求最低合規要求的紙面合規,甚至被作為一項經營成本。因此,有必要構建一套行政合規治理的激勵措施。具體而言,行政合規整改措施的細化可分事前、事后兩個環節展開:其一,在事前環節,應確認有效合規計劃減免企業行政責任的效力,并進一步細化合規計劃的有效性標準。對企業合規計劃有效性的判斷應結合企業自身經濟條件、商業模式等因素進行具體分析。對于建立有效合規計劃的企業,在內部員工違法行為可能引發合規行政責任時,可相應減輕或免除其行政責任。其二,在事后環節,應充分肯定企業在監管機構執法過程中的配合行為,若企業能夠及時有效采取補救措施(如積極修補技術漏洞、懲戒違規違法人員、完善合規管理體系等)防范風險進一步擴大,可通過達成行政和解協議的方式,要求企業限期進行合規整改,對整改后達到行政合規要求的企業終止行政調查。
1.構建多元化董事會結構
第一,在組織結構上,可設立科技倫理委員會,以彌補當前董事會在科技倫理監督資源方面的不足。企業可設立一個由倫理專家、技術專家、法律專家、商業戰略專家組成的人工智能倫理委員會[20]。該委員會獨立于現有職能部門,作為專門委員會參與企業決策。該委員會主要負責以下工作:一是建立內部倫理審查機制,并將之嵌入公司決策。生成式人工智能能夠處理跨域任務,具有良好的通用性和泛化性,偏誤和風險一旦出現,就會彌散蔓延至整個產業鏈條。因此,應將監管介入節點前置,在設計階段嵌入基礎倫理原則,在運營應用階段進行常態化倫理審查,以確保通用模型輸出結果更符合人類價值觀。目前,我國阿里巴巴集團已成立科技倫理治理委員會,引入了七位外部顧問委員,提出了以人為本、普惠正直、安全可靠、隱私保護、可信可控、開放共治六大科技倫理準則[21]。截至2016年,美國董事會中設置技術委員會的企業占比已經達到6%[22]。微軟(Microsoft)、谷歌(Google)、國際商業機器(IBM)、深度思考(DeepMind)、索尼(Sony)等企業均設立了人工智能倫理委員會,主要負責評估人工智能倫理問題,主動制定相關內部政策。二是建立投訴舉報反饋機制。人工智能倫理委員會可作為直達董事會的獨立信息傳遞渠道,受理舉報投訴信息,積極響應用戶訴求,暢通投訴舉報反饋機制。在傳統的經理層結構中,信息可能會被過濾或扭曲,導致問題無法及時得到解決。通過獨立溝通渠道,員工和用戶可直接向董事會反映問題和意見,不必擔心遭受上級不當對待或欺凌。通過獨立于經理層的溝通渠道報告有違科技倫理的行為或潛在風險,有助于監督上級不當行為,加快企業對違法行為的反應速度。
第二,在人員結構上,可要求一定比例或數量具有交叉學科背景的專業人士入駐董事會,以彌補現有董事會成員在科技倫理監督知識方面的不足。2018 年9 月30 日,中國證券監督管理委員會公布修訂的《上市公司治理準則》,其第二十五條提出,應鼓勵董事會成員的多元化。該規定表明,我國以規范性指引的形式鼓勵董事會吸納技術專才,尊重技術專業判斷與決策。科技倫理審查在本質上屬于跨學科實踐,需要整合倫理學、信息科學、心理學、認知科學、人類學等學科知識,共同設計能夠化解科技倫理困境的方案,確保用戶權益最優化。對于人工智能專業董事的任職資格,可由監管部門通過開展人工智能算法考試考察,并在考試通過后對其進行持續性督導,以促使其長期專注于技術監督[23],此外還可通過對其他領域的證書(計算機能力等級證書等)進行選擇性認定來確認其任職資格。
2.完善多層次合規管理制度
合規管理制度作為企業內部系統與社會系統的耦合點,可將外源性規范轉化為內生性規范,將倡導性法律原則和倫理道德轉化為內部控制的自我約束。可通過事前控制,使法律、監管、道德等方面的要求貫穿從底層規劃、設計、獲取、構建、部署、開發到發布、保存、訪問等的人工智能技術完整生命周期,以確保最終獲得適當、合法、道德上可接受的產品。
第一,在組織架構上,設立數據合規官,在企業內部建立覆蓋式連貫一體的監督鏈。建立自上而下、由外到內的“股東大會→董事會→首席合規官→部門經理→崗位負責人→業務執行人”監督鏈,對不良行為實施全過程監管[24]。采用這種自上而下的方法確保全面的監督和責任,使組織能夠識別和糾正任何偏離道德和法律標準的行為。
第二,貫徹全流程管理,將人工智能倫理風險評估與控制貫徹到每一個環節。在產品和服務開發設計環節,基于人工智能治理特點,優化產研集成產品和服務開發流程,在各關鍵階段進行倫理風險和個人信息影響評估,在系統設計之初就將向善需求嵌入其中,使之成為系統運行的默認規則,而非事后補救。科學應用設計者道德想象與擴展的建設性技術評估、預期性技術倫理方法、價值敏感性設計、勸導式設計等多種負責任的算法設計方法[25],貫徹以人為本的設計(Human-Centered Design,HCD),從用戶的需求、興趣、能力出發,通過與人類直接接觸來評估和理解人類,提供易于理解且符合社會價值觀的可用產品和服務[26]。在與第三方客戶互動方面,搭建能與客戶充分交流的“了解你的客戶”(Know-Your-Customer)客戶管理流程,在合同簽訂、產品運維等過程中面向客戶和合作伙伴積極踐行人工智能倫理與合規流程[27]。
負責任的人工智能是全世界的共同追求,生成式人工智能企業社會責任治理在當今時代具有重要意義。為化解人工智能帶來的倫理風險和道德困境,企業和政府要共同承擔人工智能治理責任。在邁向敏捷治理的過程中,企業應切實保持開放協作共治,以高度的社會責任感和自律意識,共同承擔法律責任和倫理責任。通過企業社會責任進行協同治理,能促使自下而上的市場驅動戰略與自上而下的監管驅動戰略形成互補關系,共同引領負責任的人工智能向前發展。如何激勵企業承擔應盡的社會責任,如何激發社會各利益相關方可持續發展的內生動力,事關未來,意義深遠,亟待解決。未來,還要對本土化國情下企業與政府互動共治的具體路徑進行深入探討,進一步厘清企業在敏捷治理中的角色、職能和責任。
注釋:
①先后對美國政府作出自愿承諾的人工智能頭部企業包括谷歌(Google)、人本(Anthropic)、微軟(Microsoft)、開放人工智能研究中心(OpenAI)、亞馬遜(Amazon)、曲變(Inflection)、元(Meta)、奧多比(Adobe)、科希爾(Cohere)、國際商業機器(IBM)、英偉達(Nvidia)、帕蘭提爾(Palantir)、賣力(Salesforce)、規模智能(ScaleAI)、斯泰普力(Stability)等。
②ChatGPT指生成型預訓練變換模型(Chat Generative Pretrained Transformer),是美國開放人工智能研究中心研發的一款人工智能技術驅動的自然語言處理工具,能用于問答、文本摘要生成、機器翻譯、分類、代碼生成和對話等。
③臉書(Facebook)是美國的一家社交媒體公司,2021 年10月正式更名為元。
④模型崩潰現象反映的是一種代際退化過程,模型生成的數據污染下一代模型的訓練集,導致它們誤解現實。
⑤災難性遺忘是指,神經網絡在學習新信息時,可能會忘記之前學過的內容,并導致模型失去其先前的能力。
⑥對公司施加極高的罰款具有實際的后期成本:人們可能失去工作崗位,公司可能被迫破產。