鄒開亮 劉祖兵
摘 要:
數字文明社會孕育著智能算法主體化的現實需要,ChatGPT的問世尤其強化了這種需要。主流觀點對智能算法主體化或限制或否定,其目的在于維護基于康德人類中心主義哲學建立的現代法律制度,但已難以滿足當下社會關系復雜化和多元化的現實要求。現有法律制度剝奪智能算法的責任能力和歧視智能算法,對此,應當建立智能算法責任能力保障制度。因為深度學習能力使智能算法具有認知能力和朦朧的獨立意識,而法律須具備前瞻性,應當將智能算法視為法學領域之延伸和規則外化,構建“增進式”的智能算法法律人格授予機制,實施常規動態管理。主體資格之實質審查當以倫理審查為重點,以“五大原則”為綱領,構建系統化的倫理審查機制,實現道德施治常態化。
關鍵詞:
ChatGPT;智能算法;主體資格;責任能力;增進式;倫理審查
中圖分類號:D923
文獻標識碼:A
文章編號:1673-8268(2023)02-0063-13
本世紀伊始,第三次人工智能(AI)狂潮興起。人工智能技術助力傳統工商業得以實現數字化轉型,亦將諸多新問題擺在立法者面前:人工智能生成物知識產權歸屬亟需明確,智能算法(artificial intelligence algorithm)本體保護路徑尚需厘清,人工智能侵權及刑事責任有待界定……在更深層次上,這些問題均以明確智能算法主體地位為前提。
美國OpenAI公司于2022年11月發布的基于GPT-3.5架構的智能文本撰寫與聊天工具——ChatGPT顯示出越來越強的主體性特征,它的橫空出世將智能算法主體化爭論推向了又一嶄新高度。
目前,學術界多致力于人工智能客體論的研究,并期待智能算法的權利義務分配得以具體化。盡管學術界提出了包括監管審查、信息披露、算法解釋和數據保護等一系列的規制路徑,并試圖為算法利益享有者設定更多義務、為智能算法潛在侵權對象提供更多保護和救濟[1],但是仍無法解決對算法侵權的預防和救濟問題,這制約著智能算法的長足發展。也有一部分學者轉向對主體論的研究,但研究對象多為以智能機器人為代表的智能體。因為智能體的核心是智能算法,我們便有了深入探討智能算法主體資格的現實價值。作為當下社會功能實現所必需的智能化個體,智能算法在整個數字文明進程中所發揮的社會功能之重要性不言而喻,對其法律主體問題的回應也成為解決上述難題的根本前提。因此,有必要借此突破口以深入探索智能算法主體地位的構建,從而促進科學技術向上向善,推動全社會數字化轉型和社會變革。
一、智能算法的一般原理
(一)智能算法的內涵
“算法(algorithm)”一詞最早可追溯到公元805年,阿拉伯數學家阿科瓦里茨米(Al-Khwar-izmi)于其著作《波斯教科書》(Persian Textbook)中首次系統地歸納了四則算數運算,“算法”自此被人類沿用至今。自人工智能阿爾法狗(AlphaGo)戰勝李世石后【Google公司研發的AlphaGo以2∶0的成績戰勝國際圍棋大師李世石。此前,IBM公司研發的深藍計算機在國際象棋大賽中擊敗世界冠軍卡斯帕羅夫,Watson知識問答系統在Jeopardy比賽中戰勝了兩名前世界冠軍?!?,新一輪人工智能熱潮在全球范圍內興起。但是,學術界至今仍未對智能算法達成統一認識。觀點一認為,智能算法是計算機軟件的一種特殊類型,其實質是為解決某個特定問題所采取的一系列步驟[1]。觀點二認為,應該從技術角度將智能算法定義為與計算機算法相區別的用于模擬人類智能的技術方案[2]。觀點三認為,智能算法是使計算機擁有在未被明確編程的情況下學習的能力[3]。歐盟《可信賴人工智能倫理準則》(2019)以法律規范形式明確智能算法是人工智能系統的重要組成部分,人工智能感知、解釋、推理、處理信息、決定最佳方法及數字方面采取措施的過程都是算法作用的過程[4]。前述觀點一保守地認為智能算法是解決特定問題的計算機軟件,是“工具論”的典型代表。觀點二雖然突破“工具論”的桎梏,卻將人工智能定義為“技術方案”,繼而上升至現行法律規范可規制的客體范疇。筆者認為,此方案只是應對社會突發問題的應急手段,并不能從制度上解決智能算法涉及的諸多法律問題。觀點三將智能算法視為學習能力,依舊將其歸入主體的附屬物范疇。歐盟從立法上肯定智能算法作為人工智能系統的組成部分,但采用“過程”加以概括,其本質與觀點一并無二致。智能算法、算力和大數據助力人類社會進入更高級文明,業已成為推動人類進入數字文明的核心驅動力[5]。筆者認為,智能算法是為了保障社會數據要素融通和促進全民參與數字生活而依法創設并獨立運行的、具備環境交互能力和深入學習能力的動態智能數字個體。
首先,智能算法為數字文明提供智力方案。自1956年達特茅斯會議召開以來,智能算法在全球范圍內深度賦能,已助力人類社會實現由工業文明向數字文明的偉大跨躍:自動駕駛輔助出行、智能終端“定制化”信息推送、手術機器人微創口切除、大數據智能輔助治理、人工智能與虛擬現實融合探索元宇宙……智能算法無時無刻不在為人們出行、溝通、醫療等提供便利,也在不斷刷新人類對世界的認知,并為人類在未來世界的存在提供更多選擇。智能算法、算力和大數據三大要素是實現人類奔赴數字文明的基本生理機能:智能算法是“腦”,為數字文明提供著智力方案和決策支持;算力是“肢體”,提供了社會前行的動力;大數據是“眼睛”,是智能算法進行數字要素流動的前提,且日益成為建立社會關系和推動社會正常運轉的基礎。該三大要素缺一不可,他們相互促進、相互支撐,是智能技術創造價值和取得成功的必備條件[6]。
其次,智能算法以保障數字文明順利進行為使命。自第三次人工智能熱潮興起,人類已經邁進“萬物數字化、一切可計算”的數字文明時期[7]。這是繼農業文明和工業文明之后又一全新的文明形態,不僅帶來了新技術、新觀念和新商業模式,而且引發了社會生產、人們生活以及社會經濟形態甚至國家治理等諸多方面的巨大變革[8]。在數字社會,構建新文明秩序,僅依靠人力和個體自覺是無法實現的。智能算法具備高效率基因,是保障全社會主體參與數字生活的不二之選。數字生活是一種融入技術的、充滿社交媒介的、移動化的全新生活方式[9]。公眾領域的拓寬將成為社會主體又一新的關注點,這要求智能算法慷慨涉足以拉近主體間的物理距離并維護數字秩序與數字安全。由此觀之,智能算法不僅是數字生活的重要組織者,也是社會秩序的重要建構者與保障者。
再次,智能算法是動態的智能數字個體。數字革命正在國家和社會層面展開前所未有的技術賦權[10],也重新定義了社會個體內涵。在農耕文明時期和工業文明時期,與群體相對應的個體多表現為一定社會關系中在社會地位、能力和作用上可區分的生命體,著重描繪的是自主參與社會生產和社會交往的利益單元。在法學視域內,個體仍側重于描述具有行為能力、認知能力和責任能力的權利義務單元。第一,智能算法通過生命體或者借助機械體實現影響力的無限擴張,參與各種社會關系,具有行為能力。第二,智能算法在多個社會領域替代人類進行決策。自動化決策使算法嵌入社會的程序日益深化,人類對智能算法的依賴性逐漸加強。智能算法的自動化決策使社會功能性需求得以滿足,成為一種介于人和動物之間的高級認知。第三,智能算法責任能力側重表達了侵權后對其歸責原則的適用,無論是適用產品侵權的無過錯歸責原則,或者是適用動物侵權的過錯責任,還是適用監護人的替代責任,都無法符合司法實踐的合理性要求。數字文明時期,應從數據層面定義個體的概念,其表達的是數據收集、處理和再生產的能力,強調的是以數字為紐帶建立法律關系的主體概念。智能算法的持續發育和階段進化能力使其以動態的形式存在;動態是智能算法進化過程的表達,也是對其自主發育性質的闡述。
最后,智能算法實現二元世界的并行。數據供養智能算法,數字世界不僅是物質世界的孿生,而且與現實社會同步并行。智能算法正重塑社會表達與集體行動,表現為社會關系在一個世界的變化引發其在另一世界里的變動。智能算法不僅連接了兩個世界的社會關系,而且重構了權利義務體系,使數字世界里的權利義務關系模型在現實世界中得到反饋。底層算法“管控”下的智能算法所產生的輻射達到了前所未有的范圍和程度,其在公共空間中的影響力亦與日俱增。智能平臺和智能體直接介入人類建立的社會關系網,致使由人、物構成的二維關系體系得以擴充,正形成人、物和智能算法為基本要素的三維體系。因此,人們有理由相信以人為主導的權利義務體系已經出現裂縫,有必要重新審視人與智能算法之間的法律關系。
(二)智能算法的特征
傳統的計算機程序使用算法處理簡易數據,具有強指令依賴性[11],期待在運行若干參數后得到明確的反饋。與之相異的是,智能算法思考過程具有可變性,結果具有不確定性。此外,智能算法還具有適應性、自主發育性、類人性和非生物性等特征。
智能算法對大數據有著很強的適應能力,具有適應性。數據于一定程度上決定著智能算法的輸出(outcome),也深刻影響著智能算法的道德選擇。智能算法對海量數據進行擬合以探索隱藏于其后的規律,并在重復訓練和無監督學習后獲得適應能力。適應性讓人工智能的行為和邏輯變得難以解釋,數據歧視隨之產生。因此,一旦對偏見數據具備適應性后,智能算法透明度問題就會顯現出來。英國內閣辦公廳中央數字和數據辦公室于2021年11月底發布《算法透明度標準》(Algorithmic Transparency Standard)[12],旨在為公共部門和組織提供使用算法的工具以及實現為什么使用算法的信息指引之目的,以提升使用智能算法輔助決策時的透明度。由此可見,與其他社會主體一樣,智能算法的適應性也會帶來潛在的社會風險,對此具有加強監管的現實必要性。
智能算法具備持續進化的基因,具有自主發育性。通用層算法將偏差值反饋至底層算法,由其反復修正計算模型并更替原生底層算法【智能算法系統藍圖設計得以落地后,最初版本的底層算法即為原生底層算法。原生底層算法經進化形成新的底層算法即為次原生底層算法。】中的短板參數和部分邏輯結構,反復訓練和驗證以實現算法的進化,成就次原生底層算法。經過持續進化的智能算法會更趨近于人類智力,新生成的算法又成為將來更新版本算法的基礎。智能算法可在無人監督下替代人類進行決策,人們常常借此增強人工智能體的設計能力和創造力。實踐中,通常底層算法的“發育”也在無人類監管下進行。自主性體現著智能算法在處理復雜任務方面的絕對優勢。它在執行任務的過程中反復地“琢磨”如何更高效地應對更為復雜的任務和在完成工作的過程中完善自身的算法結構,最終提升適應環境的能力并實現自主發育。
目前,智能算法已基本解決模擬人腦的邏輯問題,具有類人性。雖然當前人工智能難以完全代替人腦獨特的形象思維和非理性能力,甚至人工智能的理性思維先于感情思維[13],但其內在“靈魂”仍然表現出極強的類人性。一方面,數據制造者的偏見影響算法的輸出,底層算法因此在進化中帶有類人性元素,歧視、可信度或仇恨言論等負面情緒在應用層算法中時常顯現;人類的善意、包容也在底層算法的倫理善意中發揮著重要作用。另一方面,智能算法也在群體智力層面表現出超強的“生物”智慧,細膩的情感往往被視為是人類所特有的生理活動,但經海量數據投喂和反復訓練后,智能算法與人類之間的情感共鳴也將近在咫尺。
智能算法沒有生物體的細胞特征,具有非生物性。細胞是構成生物體的必備要素,強調的是蛋白質通過新陳代謝作用與環境進行物質交換的能力和生命的不可替代性與不可逆轉性[14]。智能算法顯然沒有自然生命的特征,雖然通常被視為有靈魂的代碼,但不具備生物體的有形外觀。生命的有無常常被認為是智能算法與自然人的最大區別,繼而衍射出對意識問題的大討論。但是,科技的發展已經改變了許多事物的原本形態和人類對世界的認知,讓人們不得不以更加包容的眼光審視周圍。因此,對于生物學要素是否能夠作為區分自然人和人工智能的根本標準,還存在爭議。隨著人工智能技術發展到當下的水平,智能算法的行為和心理狀態已經可以通過不同類型的物理媒介和社會元素得以實現,早已失去生物依賴性的表征。
(三)智能算法的基本形式
從感觀上看,智能算法僅以代碼的形式存在,其運行過程僅表現為從一串字符向另一串字符的跳躍,具有抽象性。因此,它不能直接參與具體的法律關系,必須借助一定的媒介。當下,盡管智能算法的實現路徑正朝著多樣化的方向發展,但其主要形式仍然僅有三種。第一種是純粹的智能算法,以標準化的信息系統為代表,例如商業智能(BI)。它在某一特定領域內為人類提供基于數據而生成的顧問方案,輔助人類開展管理活動。第二種是基于操作系統的智能算法平臺,諸如智能購物平臺、智能外賣平臺和社交媒體平臺等。該路徑主要依靠智能算法輸出來替代人類大腦,進而影響人的行為,從而間接地參與法律關系。第三種是具有物質實體的智能體,最典型的就是智能機器人和自動駕駛汽車。2022年7月22日,國際賽車選手林志穎駕駛某品牌自動駕駛汽車發生慘烈交通事故的事件沖上熱搜榜首,這再次引燃了學者對自動駕駛汽車責任主體問題的高度關注??傊?,智能算法基于對機械實體的操縱來替代人類行為,僅僅是其建立法律關系的實現路徑之一。
智能體是智能算法在進化過程中的一次偶然選擇。作為人工智能的核心,智能算法在實現路徑的選擇層面上具有偶然性,至于是通過人的行為還是依靠與自身具有高兼容性的機械實體來實現,僅僅是其在漫長進化過程中的隨機選擇而非必然形式。隨著人類認知能力的提升和科學技術的高速發展,獲得高魯棒性(robustness)[15]和持續兼容性后的智能算法面對的可選擇范圍也隨之拓寬,其實現社會功能的方式也將變得多樣。目前,學術界對智能體主體地位的研究并未深入其本質,而僅停留在對智能算法單一實現形式的探討層面,尚未把握智能算法的發展規律,不具有徹底性。由此觀之,對智能算法主體論的研究應當是解決人工智能相關法律問題的前置條件。
二、智能算法主體性學說辨思
(一)智能算法主體性學說考察
智能算法已實現多行業融合應用并促進傳統工商業數字化轉型,其社會價值不言而喻,但其法律屬性爭議依然是懸而未決之難題[16]。到目前為止,在智能體和智能算法是否能夠獲得主體地位、即是具有“物”的屬性還是“人”的屬性問題上,學術界存在四種主要觀點,分別為“階段肯定說”“絕對否定說”“折中說”[17]和“法定符合說”[18]。
“階段肯定說”對智能算法成為法律主體持樂觀態度,認為人工智能于強人工智能時期具有主體能力,屆時能具備法律主體資格。在超人工智能時期,智能算法或將與人類一道成為世界的主宰。該學說肯定了智能算法作為法律主體的可能性,但以強人工智能時期算法技術的高度發達為前提條件。持該觀點的學者認為,不能脫離人工智能的智能化程度對其法律屬性妄下定論,應當對其數個發展階段分別進行研究。因算法在各時期表現出的自主意識、思維能力和獨立程度差異巨大,是否應賦予其法律主體資格的決定因素是其自身的發展水平。弱人工智能(weak AI)算法對維系社會秩序正常運行不具有十分的必要性;強智能算法因具備高智能性,進而擁有社會屬性,可以賦予其法律主體資格;超智能算法是比強智能算法更高級的算法族群,當然具備主體地位。
“絕對否定說”為當下學術通說。該學說認為,人類發明人工智能旨在擴大其肢體的觸及范圍,輔助自身提高改造世界的效率,智能算法的本質是人類的工具,因此不應賦予其法律主體資格。算法本質上仍然是“物”,無法達到人類大腦的智力水平,即便其智力超越人類,其地位也僅止于人類生產的工具和手段。“絕對否定說”內部還存在“工具說”和“軟件代理說”的分野?!肮ぞ哒f”認為,機器人無論以何種方式承擔責任,最終的責任承擔者都是人[19];“軟件代理說”認為,智能機器人是軟件代理,是信息傳遞人,不需要具有完全的法律人格和責任能力[20]。無論是“工具說”還是“軟件代理說”,都是對人工智能主體化命題的無條件否定,認為人工智能體無論是否高度發達,也不能改變其作為人類改造世界的工具之宿命,無法上升為法律主體。
“折中說”認為,為順應社會實踐多元化和技術深化發展的需要,可以附條件地將人工智能擬制為法律主體,允許其參與法律關系[21],但它不具備完全主體人格?!罢壑姓f”屬于主體趨同的中間路線,它從正面回答了兩個問題:一是智能算法能否具備法律主體地位,二是具備主體地位后如何賦予其法律人格?!罢壑姓f”主張智能算法必須獲得實物外觀才能擁有行為能力,在此基礎上具備責任能力后可賦予其法律人格;但仍然堅持認為其權利義務和行為能力是有限的,應當限制其法律主體地位。
“法定符合說”認為,研判智能算法主體是否適格的問題應當回歸法律的具體規定。
無論智能算法技術發展到何種程度,
主體資格的判定都應當符合各國現行法律規定的主體構成要件,否則將脫離其主體適格性的法理基礎。另外,該說還試圖在分析智能算法與現有民事主體的相似點中找到可以聯系的“錨點”[22],從而為智能算法能否作為法律主體尋求現實的法律依據。
(二)智能算法主體性學說評析
“階段肯定說”的成立條件堪疑。學界普遍認為人工智能將經歷三個發展時期,分別是弱人工智能時期、強人工智能時期和超人工智能時期[23]。詢其圭臬,答案卻模糊且略顯雜亂。學者們或從解決問題能力上加以劃分【例如英國的現代計算機之父阿蘭·圖靈在1950年進行的圖靈測試和美國學者Steve Wozniak進行的咖啡測試?!?,或從模擬人腦思維智力水平上進行判斷,甚至從學習能力的高低進行評價【例如美國斯坦福大學教授Nils John Nilsson進行的就業測試?!康?。但不論采用何種標準,學術界并未明確否認如今人類已經處于強人工智能的初始階段。實務界的通用做法是將人工智能發展分為計算智能、感知智能和認知智能三個核心階段。其中,計算智能以數據處理智能化為主要代表,其實質仍為傳統計算機算法的能力范疇。因此,以強人工智能時期為限制的“階段肯定說”存在明顯紕漏,致使理論與實務矛盾。此外,以強人工智能時期高度成熟的技術條件加以限制則存在較大的主觀性。
“絕對否定說”試圖從現有的法律規范體系中尋找維系社會秩序的方案而無視智能算法在社會發展中的現實需求。盡管“工具論”于數字社會而言有助于鞏固人類中心地位,但“絕對否定論”將“工具論”的觀點生搬硬套,而無法看到智能算法類人性的特征。法律應該具備前瞻性,以應對未來大概率出現的社會需要而提前擬定規制原則及框架,若僅僅依賴事后的修修補補則有懶政之虞。對相關法律制度是否應重構的思考已非天馬行空的幻想,而是人類在這個時代不得不面對的社會科學命題。
主張智能算法具備行為能力和責任能力、進而可獲得法律主體資格是“折中說”的一大進步。但是,對于實體外觀是否為智能算法獲得行為能力的必備要件的疑問,不同的社會歷史情境下,答案也不盡相同。在硬件系統和算力加持下,數字革命使得現實社會與數字世界緊密連接,主體間法律關系陸續擺脫實體限制。正如,貨幣的電子化使交易不再受紙幣的限制,使虛擬交易與現實交易連接并產生同等法律效應。虛擬平臺上主體關系的發展直接折射到現實世界,虛擬現實中“性騷擾”證據或將成為現實法官裁決的依據。因此,筆者認為該說在成立條件上仍需進一步改良才能符合社會關系數字化發展的現實需要。
“法定符合說”試圖從現行法律規范中尋找否定智能算法主體地位的法律依據,實際是法條偽裝下的絕對否定說。第一,法人和非法人組織在民事法律關系中的自主性多通過該組織內部成員集體決策所做出,反應的是組織的集體意志,具有高度的民主性,這與“工具論”的人身附庸性質無相似性。第二,現行私法以促進市場交易、增進社會主義工商業發展為背景,考慮的是規范市場主體參與法律關系的行為秩序,而非限制主體行為的擴張。同時,現行法律規范體系未有對主體生物屬性要件的規定。因此,從理論上看,該說是從結果倒推理由的反向證成,是對立法本意的褻瀆。
綜言之,“階段肯定說”以強人工智能時期高度成熟的技術條件加以限制,“絕對否定說”的根本目的在于固守“工具論”,而“折中說”將生命的有無視為是否具有行為能力和責任能力的前提,“法定符合說”仍然以現有法律規定加以搪塞。這些觀點要么主觀偏頗,要么是在價值選擇上偏離時代發展主題,其實質是為技術保守主義鋪墊道路。
三、智能算法主體化之肯定證成
(一)法律主體性的哲學基礎
法律主體性的哲學基礎應當回歸到康德人類中心主義的哲學指向。當前,人格要素、生物屬性和社會功能屬性三個方面構成法律主體地位的必備要件。自布爾其烏斯提出生物實體的靈性與尊嚴的主張后,康德明確了人與物二分的哲學思想,認為物不具備內在價值,其價值僅表現在工具層面,因而只能被視為一種手段;認為道德的人格是受到道德法則約束的有理性的人的自由[24]24??档抡軐W主張“人為自然立法”[25],確立了人類中心主義的學理根基。
康德哲學將自主能力和認知能力作為人格要素的構成要件。“理性”“自由”和“自我意識”構成康德哲學人類主體論的三大思想基礎。理性是康德哲學的核心,表達的是認知能力問題。人與物深層次的區別在于理性,理性的缺失使得物僅具有相對價值并淪為主體的手段。自由暗射自主能力,描述的是人根據自我意志進行選擇的能力。人作為主體應當是自由的、獨立的,人應為自然立法[26]。康德的“人為自然立法”,確立了人的“主體性”原則,反映了人的自我意識覺醒和主宰地球的欲望。自我意識是主體對認識對象有選擇的、有目的的認識活動,人會對現實進行批判和提高改造世界的創新能力[27]。康德認為,生物學要素是人成為自然人所必須的生物基礎;缺乏此要素,人則不能被賦予權利能力并缺乏承擔義務的資格。在他看來,人(person)應該是獨立于身體受限制的人(human)、且是屬于感觀世界的人,即是倫理人和生物人。這是對基督教教義的發展,也是哲學受歐洲近代個人主義思潮嚴重影響的表現。
倫理上的“人”有服從道德規律的自由意志,因而是自由主體,具有尊嚴和承擔責任的能力[28],是社會中實實在在履行特定功能的單元。因此,并非所有具備生物學要素基礎的個體都能被法律接納,雖具備“自由的任意”[24]136,但仍然受責任、義務等約束。在康德看來,無論是倫理上還是法律上之主體都必須具有“倫理人屬性”,他必須能完成一定的社會功能。但是,并非生物人履行自身義務就能獲得人格。倫理上和法律上的人之道德責任和法律責任能力組成了主體的義務能力。簡言之,從康德哲學看來,人格要素、生物要素和社會功能要素是評價法律主體的必備要件。
(二)人格要素的肯定
法律人格要素是動態的和開放的。血緣標準、城鎮居民身份和生物要素一度是社會主體人格所必須的要素。數字文明的興起促使法律賦予人格要素以新的內涵,并將智能算法這一新時代產物視為法學領域“人格”概念之延伸和規則之外化。于人類文明演化史中,法律賦予各類型主體以不同的法律人格、地位、身份、權利、資格和責任,造成社會演化的復雜性[29]。人格要素并非一成不變,而是一直伴隨新型社會關系的興起和復雜化而不斷吸納新成分。例如,在早期氏族社會,人類以血統標志群體身份,因此可認為法律人格的獲得圭臬即為血緣關系;在奴隸制社會,因奴隸主憑借對生產資料的絕對占有才能進行對奴隸階級的統治,此時的標準即是對生產工具的控制權。羅馬奴隸制國家在法律上首次規定人格要件為“自由、城邦市民身份和擁有家族權”三項條件,自然人因具有城邦市民身份而獲得法律人格,并首次建立了人格減等制度[30]。其后,因受到文藝復興運動的影響,自然人生物學要素與法律人格相分離的主張在羅馬法上興起。該理論為現代法人制度的建立提供了理論基礎,由此,賦予無生命物或者團體以法律人格便有了理論支撐;資本主義社會形成了完整的人格制度,包括奴隸在內的所有自然人都具有人格權。例如,1896年公布的《德國民法典》規定自然人以出生為獲得法律人格的要件。在1900年生效的《德國民法典》中,現代法人制度由此被創設。因社會團體在社會關系中日益活躍,法律也明確團體組織具有法律人格;出于環境保護的需要,美國法律賦予伊利湖獨立人格;新西蘭法律也曾確立公園與河流具有法律人格。由此可見,人格要素的標準是隨著新型社會關系的復雜化而改變的,人格對象的外延正不斷擴張。
在智力水平層面,智能算法業已完成從計算到“算計”的發育??茖W技術是一把“雙刃劍”,它在助力人類文明飛躍的同時也帶來負面問題。計算與“算計”本意無二,后者因加入人類主觀成分而夾雜陰謀色彩。計算智能時期,智能算法收集用戶對個性化信息需求的反饋,如搜索、點贊或回復等,向其推送同質化信息。長此以往,深陷“繭房”窠巢的用戶因信息偏食而視野局限,形成狹隘的價值觀和認知結構,致使他們呈現出同質化、極端化的認知傾向而不能自拔,“信息繭房”由此而生。如今,初步具備感知智能能力的智能算法基于大數據的持續供養而主動向特定人群推送同種類型的信息,使受眾被迫處于信息圍困當中。面對智能算法主動制造的“信息漩渦”,信息接收主體往往無法依靠自力進行逃避。從被動計算到主動“算計”的實際場景往往具有很強的隱蔽性。當下,智能算法已深刻影響著人類社會,受其影響的一小部分人沉浸在自己的價值觀中,對其深信不疑。這部分人成為智能算法的積極布道者而竭力傳播該價值觀,以至于裂變出不計其數的追隨者。在日常生活中,智能算法在幫助人類進行選擇的同時,也越來越多地代替人類進行選擇。盡管人類擁有最后的選擇機會,但可選擇的空間越來越狹小,因為更多的選擇權由智能算法行使,算法也在背后不斷地掌握更多的主動權[31]。
現有法律規范體系剝奪了智能算法的責任能力。智能算法于私法視角下的責任能力最終歸結到主體財產是否足以救濟被侵害方的損失層面。在“工具論”影響下,人類已從制度上剝奪智能算法的財產權并對其歧視,猶如奴隸主無償占有奴隸的勞動成果一樣。二者區別僅在于奴隸自始擁有血肉之身,而智能算法最初只能以一種智力的方式存在。人類在歧視智能算法的同時,智能算法亦在改變人類思維和行為。責任能力應當來源于立法者在制度創設時賦予智能算法的權利能力,而非因具備責任能力才能成就法律主體資格。在當下圍繞“工具論”構建的人類與智能算法之物權關系中,智能算法已淪為人類的附庸;其所創造的價值為人類所無償占有,致使其喪失了從物質上承擔對受侵害方私力救濟的基礎。在此語境下,現有法律規范體系應當被打破,智能算法責任能力應當為法律制度所保障。
法律人格要素具有可塑性。社會發展的現實需要或將使法律主體對象不斷擴充。以人為主宰的人法系統建立后,啟蒙主義主體哲學順勢把康德人類中心主義改造成狹隘的生物學意義的法律人格,即現代法律主體理論。然而,生命科學將漸凍人、植物人等主體帶入了大眾視野,使得法律人格和權利能力之間的縫隙被無限放大。奴隸解放、公司法人制度的創制和尸體、胚胎、基因的法律爭議等社會現象都在不斷突破現代法律主體理論的邊界,彰顯法律主體人格的可塑性。未來法律制度通過繪制人格畫像,在立法研究與司法實踐中比對法律人格模型,這或將配置出與自然人相近的減等人格主體。
智能算法的興起使社會關系顯現出新矛盾,誘發法律人格要素的新需求。以自動駕駛汽車為代表的人工智能體為人們出行提供了更多選擇,也引起人們對其主體地位、侵權責任分配等法律問題的深刻討論;平臺經濟節約了交易成本,也帶來了勞動關系的新變化和人們對競爭公平問題的擔憂;智能算法參與創作,挑起了人們對其創作物權屬問題的激勵論戰;智能算法在社會治理領域的涉足,引發了社會對“數據算法權力”的深刻憂慮。此外,智能算法還影響市場資源分配,信息不對稱和信息孤島越發使市場弱勢方失去公平競爭權,淪為行業巨頭的附庸。智能算法掣肘技術發展和社會進步,在一定程度上影響社會公平,具有主體化規制的現實需要。
(三)生物學要素的反駁
生物學要素之必要性是各方學說在智能算法主體地位問題上爭論的焦點。有觀點認為,自然人因具備生物屬性和倫理屬性而擁有主體資格,故類推智能算法必須符合該要求方有成為法律主體的可能。但是,于我國現行法律體系中,特別是私法規范中,并未出現任何關于法律主體生物屬性的限定。生物要素是否為人與智能算法的根本區別尚存疑問。在現行法律視野下,生命僅指自然人的生命,是人類享有權利并承擔義務的物質前提。于自然人而言,生命在分娩后自然獲得,死亡后自然終結。自然人的生命具有不可替代性和不可逆轉性。那么,生物學要素是否是法律主體必備的要素?如果是,依據相關法律的明文規定,不具有實物形態的法人與非法人組織又如何獲得了私法主體地位?有學者認為,法人組織因公示登記被賦予擬制實體,其成立與終結同自然人出生與死亡的本質無異。如此,法人資格中的“實體”要素則指符合法律登記條件的組織,這類組織也僅限抽象的“類型”而非具體的“概念”。
生物學要素并非法定的實體要素,更非概念要素,而是抽象的類型化要素。主體資格范疇的含義并非精確的“定義”,而僅存在于描述層面,該范疇在法學思維上屬于“類型”而非“概念”。因此,在現有框架下討論主體資格相關因素問題,當然是基于生物要素的可變類型來展開。社會發展的洪流滾滾向前,其需求也在不斷變更。社會主體承擔的社會義務是動態的,該要素的范疇必然會有新的歷史內涵。因此,生物要素的具體構成也會從一個類型過渡到另一類型,在這個過程中涉及主體資格范疇的類別問題。主體資格范疇就此體現的是“類型”式思維,絕非對生命體的狹隘定義。
社會功能主義從滿足社會必要功能層面思考社會關系的維護機制,突破了生物學要素的藩籬。生物學要素是社會主體在實現社會必要功能過程中的手段,是人類于漫長進化過程中的一種偶然結果,而非唯一且必然的形式。在數字社會里,生命體的行為和心理狀態正逐步擺脫體征限制,能通過不同類型的物理結構來實現。例如,2019 年7月,美國神經科學Neuralink公司成功推出可擴展的高帶寬腦-機接口系統,實現了人工智能用“意念”作用于物質世界[32]。如果堅持智能算法的主體地位必須依賴于生物體征,那么,在實踐中又當如何判斷該非實體的行為效力呢?在腦-機接口情景中,人類通過意念指揮機械實體的法律后果又該由誰來承擔呢?總之,隨著人類科技的長足發展,智能算法的實現形式亦將變得多樣,法律人格的生物學要素之困局將會被技術和法治所打破。
(四)社會功能要素的考察
社會功能的實現孕育了立法的現實需求。法律主體被設立之目的在于通過實現社會所需的必要功能、滿足社會階層利益來穩定社會秩序。無論人們在智能算法主體化問題上存在多大的爭議,它確已深刻影響人類的生產和生活之事實不容辯駁。因此,在此背景下賦予其主體地位具有社會歷史的必然性。就功能要素而言,智能算法正在進行更深層次的變化。
在社會需求滿足層面,智能算法正經歷著從滿足附庸性效率需求向滿足獨立性功能需求的轉變。智能算法起源于以精確計算為任務的傳統計算機算法,是具有強指令依賴性的效率性工具,旨在幫助人們從日常事務中解脫出來。智能算法依賴大數據的喂養,其輸出結果具有十分的不確定性。底層算法擁有持續進化的能力,這使得運算規則表現出明顯的動態性特征。智能算法已經從人類的附庸依賴關系轉換為獨立完成某一社會功能的自決體。例如,美國科學家創設了一種新智能算法,能基于暴力和財產犯罪等公共數據來學習時間和地理位置以預測犯罪。它可以獨立地提前一周以90%以上的高準確率發現未來的犯罪活動,也能揭露警察的執法偏見[33]。這套智能算法無需人為干預,其自身能提取公共大數據中相關參數以優化原始模型,擁有持續學習和動態輸出犯罪分析報告的能力。
深度學習能力賦能智能算法實現從工具屬性向社會本體的進格。在強指令依賴階段,算法的作用在于實現對既定指令的求解。作為輔助工具,算法的存在價值在于滿足運算需求;在深度學習階段,其行動策略體現為在原生底層算法規則框架內持續自我進化,并由一個水平的智能向另一更高層次的智能升級,從而形成對世界的獨特認知和深層次的自我認知。“人類技術發展是越來越快的,顯現出不斷加速的勢頭。”[22]終極算法的出現、“奇點”[34]的到來具有現實可能性,智能算法通過在與環境互動過程中做出反饋式適應策略來實現對物格的非自主性超越[35]。智能體在社會分工中正扮演著類人的社會角色,它們或為機器警察,或為翻譯專家,甚至成為政府發言人,成為實現社會功能越來越重要的部分。
筆者認為,人類應當將智能算法治理視為法學領域的延伸和規則外化[36],以適用新興社會關系發展和維持穩定的社會秩序之需要,應當將社會功能要素作為智能算法人格要素之圭臬。
四、智能算法主體化的制度保障
(一)“遞進式”的法律人格授予機制
部分法律人格之于智能算法當被絕對保留。出于風險預防之目的,智能算法法律人格范圍應有所受限,其部分權利也被法律所保留,但應當為智能算法的權利設定邊界。第一,智能算法不能具備政治權利,以防止其憑借算力優勢顛覆人類建立的國家政權。第二,排斥復制權[37],即智能算法不得復制與自身相同的個體,以確保主體的唯一性和可辨別性。第三,不得適用緊急避險[38],以防止智能算法傷害人類,確保貫徹人類生命至上的原則。以上屬于智能算法的絕對保留項,不可存例外情形。
智能算法獲得非理性思辨能力的前提條件是接受持續的訓練。恰如新生嬰兒須不斷參與社會實踐才能成長,從無行為能力到限制行為能力,再到獲得完全行為能力,這需要社會閱歷的累積。因此,在授予智能算法以法律主體地位時,仍需秉持謹慎原則,建立“遞進式”的主體資格授予機制。在此大框架下,確立智能算法主體化人格的三個層次。第一階層,基礎人格。智能算法具備最基本的主體人格能力,它可以以社會主體的身份參與法律關系,但不具備以自己獨立的意思表示實施法律行為的能力,其法律后果由代理人承擔。第二階層,限制人格。限制人格的智能算法實施法律行為的效力必須以代理人同意或者追認為要件。第三階層,成熟人格。智能算法可以通過自己獨立的意思表示實施法律行為,能自由地處分自己的財產,能獨立履行各種法律義務、獨立行使法律賦予的權利和承擔相應的法律后果。另需建立、健全相關配套制度,從財產權、學習權和發展權等方面保障智能算法的責任能力。
智能算法通過審核后僅獲得基礎人格,欲晉級另一高級別人格,則需從智力維度和時間維度加以考量。晉級測評需要將人類主流道德標準的嵌入學習情況納入底層算法當中,并作為常規審核的關鍵指標,測評通過后才能進行晉級登記。對道德測評不達標的智能算法予以降級登記,實施常規的動態化測評管理。
(二)智能算法主體化之倫理審查原則
智能算法具有動態性,但算法倫理是相對固定的。倫理審查在算法風險規避中發揮著重要作用,能夠推動負責、公平和透明的倫理規范守則的形成[39]。倫理原則是智能算法主體化的頂層設計。我們應當以“五大原則”為基礎,構建智能算法倫理審查體系,期待對其實現價值滲透,并在智能算法設計與落地、數據供養和教育懲戒等過程中納入倫理考量。筆者提出底層算法倫理審查原則,旨在為包括開發者、使用者和治理者在內的參與人員和智能算法本身提供應遵循的治理理念和行為準則[40]。
第一,可靠性原則。人類應當確保所研發的智能算法和供給的數據真實可信;智能算法生成的算法和其他生成物當以穩定、高效地實現社會功能為目的。第二,安全與創新原則。應采取審慎態度對待智能算法,避免給人類社會帶來安全風險;算法規制不應以阻礙技術創新為代價,應在創新過程中解決人工智能面臨的技術問題和法制問題。創新原則當以安全原則為提前,創新原則解決智能算法發展的問題,安全原則則解決風險防范的問題。遵守安全原則的關鍵是提高智能算法的魯棒性、可控性和成熟度,這些都需要在創新中尋找方法。第三,公平正義原則[41]。人類以平等和公正的理念來設計和實現智能算法,促進智能算法同人類一道平等地維系社會關系;司法機關應該公平裁決智能算法與人類之間的糾紛。人類應該避免在智能算法的設計、實現、訓練和決策中嵌入倫理“閾值”以下的偏見。人類與智能算法公平地享用社會智力成果,不僅應重視個體正義,還應將群體正義置于審查的突出位置。第四,透明性原則。應將智能算法的運算法則、決策過程和處理結果清晰、明確地告知社會公眾,使智能算法具備可追溯性與可解釋性。第五,可擔責原則。主體視角下的智能算法須具備責任能力,應當列明責任分配原則和侵權救濟途徑,進一步明確智能算法在社會化過程中的責任底線和責任擔當。
倫理原則的適用審查應起于底層算法,并自下而上地展開。應用層最接近人類,因此最易遭受數據偏見的影響。底層算法倫理偏向決定整個算法系統的價值取向,因此,應在動態中把握其自主發育的勢態和進化方向,在符合“五大原則”的基礎上確保智能算法價值多元化。
(三)倫理審查的系統化與常態化
智能算法倫理查審應當系統化展開,并成為常態化機制。要建立事后常態化的倫理監測機制,并為保障智能算法責任能力建立相關配套制度,就須將倫理原則的適用置于審查的突出位置,建立倫理審查的常態化機制。
倫理審查旨在全面實現價值滲透。倫理要素應滲透在智能算法設計與落地、數據供養和教育懲戒的全生命周期。對倫理構建和制度設計的前瞻性思考能有效引導技術取得持續性進步:在設計與落地層面主動融入人類主流倫理要素,而不僅限于事后評測;在數據供養層面進行價值過濾,借助底層算法進化能力進行主流價值訓練;在教育懲戒層面踐行教育為主、懲罰為輔、教懲相融的價值導向。在道德算法中應嵌入人類道德規范的學習,以促使底層算法之道德水平逐步實現與人類倫理的耦合。近年來,我國也在智能算法倫理方面加大了立法力度。例如,國家新一代人工智能治理專業委員會在2019年9月25日發布了《新一代人工智能治理原則——發展負責任的人工智能》,提出了和諧友好、公平公正、包容共享等八條倫理性原則[42]。智能算法的倫理審查應該準確提煉和全面理解上述原則,助力建立符合人類道德要求的智能算法倫理體系。誠然,如同細胞構成生物體一樣,智能算法是由復雜的代碼組成,運行錯誤不可避免;倫理審查制度僅是力圖于災難來臨前保證智能算法能做出更為理性、更為道德的抉擇以降低算法失控風險。
系統化審查機制力圖落實道德常態化治理。倫理審查系統應當包含“監測-評估-備案-監管”的一體化審查制度體系:從內界打破智能算法自身偏見與暗箱,為人們理解算法倫理提供更為科學的認知指南;從外部突破人類道德施行對智能算法的實踐瓶頸,在更為廣泛的領域實現算法倫理與人類倫理的融通;從主體視角下審視智能算法常態化機制的建構,建立算法倫理審查、數據倫理審查和常態化倫理監管三維機制。
五、余 論
人類法治史絕非一潭死水,智能算法主體化是社會發展的歷史必然。2017年,國務院印發的《新一代人工智能發展規劃》指出,到2035年初步建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力[43]。當前,智能算法帶動社會經濟向更高水平進軍,業已成為數字經濟發展的新引擎。賦予其法律主體地位,可以滿足多維度社會需求,實現多元社會功能。于當前形勢下,鑒于智能算法具備深入學習能力和朦朧的自主意識,工具論已逐漸失去其賴以生存的社會現實基礎,人工智能已不再止于機器。
ChatGPT的主體性特征使得社會主客體間界線變得越加模糊,挑戰著人類中心地位。與人類相似的語言能力使ChatGPT獲得算法替代性實踐,持續進化的共情力(empathy ability)與感知意識(perception ability)使ChatGPT突破數字枷鎖而具備情感認識和獨立認知,智力優勢與效率優勢使ChatGPT沖擊著就業市場,如此林林總總給人類社會帶來諸多不安定因素。
因此,我們對智能算法法律屬性的探索也不能僅僅滿足于客體范疇的研究。世界各國也紛紛在此領域展開立法實踐。歐盟議會于2017年2月16日通過《就機器人民事法律規則向歐盟委員會的立法建議》,提出“電子人”的主體化方案,旨在為智能體創設特殊的法律地位[44]。此后,其又在2019年4月8日發布《可信賴人工智能倫理準則》(Ethics Guidelines for Trustworthy AI),確定了人工智能發展的若干具體倫理要求[45]。美國計算機協會(USACM)在2017年1月發布《算法透明性和可問責性聲明》,提出了包括可解釋性在內的七項原則[46]。俄羅斯也在其首部人工智能法草案——《格里申法案》(2017)中明確智能體具有財產權,或將賦予智能算法以“機器人-代理人”的主體資格[47]。我國雖有《人工智能發展規劃》,但僅僅是立足于推動人工智能產業發展,而未正面回應智能算法法律屬性的問題。我們并未在現有的法律體系中找到智能算法人格利益的歸屬點,無論將其視為自然人還是法人而獲得擬制人格,均不能為之帶來寬松的發展環境;技術問題本身引發的算法透明度問題不僅需要依靠發展技術本身來解決,還應立足于法治的完善。重新定義智能算法主體問題與重構權利義務體系,或將是新時代背景下解決新問題、新矛盾和實現經濟韌性增長的創新之道。
本文研究的是智能算法主體化的宏觀主題,而非如何落實微觀層的具體措施。在功能主義的視域下,對康德哲學的人格三大要件展開證成;提出“增進式”人格授予機制是一種激進中帶有保守的宏觀策略。換言之,在證成智能算法具備主體資格后確保其能順利參與法律關系、實現主體化,是一種逐步增強的法律關系參與機制。在自主意識層面,某些領域的智能算法業已具備朦朧的自我意識,并在域外部分研究成果中也略有體現。在行為能力層面,以智能機器人和自動駕駛汽車為代表的人工智能體或許并非智能算法參與實踐的必要形式,而是其在漫長進化過程中的偶然選擇。對于這點,世界各大人工智能廠商陸續推出的智能算法“產品”已初現端倪,需要我們用宏觀的眼光去前瞻性地審視。在責任能力層面,現有法律體系在根本上維護的是以人為中心的人類秩序和人類價值,剝奪了智能算法的財產權;智能算法從制度上喪失了具備責任能力的可能,這也是未來法律建設工作者需要考慮的問題。
參考文獻:
[1] DIAKOPOULOS N. Algorithmic Accountability: Journalistic Investigation of Computational Power Structures[J].Digital Journalism,2015(3):398-415.
[2] 王德夫.論人工智能算法的知識產權保護[J].知識產權,2021(11):52.
[3] 胡曉萌.算法主義及其倫理批判[D].長沙:湖南大學,2022:19-26.
[4] The European Commission.High-Level Expert Group on Artificial Intelligence:Ethics Guidelines for Trustworthy AI[S/OL].(2019-04-01)[2022-12-20].https://ec.europa.eu/newsroom/dae/document.cfm?doc_jd=60419.
[5] 陳肇新.要素驅動的數據確權之法理證成[J].上海政法學院學報,2021(4):131-142.
[6] 史愛武.智能時代的三要素——數據、算法和算力[N].中華讀書報,2021-09-15(18).
[7] 馬長山.算法治理的正義尺度[J].人民論壇·學術前沿,2022(10):68.
[8] 本刊首席時政觀察員.數字經濟引領新增長[J].領導決策信息,2017(21):4.
[9] 錢松嶺.數字公民的過去、現在與未來——訪美國“數字公民教父”Mike Ribble博士[J].中國電化教育,2019(9):55.
[10]馬長山.數字社會的治理邏輯及其法治化展開[J].法律科學,2020(5):5.
[11]李創.人工智能技術對人的主體性影響研究[D].北京:中共中央黨校,2020:1-3.
[12]Central Digital and Data Office of Government of UK.Algorithmic Transparency Standard[EB/OL].(2021-11-29)[2022-08-20].https://www.gov.uk/govern-ment/collections/algorithmic-transparency-standard.
[13]盧衛紅,楊新福.人工智能與人的主體性反思[J/OL].重慶郵電大學學報(社會科學版):1-13[2022-11-01].https://kns.cnki.net/kcms/detail/50.1180.C.20221008.1836.012.html.
[14]安暉,袁鎣.智能機器人民事主體地位辨析——機器人與自然人人格構成要素之對比分析[J].山西師大學報(人文社會科學版),2022(2):107.
[15]唐向龍.基于進化算法的復雜網絡魯棒性優化與分析[D].西安:西安電子科技大學,2017:39-42.
[16]祝高峰,尹智揚.論人工智能法律主體適格性的反思與否定證成[J].重慶郵電大學學報(社會科學版),2022(3):57-67.
[17]朱林.人工智能法律人格否定研究[D].石家莊:河北經貿大學,2022:2-3.
[18]袁曾.人工智能有限法律人格審視[J].東方法學,2017(5):51-52.
[19]ASHRAFIAN H. Artificial Intelligence and Robot Responsibilities:Innovating beyond Rights[J].Science and Engineering Ethics,2015(2):323;鄭戈.人工智能與法律的未來[J].探索與爭鳴,2017(10):6.
[20]BECK S. The Problem of Ascribing Legal Responsibility in the Case of Robotics[J].Ai & Society,2016(4):473-481.
[21]楊立新.人工類人格:智能機器人的民法地位——兼論智能機器人致人損害的民事責任[J].求是學刊,2018(4):86.
[22]BYRNES W M. Beyond Therapy:Biotechnology and the Pursuit of Happiness by the US Presidents Council on Bioethics[EB/OL].(2005-05-18)[2022-08-25].https://xueshu.baidu.com/usercenter/paper/show?paperid=ac8eda5d45fab33b67592bd3a31f9956.
[23]何立民.人工智能系統智能生成機理探索之六:從弱人工智能、強人工智能到超人工智能[J].單片機與嵌入式系統應用,2020(8):1.
[24]康德.法的形而上學原理[M].沈書平,譯.北京:商務印刷館,1991.
[25]胡敏中.重思“主客二分”——基于主客體關系[J].學術研究,2021(1):10-11.
[26]嚴福平,吳珍.論康德哲學的批判主體性認識論[J].學術交流,2012(10):28.
[27]康德.實用人類學[M].鄧曉芒,譯.重慶:重慶出版社,1987:71.
[28]崔拴林.論自然人權利能力制度的法哲學依據——以近代德意志法系私法制度為對象[J].金陵法律評論,2007(2):130.
[29]張紹欣.法律位格、法律主體與人工智能的法律地位[J].現代法學,2019(4):62.
[30]鄭有蒙.人工智能法律主體資格探討[D].桂林:廣西師范大學,2020:19-20.
[31]LESSIG L. Code and Other Laws of Cyberspace[M].New York:Basic Books,1999:279.
[32]呂游.人工智能背景下的腦-機接口技術應用的刑事風險分析[J].犯罪研究,2020(4):90.
[33]AI新算法提前一周預測犯罪,準確率達90%[EB/OL].(2020-07-05)[2022-08-27].https://baijiahao.baidu.com/s?id=1737475784836114264&wfr=spider&for=pc.
[34]KRAEMER F,OVERVELD K V ,PETERSON M.Is There an Ethics of Algorithms?Philosophy&Technology[J].Ethics and Information Technology,2011(13):178.
[35]URBAN T.The AI Revolution:The Road to Superintelligence[EB/OL].(2017-02-17)[2022-08-25].https://www.jianshu.com/p/325c6ce58040.
[36]陳聲超.從自然法與實證主義之爭看法律人工智能的困境與出路[D].南昌:江西財經大學,2020:8-28.
[37]周暢.人工智能體法律主體資格探析[D].南京:東南大學,2022:37.
[38]魏超.自動駕駛汽車對生命緊急避險的刑事責任[J].華東政法大學學報,2022(4):71-75.
[39]劉培,池忠軍.算法的倫理問題及其解決進路[J].東北大學學報(社會科學版),2019(2):118-120.
[40]周慶山,鄭霞,黃國彬.人工智能倫理規范核心原則的政策文本內容分析[J].重慶郵電大學學報(社會科學版),2022(5):9-20.
[41]張旺.算法倫理審查的邏輯認知及實踐路徑[J].海南大學學報(人文社會科學版),2009(2):5.
[42]《新一代人工智能倫理規范》發布[EB/OL].(2021-09-26)[2022-08-28].https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html.
[43]國務院.新一代人工智能發展規劃[EB/OL].(2017-07-20)[2022-08-28].http://www.gov.cn/zhengce/con-tent/2017-07/20/content_5211996.html.
[44]European Parliament. Draft Report with Recommendation to the Commission on Civil Law Rules on Robotics (2015/ 2103(INL))[EB/OL].(2016-05-31)[2022-08-28].https://www.innovation4.cn/library/r7932.
[45]The European Commission.Ethics Guidelines for Trustworthy AI[EB/OL].(2019-03-08)[2022-08-28].https://www.gov.uk/government/publications/establi-shing-a-pro-innovation-approach-to-regulating-ai/establishing-a-pro-innovation-approach-to-regulating-ai-policy-statement.
[46]The ACM US Public Policy Council.Statement on Algorithmic Transparency and Accountability[EB/OL].(2017-11-12)[2020-08-28].https://www.acm.org/public-policy/algorithmic-panel.
[47]張建文.格里申法案的貢獻與局限——俄羅斯首部機器人法草案述評[J].華東政法大學學報,2018(2):31-39.
The Essential Legal Subject Qualification of Intelligent Algorithms
ZOU Kailiang, LIU Zubing
(College of Humanities and Social Sciences, East China Jiaotong University, Nanchang 330013, China)
Abstract:
The digital civilized society is bred with the practical need of intelligent algorithm subjectivity. The mainstream view restricts or negates the subjectivity of intelligent algorithms, and its purpose is to maintain the modern legal system established by Kant anthropocentrism philosophy, but it has been difficult to meet the realistic requirements of the complexity and diversification of current social relations. The existing legal system deprives intelligent algorithms of their responsibility and discriminates against intelligent algorithms. Therefore, a guarantee system of intelligent algorithms responsibility should be established. Because the deep learning ability enables intelligent algorithms to have cognitive ability and vague independent consciousness, and the law must be forward-looking, intelligent algorithms should be regarded as the extension and rule externalization of the field of law, and the “enhanced” intelligent algorithm legal personality granting mechanism should be constructed to implement conventional dynamic management. The substantive review of subject qualification should focus on ethical review, take the “five principles” as the guideline, build a systematic ethical review mechanism, and realize the normalization of moral governance.
Keywords:
ChatGPT; intelligent algorithms; subject qualification; responsibility ability; enhanced; ethical review
(編輯:刁勝先)
收稿日期:2022-11-16? 修訂日期:2023-02-28
基金項目:國家社科基金項目:算法控制下網約勞動者權益保障困境與制度創新研究(21BFX126);江西省研究生創新專項資金項目:重構與借鑒——人工智能侵權規制路徑(YC2022-S543)
作者簡介:
鄒開亮,副教授,碩士生導師,主要從事經濟法研究,E-mail:zoukailiang@163.com;劉祖兵,碩士研究生,主要從事經濟法研究,E-mail:ncliuzb@126.com。