摘 要:當前,私權保護、國家安全及產業發展是人工智能監管立法需要權衡的三大基本價值,不同權重對比下將會形成差異化的監管立場。綜觀國際實踐,現有自愿型監管、嚴格型監管和回應型監管均有一定缺陷。立足于人工智能的不確定性、中國的產業發展與制度環境以及國際合作和競爭需求,我國的《人工智能法》應采用促進型立場——在價值立場上要提高產業發展的比重,實施包容性治理的策略。不同于回應型監管,促進型立場從監管主體、監管對象及監管手段三方面對《人工智能法》提出新的遵循。促進型立場的《人工智能法》宜定位為領域法,從數據與算法兩個維度進行權利規定,并圍繞追責主體、責任主體、追責原則、責任減免四方面厘定損害歸責。
關鍵詞:人工智能立法;回應型監管;促進型立場;領域法
作者簡介:周翔,浙江大學光華法學院特聘研究員(杭州 310008);洪濤,浙江大學光華法學院博士研究生,通訊作者(杭州 310008)
DOI編碼: 10.19667/j.cnki.cn23-1070/c.2025.02.010
2025年初,我國人工智能企業深度求索(DeepSeek)發布最新開源模型DeepSeek-R1,用較低訓練成本達到接近于美國OpenAI公司GPT-o1的性能,引發全球轟動。①中國工程院院士李國杰指出,DeepSeek的橫空出世是世界人工智能發展史上新的標志性事件,可與2023年初OpenAI發布的ChatGPT相媲美。②在DeepSeek掀起新一輪智能競賽的時刻,是否意味著立法規范不再重要?答案是否定的,圍繞人工智能的國際競爭,早已擴展至治理規則的競爭,尤其是立法規則。面對DeepSeek的崛起,部分西方國家用數據隱私、國家安全等慣常理由,展開不合理調查或封禁,如美國國家航空航天局、美國國會、美國海軍相繼宣布考慮禁止使用DeepSeek,意大利隱私監管機構Garante要求DeepSeek提供關于用戶數據使用問題的解釋,并給出20天的答復期限。①一般而言,率先出臺法規具有較強的溢出效應,歐盟《通用數據保護條例》(以下簡稱GDPR)即如此。為在人工智能立法上再度延續“布魯塞爾效應”②,2021年歐盟就著手《人工智能法案》(以下簡稱《AI法案》)的立法工作,并在短短幾年內持續推進,于2024年3月通過官方最終版本,成為全球第一部人工智能立法。該法采取了與GDPR一致的嚴格監管立場,但DeepSeek的出現使得其合理性受到廣泛質疑,歐盟委員會主席馮德萊恩在2025年巴黎人工智能行動峰會上公開承認歐洲需要“減少繁文縟節”,2月歐盟委員會宣布撤回《人工智能責任指令》和《電子隱私條例》,提出簡化現有數字監管框架的戰略,這似乎暗示了其現有監管立場的問題。面對中國人工智能的追趕,美國也開始重新思考其監管政策,副總統萬斯在巴黎人工智能行動峰會上抨擊了歐盟嚴格監管的規制框架,提出“去監管”的主張。③美國參議員霍利更是提出《2025年美國人工智能能力與中國脫鉤法案》,禁止從中國進口或向中國出口人工智能技術,即便開源模型也無任何豁免。④
在DeepSeek引發的全球人工智能變局下,中國人工智能立法何去何從尤需慎重。2024年全國兩會期間,多位政協委員提出我國宜盡快啟動人工智能立法。⑤2024年5月,國務院再度將“人工智能法草案”列入預備提請全國人大常委會審議項目。可見,中國應當制定怎樣的人工智能法,是立法者、監管者和學術界亟待回答的問題。⑥人工智能立法的推進是一項龐大的體系化工程,絕非短時間內可以完成,而DeepSeek也再次證明技術發展的不確定性,故有必要先就其中基礎、緊迫事項展開研究。立足于人工智能的不確定性,中國的產業發展與制度環境以及國際合作和競爭需求,本文提出促進型立法的應然立場,繼而在此基礎上就監管規范作前瞻厘定,加快形成全球人工智能治理的中國方案,發出中國聲音,貢獻中國智慧。
對于任何監管立法而言,內在的基本價值取向是首先應當明確的,只有在基本價值的指導下才可能產生法律規范體系。⑦當然,不同的價值取向會導向差異化的法律規范體系。過往出現的新興科技都會面臨一對核心矛盾,即如何把控技術帶來的社會失序、私權侵犯風險與技術應用帶來的經濟促進、社會發展之間的平衡。由于前所未有的技術變革,各國在處理人工智能帶來的以上矛盾時,遭遇到全新、巨大的智識挑戰,從而產生不同的價值取向,對監管立場形成影響。
(一)科技監管的三大基本價值
審視過往科技監管的規范和實踐,可發現普遍存在三大基本價值,即私權保護、國家安全和產業發展,三者權重比在不同技術、不同階段上有特定表現,由此形成不同監管立場。人工智能也面臨以上價值取向的抉擇,但其類人性、不確定性等特征,會對以上基本價值形成全新挑戰,進而改變三者的權重比,影響監管立法的立場。
其一,私權保護。權利與新科技相關聯。①自現代文明以來,一旦出現新興技術都會對既有權利格局進行重塑。回溯《道路交通法》《勞動法》等監管立法的出現,一定程度都是受到新興技術對權利的侵擾而發展起來的。從這個角度講,人工智能的崛起以及隨之而來的監管,可能是一種常規動作。但事實上,人工智能所引發的私權侵犯有明顯差異:首先,人工智能具有類人性特征,可模擬人類理性,像人一樣參與到社會活動之中,引起社會關系的產生、變動和消滅,②由此對基于法律主體的私權保護構成根本性挑戰;其次,人工智能通過“人機交互”在具體場景中應用,導致人與機器的作用機制、責任歸屬無法準確區分,私權保護的義務主體難以確定,面臨著嚴重的空置風險;最后,人工智能尤其是生成式人工智能,可從整體上重塑人類社會,推動AI原生時代的到來。③AI原生時代下,人工智能的數據偏差、算法歧視等問題會滲透至整個人類社會,造成更加隱蔽和規模化的私權侵犯。
其二,國家安全。依據發展經濟學理論,我國的經濟騰飛系后發優勢,但后發優勢并非永久可用,會隨著技術差距逐步縮小直至消失殆盡。④就人工智能領域而言,我國總體處于部署應用環節,底層技術主要來自國外的開源代碼。數據顯示,我國人工智能的總體發展緊隨美國之后,數字經濟水平也位居世界前列,⑤但事實上,我國國家安全始終面臨著現實威脅。以智能算力為例,我國雖部署了“東數西算”工程,建立了八個國家樞紐節點并積極研發國產芯片,但高性能芯片仍高度依賴進口。一個實例即美國《芯片法案》的出臺,直接造成大模型訓練的算力價格飆升,提高了中小型企業進入相關市場的門檻。⑥除外部威脅外,人工智能本身如不加以控制,也將會對個人權益、社會秩序和國家安全造成嚴重挑戰。中國人工智能學會《大模型技術(2023)》指出,大模型技術存在偏見歧視、錯誤生成、倫理道德等技術風險以及用戶過度依賴、惡意攻擊下安全風險等衍生風險。因此,人工智能的監管立法不僅要考慮私權保護,還應當以維護國家安全為出發點。
其三,產業發展。隨著人類認識和改造世界的能力提高,科學技術在社會發展中占有越來越重要的地位,人工智能已成為拉動數字經濟增長的主要力量。2024年政府工作報告明確指出,數字經濟創新發展要深化人工智能研發應用,開展“人工智能+”行動,打造具有國際競爭力的數字產業集群。由此可見,要實現數字經濟發展方式的升級,必須積極培育人工智能產業,加快形成新質生產力。事實上,產業發展并非傳統法律規范的重點,而是一般由政策性文件予以考慮,但對人工智能監管立法來講,產業發展亦是當然考量。《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》)第二章“技術發展與治理”中的多個條款均有體現,如第5條規定:“鼓勵生成式人工智能技術在各行業、各領域的創新應用,生成積極健康、向上向善的優質內容,探索優化應用場景,構建應用生態體系。”
(二)價值取向下的監管立場評析
以上三大基本價值的不同取向,將會改變三者的權重比,由此形成差異化的監管立場。這種差異化主要表現在規范回應狀況、義務規范密度以及私權保障方式三方面,其中規范回應狀況可從規范出臺的即時性、規范內容的科學性、規范執行的成本等三方面評估;義務規范密度主要是監管立法中強制性義務條款的分布情況;權利保障的方式較為豐富,包括保障主體、保障時點、保障依據和救濟形式等方面。通過分配三者的權重比,國際社會在人工智能監管立法上形成三種不同立場,明確各個立場的特點和不足,對于后文促進型立場的論證是必要的,能夠作為參照系。
其一,自愿型監管。該立場主張將促進產業發展作為首要價值,避免監管立法對科技企業造成嚴重負擔,影響國際競爭力。美國是該立場的信徒。一方面,美國在人工智能要素方面具有顯著優勢,如以英偉達公司為代表的芯片公司獨占高端芯片的生產能力,這使得其成為人工智能的技術輸出國,監管面向的是內部治理對象。另一方面,在美國自由理念下,大型企業還會通過游說、聽證等途徑,推動立法朝著利于產業發展的方向前進。這種立場的特點如下:(1)規范回應狀況較為滯后。至今,美國既沒有類似GDPR的數據統一立法,聯邦層面也未真正動議綜合的人工智能法案。聯邦貿易委員會、平等就業機會委員會和國家標準與技術研究院等機構傾向于適用現有立法監管人工智能,而不是制定新的人工智能法。(2)義務規范密度較低。監管規范多是原則性條款,無法律強制約束力。比如,《權利法案藍圖》規定了安全有效的系統、算法歧視保護、數據隱私保護、知悉和解釋以及可替代機制等五大原則,但這些原則提倡而不是要求服務提供者、部署者以權利保護為目標。(3)權利保障方式主要采用司法個案式。美國人工智能領域發生多起糾紛,如兩名作家對OpenAI公司發起版權集體訴訟,指控后者未經授權利用自身享有版權的圖書訓練ChatGPT。目前,這些糾紛主要通過司法裁判的方式處理,并以判例形式影響產業界。總之,自愿型監管的重點在于保護國家層面的產業優勢,前述美國副總統萬斯的“去監管”主張在本質上是一致的。然而,大模型存在知識幻覺、算法歧視、解釋黑箱等風險,人類不能放任技術狂飆。AI教父Hinton就曾公開指責萬斯,認為其對技術風險一無所知,監管也不會扼殺AI,我們需要開發AI,但必須確保安全。①
其二,嚴格型監管。該立場在三大基本價值中更重視私權保護與國家安全,對科技企業提出諸多合規要求。歐盟是該立場的代表。數字時代以來,歐盟在關鍵技術、數據積累、人才儲備等方面表現出明顯劣勢,成為技術及產品的輸入地存在,而進入歐洲的人工智能產業又主要來自美國。②換言之,歐盟人工智能監管面向的主要是以美國企業為主的外部治理對象,所以出于保護公民利益、國家安全以及歐洲單一市場的考慮,其選擇維持GDPR以來的嚴格監管。其特點如下:(1)規范回應狀況極為主動。《AI法案》的最初版本并未涉及大模型技術,但ChatGPT出現后,法案后續做了緊急修正,比如第52條規定的額外透明度要求。③(2)義務規范密度較高。GDPR的第二章到第四章涉及諸多義務條款,如第12條規定,“對于第11(2)條所規定的情形,當數據主體請求其行使第15至22條的權利,控制者不應拒絕,除非控制者能夠證明其并不適宜識別數據主體”。《AI法案》亦是如此,將人工智能系統的風險分為不可接受風險、高風險、有限風險和最小風險,并依次設置相應的合規義務。(3)權利保障方式多樣。權利保障主體方面,既有行使監管權的行政機關也有行使請求權的私主體。權利保障時點方面,《AI法案》對高風險的人工智能提出了全生命周期的合規義務。權利救濟形式方面,《AI法案》第71條規定了不同情形下的行政處罰,如不遵守第5條提到的禁止性規定,將被處以最高3500萬歐元或企業上一財政年度全年總營業額7%的罰款。①概言之,嚴格型立場的重點在于保護公民私權和國家安全,盡可能地使人工智能朝著安全、可信方向發展。但不可否認的是,此舉與人工智能的不確定性相悖,過于嚴格的監管導致企業合規負擔過重,在技術創新和突破方面“畏手畏腳”。故此,法國總統馬克龍在巴黎人工智能行動峰會上建議削減新立法、推動公私投資,必須與其他國家重新同步。實際上,歐盟委員會之所以撤回《人工智能責任指令》《電子隱私條例》,也是認識到嚴格型監管的問題,強調這一轉變不僅是對產業界呼聲的回應,也是數字化時代監管模式調整的必要選擇。②
其三,回應型監管。該立場旨在在三大基本價值中尋得一種平衡,傾向于針對特定場景下的人工智能進行監管,中國目前的實踐便是如此。雖然中國國家層面尚未制定統一的《人工智能法》,但該領域的監管立法早已有之,如《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》《暫行辦法》等,這些規范的調整對象均有場景化特點。③有學者指出,中國科技立法一向采用“小快靈”模式,即調整對象精準、立法過程迅速、條文切實管用。④本文深表贊同。該立場的特點有別于前兩者:(1)規范回應狀況的選擇性積極。立法者對人工智能技術前沿始終保持關注,但不盲目地對技術進行監管回應,而是先考慮其應用場景、潛在風險、治理需求等內容。2018年GDPR生效不久后,國際社會圍繞個人數據治理進行了浪潮式的理論研究,最終一致認為數據立法具有重要意義,中國才于2021年發布《個人信息保護法》。(2)義務規范密度的靈活性變動。不同場景下的技術風險具有差異,基于特定場景的監管立法會出現義務規范密度靈活變動的情況。比如,《個人信息保護法》借鑒對象是GDPR,所以義務規范密度相對較高。⑤相比之下,《暫行辦法》作為世界上第一部實質生效的規范文件,幾乎未受比較法的影響,義務規范條款明顯較少。(3)權利保障方式的行政化主導。“小塊靈”立法模式對規范回應速度有較高要求,通常會出臺行政法規或部門規章,甚至地方性規章,而這些規范的行政色彩突出。⑥人工智能領域的現有規范主要是部門規章,這使得它們在權利保護方面更依靠行政途徑。盡管回應型監管對私權保障、國家安全及產業發展有一定積極作用,但其無法進行系統治理,難以用于跨場景(通用)的人工智能。長遠來看,很容易出現重復立法、立法沖突的問題,也會使規范喪失包容性,不能有效應對技術迭代。
綜上所述,現有三種立場均有各自特點和缺陷,在DeepSeek掀起的新一輪人工智能競賽中,中國人工智能立法應當選擇哪種立場,抑或是重新確定一種立場,都必須立足于本土化的治理需求,如此方能在私權保護、國家安全和產業發展之間找到適合本國的平衡點。
立足于人工智能的不確定性,中國的產業發展與制度環境以及國際合作和競爭需求,本文認為中國《人工智能法》宜采用一種新的促進型立場。所謂促進型立場,是指立法面對尚處于發展初期、具有高度不確定性的人工智能技術,在價值立場上要提高產業發展的比重,①盡量制定原則性、促進性、柔和性的法律條款,實施包容性治理。事實上,人工智能立法以促進發展為目標的主張,已得到主流觀點的認可,只不過其背后的正當性支撐及應然遵循有待充分闡釋,這也是本部分的核心任務。
(一)促進型立場的正當性論證
依據馬克斯·韋伯的“理想類型”理論,一個社會的“理想類型”應具備意義和因果的妥當性,為此需要闡述其內涵使人理解,并說明其因果使人信服。②當判斷某種立場是否為一國立法“理想類型”時,一方面需要考慮該立場是否符合調整對象的特性,另一方面還應結合國情審視其能否滿足本土治理需求。基于此,可就促進型立場展開正當性論證。
其一,人工智能的不確定性要求立法具有前瞻性與靈活性,而促進型立場對原則性條款的提倡可滿足這一點。因由人工智能技術的快速迭代特質,技術發展與潛在風險呈現高度的不確定性,與傳統立法的確定性、穩定性及相對滯后性形成鮮明對比。人工智能立法需具有前瞻性和靈活性,采用一定的開放式結構,以接納技術的不確定性。有學者將人工智能的不確定性細化為三方面,即技術發展給調整對象帶來的不確定性、技術迭代給調整的社會關系帶來的不確定性以及技術發展帶來的風險的不可預見性,并指出,人工智能立法需容納并適應人工智能的高度不確定性。③對此,本文深表贊同。事實上,人工智能的不確定性對立法前瞻性與靈活性的要求,已在域外立法中有所表現,如《AI法案》基于當時技術對人工智能作了統一定義,但以ChatGPT為代表的大模型出現后,直接引發緊急修正。而DeepSeek相比于數據驅動的大模型而言,在技術上使用了混合專家模型(MOE)、群體相對策略優化(GRPO)和多頭隱式注意力(MLA),實現架構意義上的突破,這是否會引發法案的再次修改,目前尚未可知。又如,過往實踐中平臺是治理核心,但生成式人工智能形成“基礎模型—專業模型—服務應用”的分層業態,直接改變了平臺為核心的治理體系。④促進型立場清楚地認識到人工智能的不確定性,故而提倡盡量制定原則性條款,實施包容性治理,由此預留出足夠空間。
其二,中國產業發展的獨特國際地位需要立法提供規范助力,促進型立場恰恰強調提高產業發展的價值比重。不同于傳統立法,人工智能立法很大程度上受產業發展的影響,如美國人工智能產業處于世界領跑者地位,所以其采用了自愿監管,以防阻礙人工智能產業的自由發展,進而影響其國際主導地位;歐盟人工智能產業相對薄弱,所以其采用了嚴格監管,意圖通過立法的溢出效應在全球人工智能治理賽道上形成規范優勢。相比之下,中國產業發展處于“世界領先的追趕者”的獨特地位。一方面,中國人工智能產業在數據、算法、算力等多個領域處于世界前列,部分領域僅次于美國,如全球算力規模方面,美國占比為34%,中國已達到33%,排名第三的歐洲僅有17%。⑤另一方面,中國人工智能產業的綜合實力較美國還有明顯差距,具有迫切的追趕需求。⑥因此,中國人工智能立法必然要強調促進發展的立場。有學者提出,站在打造現代化產業體系、推動新質生產力發展的高度,應當制定出臺人工智能促進法。①本文部分贊同。《人工智能法》不宜簡單等同于促進法,還應把私權保護和國家安全這兩大基本價值納入考量。本文主張的促進型立場建立在安全底線的基礎上,即將私權保護和國家安全也通過產業發展實現。
其三,中國人工智能的戰略政策、既有規范等制度環境無不表現著對技術發展的需求,而促進型立場同樣提倡盡量制定促進性、柔和性條款以助推產業發展。本土制度環境是立法的必要考量因素,包括“一個組織所處的法律制度、文化期待、社會規范、觀念制度等等為人們‘廣為接受’的社會事實”②。其中,最具有代表性的是戰略政策和既有規范,兩者分別映射著一國的政治環境和規范環境。基于此,可發現中國本土制度環境表現出技術發展的傾向。首先,戰略政策層面,國務院印發的《新一代人工智能發展規劃》明確將人工智能上升到國家戰略層面,并確立了三步走的發展戰略;其次,既有規范層面,國家網信辦、科技部等七部門印發的《生成式人工智能服務管理暫行辦法》第3條規定,國家堅持發展和安全并重、促進創新和依法治理相結合的原則,采取有效措施鼓勵生成式人工智能創新發展。同理,促進型立場之所以提倡盡量制定促進性、柔和性條款,也是為順應產業發展的需求,避免過于嚴格、剛性的條款一刀切地“管死”尚處于發展初期的人工智能,無疑與中國本土制度環境內在契合。
其四,人工智能是國際合作與博弈的時代焦點,一定程度上決定著一國的國際命運,為此人工智能立法應當具有域外視野,能夠回應全球人工智能治理。促進型立場將產業發展放在優先位置,有利于增強中國人工智能產業在國際市場中的競爭力,進而為中國參與乃至領導全球人工智能治理增加籌碼。無論是美國的自愿監管還是歐盟的嚴格監管,都是為了最大限度發揮各自優勢,搶占國際人工智能治理的主導權。同理,中國人工智能立法毫無疑問也應是一部面向世界的法律,能夠統籌域內和域外兩個方面,充分發揮治理規則的溢出效應與國際影響。③促進型立場在國際合作與國際博弈兩個維度,有利于塑造中國人工智能治理的話語體系。在國際合作層面,促進型立場提倡原則性、促進性、柔和性條款,使得立法具有包容性,能夠平等對待各國人工智能技術及產品。在國際博弈層面,促進型立場將產業發展的價值比重提高,可通過稅收優惠、人才激勵、資源共享等促進性條款助力本國科技企業的技術研發與產品應用,從而在國際人工智能市場競爭中脫穎而出。總而言之,促進型立場不但使立法為國內人工智能產業發展提供規范支撐,更能最大化發揮中國立法的制度溢出效應,打造體現中國主張與中國理念的國際治理名片。
(二)促進型立場的應然遵循
明確《人工智能法》宜采用促進型立場的基礎上,需進一步從整體層面闡釋在該立場下的應然遵循,一方面使促進型立場的抽象內涵相對具體化,另一方面也為后續立法工作提供指引,切實推動促進型立場的貫徹。基于矛盾分析原理,理應秉持優先解決主要矛盾的思維,重點從監管主體、監管對象及監管手段三方面進行論述,并同時糾正實踐做法。
其一,監管主體方面應超越全流程式行政監管,實施多元主體的跨部門協同監管。如前述,中國回應監管實踐中存在行政化主導情況,這種行政監管主要是由事前許可、事中督查和事后處罰構成全流程式監管。這種監管模式建構于工業時代,但在數字時代下已不再完全適應,理由有三:一是風險的不確定性,數字技術帶來的風險形態不再是行政機關依照過去經驗所能完全預見;二是信息的不對稱性,人工智能算法以黑箱化運行,只能看到輸出結果而不知輸入信息和計算過程,但全流程式行政監管以信息對稱為基礎,一旦信息匱乏則監管效果大打折扣;三是人工智能技術尚處于初期階段,技術發展過程中難免對現有倫理、規范、秩序形成沖擊,但這是社會進步的必要代價。①全流程式行政監管看似有利于保護權利,但從長遠看,可能造成中國落后于其他國家。促進型立場主張實施多元主體的跨部門監管。面對風險的不確定和信息的不對稱性,不能僅依靠行政力量,還要調動司法部門、行業組織、科技企業、私人等其他主體力量,并借助數字平臺進行信息共享、業務協作,實現跨部門監管。跨部門監管的優勢在于,可綜合運用倫理審查、行政處罰、民事賠償、刑事制裁等措施,實現針對治理、有效治理。
其二,監管對象方面不宜把重心放在技術本身,而應轉向技術應用。中國回應監管實踐中針對的場景治理對象,是以技術本身為重心的,區分了服務推薦算法、深度合成算法與生成式人工智能。但這種思維并不適合《人工智能法》,作為人工智能治理的“基本法”,其監管對象理應具有抽象性、概括性,否則與下位法別無二致。目前,多數學者主張《人工智能法》的監管對象既不是作為構成要素的數據或算法,也不是特定類型的人工智能技術,而是人工智能系統。②本文持不同意見。人工智能系統仍未擺脫技術本身的監管思維,以其為重心固然有別于《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》《暫行辦法》等分散立法,但難以適應人工智能的不確定性。這一點在《AI法案》推進過程中已有體現,該法案將人工智能系統作為監管重心,結果招致法、德、意三國的聯合抗議,后者發表聲明稱:“法案應重點規范人工智能的應用,而不是技術本身。”③促進型立場主張將重心放在技術應用上,一是對成熟技術產品進行監管。如果技術處于研發或試錯階段,那么產品的形態、功能及市場接納度等因素相對不穩定,不必過早地規制。二是對關鍵技術產業進行監管。促進型立場并不是要放棄對人工智能的監管,而是主張基于比例原則,對涉及民生、國家安全等關鍵領域的技術產業進行重點監管。因此,對于DeepSeek這樣尚在初期的基礎模型,無須過早地監管或介入,而應當給予相應政策予以扶持。
其三,監管手段方面不能局限于法治領域,應當兼顧技術原理的可行性,融合“法治”與“技治”。傳統監管手段主要屬于法治領域,圍繞權利歸屬、義務分配等制度設計展開,比如要求行為人進行信息公開、事前備案、承擔說明義務。但以上手段用于人工智能監管時,易因未考慮技術原理的可行性,出現監管失效或要求過當的情況。如美國《關于安全、穩定和可信的人工智能行政命令》將監管限定在浮點算力10^26次方以上的大模型,但目前沒有大模型可達到該標準,監管措施實際上是無效的。又如,中國《生成式人工智能管理辦法(征求意見稿)》第7條第(4)項要求“能夠保證數據的真實性、準確性、客觀性、多樣性”,這在技術層面有所過當,后修改為“采取有效措施提高訓練數據質量,增強訓練數據的真實性、準確性、客觀性、多樣性”。促進型立場正是基于此,主張融合“法治”與“技治”。一是法律制度設計時,應考慮技術上是否可行。以算法可解釋為例,多數研究將其作為必要監管手段,要求服務提供者承擔解釋義務,但少有論者分析算法在技術層面能否解釋、解釋程度、解釋成本等問題,導致算法可解釋淪為“口號”④。相比之下,促進型立場的算法可解釋是結合算法類型、解釋條件、解釋時限等內容進行的制度設計;二是引入數字技術進行賦能。治理人工智能不能僅采用傳統監管手段,要善用數字技術進行賦能。有學者亦指出,人工智能治理需要算法影響評估、算法認證等一系列技術性工具。⑤
作為人工智能治理的“基本法”,中國《人工智能法》的制定絕非易事。因此,現有研究在論及《人工智能法》如何推進時,均采用了宏觀的敘事路徑,如侯東德就人工智能法的屬性、立法目的、調整對象等基本問題作了分析。①陳亮從對象內涵、本質屬性和理念追求三方面,嘗試確立人工智能立法體系化的識別標準。②因牽頭起草《人工智能法(學者建議稿)》(以下簡稱《建議稿》)的緣故,張凌寒在該方面有豐富經驗,圍繞立法目標、主旨、框架、制度、進路對《人工智能法》作了系統概述。③可見,現有研究未采用“一步到位”式的立法推進,而力求優先明確《人工智能法》的大體框架。本文認為除框架外,未來立法的重點議題也亟待厘定,且能與框架形成呼應,避免現有研究過于空泛化、原則化。《人工智能法》亟須厘定的重點議題有三,即性質定位、權利規定及損害歸責,其中前者關乎立法的價值取向、調整方法等內容以及章節布局,后兩者則是一切立法的核心內容。
(一)《人工智能法》的性質定位
古羅馬法學者很早劃分了公法與私法兩種類型的立法,并對后世法學的發展產生深遠影響。對于中國《人工智能法》究竟是公法還是私法的問題,學界在“公私二分”理論下分化出不同陣營。有觀點指出,使用人臉識別技術處理個人信息這一典型的涉智行為已被司法解釋納入私法意義上“信息處理者侵害自然人個人信息權益”④。但也有觀點主張,利用人工智能進行的不正當競爭、刑事犯罪還是依靠《刑法》《反壟斷法》等公法進行規制。⑤以上觀點均有一定道理,同時也說明人工智能立法的特殊性。
于是,部分學者嘗試突破“公私二分”理論,對人工智能立法進行新的界定,如侯東德指出人工智能法總體上宜定位為公法,同時又涉及私人利益,最終應定位為兼具私法屬性的公法。⑥又如,陳吉棟通過觀察技術不平等及相應的信任關系,發現人工智能主體及其利益關系呈現出超越傳統公私法范疇的融合景象,主張立法性質應為公私融合。⑦以上兩種觀點均是通過打破公私法的界限,對《人工智能法》進行定位,一定程度上回應了該法的特殊性,但依然面臨著兩大詰難:一是在公私融合的基礎上,如何處理《人工智能法》的章節布局,要有多少條文屬于公法或私法等;二是隨著時代發展,傳統意義上的公私法已出現融合趨勢,即“公法私法化”(如行政契約)和“私法公法化”(如無過錯原則)。⑧如此一來,公私融合的主張喪失了界定意義,一方面需要進一步明確人工智能法是“公法私法化”還是“私法公法化”,另一方面亦未表現出人工智能法與傳統立法的不同。
之所以出現以上問題,歸根到底是因為在部門法基礎上的公私法劃分的三大標準(主體、利益、關系)對于人工智能法均已失效,導致“二分”或“融合”都不能妥善處理。首先,主體說認為,法律關系的主體有一方代表國家或公共權力的就是公法,法律關系主體雙方都是私人的則是私法。在促進型立場上人工智能法涉及的主體具有多樣性,包括但不限于監管機構、平臺企業、行業組織、私人主體,且彼此還會出現混同。①其次,利益說認為,旨在維護公共利益的屬于公法,維護私人利益的則屬于私法。但促進型立場的人工智能法保護的利益具有多元性,既有私人權利也有國家安全,甚至是產業發展這樣兼具私人利益與公共利益的情況。最后,關系說認為,調整管理與被管理法律關系的是公法,而平等法律關系則是私法。但促進型立場的人工智能法調整的法律關系具有復合性,如圍繞技術產品形成的有監管機構與產品企業的管理與被管理的法律關系,也有產品企業與產品用戶的平等法律關系以及管理與被管理的法律關系。②可見,《人工智能法》需要一種特殊定位,以契合其主體多樣性、利益多元性、關系復合性的特點。
領域法可能是最優選擇,其主張以問題為導向,融合傳統部門法學、經濟學、政治學和社會學等多種研究范式于一體,具有交叉性、整合性、集合性特征。③簡言之,領域法是以交叉問題提煉出的領域為調整對象,通過對該領域相關聯的法律部門的規范進行提煉,并綜合運用各種研究范式,繼而形成的規范集合。④這與促進型立場的人工智能法相互吻合,正是由于領域法調整的是交叉性問題,所以才涉及諸多主體以及多元利益,進而需要整合產生的復合性法律關系,并最終集合各種規范進行綜合治理。
(二)《人工智能法》中的權利規定
權利規定應包括數據和算法兩個維度,其中數據維度分為訓練數據的合規和智能生成物的確權,算法維度則是使用者面對算法決策時的正當性權利。
其一,訓練數據的合規。人工智能的輸出能力很大程度取決于訓練數據的數量與質量。訓練數據的數量越多、質量越高,人工智能的輸出能力也會相應提升。同理,如果訓練數據帶有瑕疵或被污染,那么輸出結果也會延續這種瑕疵或污染。《人工智能法》應要求訓練數據合規,這一過程中會涉及三種權利:一是個人信息權。依據《個人信息保護法》第4條規定:“個人信息是以電子或者其他方式記錄的與已識別或者可識別的自然人有關的各種信息,不包括匿名化處理后的信息。”倘若訓練數據可以識別到具體個人,那么其實際上也是個人信息,在收集此類數據時,自然應遵守《個人信息保護法》的規定。二是數據產權。網絡空間中相當一部分的數據并不能用于識別具體個人,但同樣蘊含信息價值,如工業數據、商業數據等。學界對此類數據的確權進行了熱烈討論,形成財產權說、資產說、有限產權說等不同觀點。2022年12月,黨中央、國務院發布《關于構建數據基礎制度更好發揮數據要素作用的意見》,提出“建立數據資源持有權、數據加工使用權、數據產品經營權等分置的產權運行機制。”盡管該文件屬于國家政策,但在實踐中卻發揮著規范作用,故收集、使用訓練數據時也要遵守有關規定。三是知識產權。知識產權作為一種法定權利,對其進行保護不僅是對權利人的救濟,更是激發創新的源泉。當使用帶有他人知識產權的數據進行訓練時,必須經過合法授權或限于合理使用。此外,促進型立場的訓練數據的合規不限于收集之初,還包括事中合規和事后合規,如平臺在使用訓練數據過程中發現問題,及時進行修改或刪除,也可能作為免責事由。
其二,智能生成物的確權。智能生成物引發的權利問題在于兩方面:一是智能生成物能否享有版權。一種觀點認為,智能生成物不能認定為作品,因為其是應用算法、規則和模板的結果,不能體現獨創性,并以美國人泰勒申請登記人工智能生成的繪畫被拒為例證。⑤另一種觀點認為,智能生成物是“機器作者”與人類作者的共同創作,具有作品的思想表現形式和人格要素,應受著作權保護,并以北京互聯網法院“生成式AI第一案”判決為例證。①可見,該問題在理論和實務上都未形成統一答案,《人工智能法》亦不應給出定論。由于對該問題的判斷要基于《著作權法》關于“作品”的認定條件,故可設立準用性條款處理。二是倘若享有版權,則應當歸屬何方主體。在認可智能生成物具有版權的基礎上,應明確其生成結構是“人”與“機器”的共同創作,由此要進行第一次判斷——機器能否成為版權主體。因為人工智能不具備直覺、想象、感覺等主觀思維,并不能表達出作品所需的思想、情感,所以其不能作為權利主體。與“機器”共同創作的“人”包括技術研發者、服務提供者與使用者,由此要進行第二次判斷——由誰具體享有版權。版權是一種私權利,原則上應當由三方主體通過合同、協議等方式約定。如果未約定或約定不明的,則應當依據“實質性貢獻原則”認定,此種激勵性設計也更契合促進型立場對產業發展的強調。
其三,使用者面對算法決策的正當性權利。得益于深度學習、神經網絡的發展,算法的智能程度越來越高,但同時,算法決策也可能造成權利損害,《人工智能法》需要明確使用者的正當性權利。一是避免算法歧視的平等權。算法本質上由各種變量構成,這些變量通常是技術人員先行設計,再經由人類反饋學習算法不斷優化,過程中很容易出現歧視,如技術人員選擇算法變量時,因社會文化、價值偏好等因素不可避免地構成“既存性偏見”②。故《人工智能法》應當明確使用者的平等權,要求技術研發者、服務提供者采取合理措施保障使用者平等,盡可能避免性別、信仰、年齡等方面的歧視。③二是對抗算法黑箱的知情權。人工智能算法以黑箱化運行,即便算法存在歧視或錯誤,使用者由于只能看到輸出結果而不知輸入信息和計算過程,亦無法進行救濟。故《人工智能法》應當明確使用者的知情權,要求服務提供者提供產品和服務過程中,以適當方式提供合理、必要信息。④三是防止算法霸權的拒絕權。簡單、重復性的業務可以交由算法進行自動化決策,但復雜、新型業務是其難以單獨應對的,服務于人本身才是算法決策的最終目的。一旦對算法決策形成依賴,算法將無形中“反客為主”。故《人工智能法》應當明確使用者的拒絕權,允許其拒絕僅通過人工智能產品和服務作出的決定,要求服務提供者作出有人類參與的決定。
(三)《人工智能法》中的損害歸責
人工智能研發與應用過程中,均可能出現權利損害,由此損害歸責成為立法必須回應的議題。該議題下有四方面內容需明確,即追責主體、責任主體、追責原則及責任減免規則。
其一,追責主體。依據一般法理,可以對人工智能損害進行追責的主體,包括三類:一是權利受損的私主體。享有權利的私主體如果因人工智能的研發與應用受損,理應能夠提出追責以還原權利原貌。二是承擔監管職責的機構。作為人工智能的監管機構,一旦發現技術研發與應用過程中出現權利損害或其他違規情況,自然應當進行追責。目前,對于人工智能的監管機構尚有爭論,有觀點主張參照《AI法案》新設專門機構統籌負責全國范圍內的智能治理,也有觀點認為應分行業分領域由各部門監管。⑤基于促進型立場,《人工智能法》應設立專門機構,一方面統領多元主體的跨部門協同治理,另一方面通過內設法律規范、科技倫理、技術標準等部門,切實融合法治與技治。三是有權提起公益訴訟的主體。因人工智能具有專業性和復雜性,私主體在面臨人工智能侵權時,往往缺少平等對抗的訴訟能力,可由檢察院、消費者組織或監管機構確定其他組織提起公益訴訟。
其二,責任主體。關于人工智能侵權的責任主體,存在兩點爭論:一是人工智能能否獨立承擔法律責任。國內外學界形成三種觀點。(1)肯定說。該說認為強人工智能具有辨認能力和控制能力,對于由其引發的損害理應承擔責任。(2)否定說。該說認為人工智能沒有意識,只能作為法律權利和義務的客體。(3)折中說。該說認為,人工智能雖有獨立自主的行為能力,但承擔行為后果的能力有限。當下,否定說雖占據上風,但其他兩種學說仍有相當數量的支持者,如歐盟《機器人技術民事法律規則》為人工智能創設了“電子人格”。基于權利部分的論證,本文認為,人工智能不可作為獨立的責任主體,立法應當在法律主體之間確定責任主體。《新一代人工智能倫理規范》亦要求堅持人類是最終責任主體。二是法律主體之間的責任如何分配。人工智能研發與應用過程中,涉及的法律主體有技術研發者、服務提供者和使用者,相關責任如何在三者之間進行分配的問題,學界尚未形成共識,亦無法律規范作為指引。①對此,《人工智能法》應當結合三方主體各自義務及實質行為,對責任分配問題作出回應。②
其三,追責原則。由于不同類型人工智能的風險不同,且在具體應用場景也有差別,技術研發者、服務提供者及使用者又承擔差異化義務,導致難以適用統一的追責原則。歐盟《人工智能責任指令》采用了過錯原則,同時考慮到人工智能的復雜性、專業性與技術性,又設置了“因果關系推定”,即當一個相關過錯和損害被證明,且可以合理地認為該過錯影響人工智能的輸出或無法輸出,則推定該過錯與人工智能的輸出或無法輸出存在因果。就國內而言,有學者認為人工智能承擔侵權責任時,一般不論其主觀過錯,該責任應當是一種嚴格責任。③中國社會科學院課題組發布的《人工智能示范法2.0》(以下簡稱《示范法》)采用了過錯推定原則,即“研發、提供的人工智能侵害個人權益造成損害,應當承擔損害賠償等侵權責任,但研發者和提供者能證明自己沒有過錯的除外”④。《建議稿》則區分一般人工智能與關鍵人工智能,前者適用過錯原則,后者則是過錯推定原則。⑤基于促進型立場,《人工智能法》宜參考《建議稿》的做法,區分適用過錯原則和過錯推定原則,避免施加過重負擔進而影響產業發展。
其四,責任減免規則。為確保法律責任分配符合公平正義,并促使行為人積極采取行動預防或減輕損害,立法通常會規定責任減免規則。促進型立場的《人工智能法》亦應設置責任減免規則,因為人工智能技術具有不確定性,任何企業都無法保證始終合規,立法需要留出適當空間。《示范法》較此前版本的一個重要更新,正是明確責任減免規則,避免過重合規負擔影響產業發展預期。《示范法》第71條規定:“以免費且開源的方式提供人工智能研發所需的部分代碼模塊,同時以清晰的方式公開說明其功能及安全風險的,不承擔法律責任。免費且開源提供人工智能的個人、組織能夠證明已經建立符合國家標準的人工智能合規治理體系,并采取相應安全治理措施的,可以減輕或免于承擔法律責任。”《建議稿》第93條亦設置了合規免責條款:“人工智能開發者、提供者、使用者建立人工智能風險合規制度并且切實執行,同時主動配合調查、整改、認罰的,可以減輕或者免除單位以及直接負責的主管人員和其他直接責任人員的行政處罰。人工智能開發者、提供者建立人工智能風險合規制度并切實執行同時主動認罪認罰的,可以減輕或者免除單位以及直接負責的主管人員和其他直接責任人員的刑事處罰。”基于此,《人工智能法》可從“開源”與“合規”兩方面設置責任減免規則。
人工智能立法是一個復雜而漫長的過程,需要在私權保障、國家安全與產業發展三者之間進行權衡。立足于人工智能的不確定性,并結合中國產業發展的獨特國際地位、制度環境以及國家合作與競爭的需求,本文認為采用促進型立場,對人工智能實施包容性治理,可以更好地把握DeepSeek帶來的機遇,早日實現“追趕者”到“規則制定者”的角色轉變。從監管主體、監管對象及監管手段三方面看,促進型立場相較于回應監管的實踐有一些特殊表現,《人工智能法》應當格外注意。可以肯定的是,在《人工智能法》的推進過程中,會有諸多議題需要一一解決,但規范定位、權利規定及損害歸責必然是重中之重。隨著數字技術的發展,《人工智能法》的出臺恐怕不會太遠,本文僅是論及立法推進中的部分問題,未來還應進一步研究《人工智能法》的立法模式、《人工智能法》與《個人信息保護法》《數據安全法》《暫行辦法》等規范的銜接以及硬性立法與柔性倫理的融貫。總而言之,中國在法律位階層面應當有一部《人工智能法》,為產業發展保駕護航,打造人工智能治理的中國方案和話語體系。
① 網絡上流傳的DeepSeek-R1僅557.6萬美元的成本,存在一定誤導性。該數字最早出現在DeepSeek-V3(類似R1前身)的技術報告中,而且原文也指出其是基于當前市場價格估算的算力成本,所以SemiAnalysis報告中以研究人員薪資約100萬美元提出的質疑,本身也是被誤導了。See Abraham T, “Debunking DeepSeek Delusions”, GitHub, 2025-02-05, https://www.tanishq.ai/blog/posts/deepseek-delusions.html。
② 尹振茂:《世界人工智能發展史上新的標志性事件》,中國基金報,2025年2月13日,https://www.chnfund.com/arti? cle/AR8fa9327a-5040-d7bb-a5f8-3a180f15a2f1。
① 參見樊文揚:《多國封禁DeepSeek?外交部:反對將科技問題政治化》,南方都市報,2025年2月6日,https://www. nfnews.com/content/EynPr4lJ6Z.html。
② “布魯塞爾效應”指歐盟通過其單方面的市場規制能力,在無需其他國家、國家機構協作的情況下,制定出全球市場遵循的規章制度。這種規則制定能力引領了全球商業環境的形成,導致許多全球商業重要方面的“歐洲化”。
③ See Roose K,“5 Notes From the Big A.I. Summit in Paris”,The New York Times, 2025-02-10,https://www.nytimes. com/2025/02/10/technology/ai-summit-paris-technology.html.
④ See Hawley J,“Decoupling America’s Artificial Intelligence Capabilities from China Act”,United States Congress,2025-01-29,https://www.congress.gov/bill/119th-congress/senate-bill/321/text.
⑤ 參見胡銘、洪濤:《我國人工智能立法的模式選擇與制度展開——兼論領域融貫型立法模式》,《西安交通大學學報(社會科學版)》2024年第4期,第132頁。
⑥ 參見丁曉東:《全球比較下的我國人工智能立法》,《比較法研究》2024年第4期,第51頁。
⑦ 參見陳吉棟:《公私交融的人工智能法》,《東方法學》2024年第2期,第66頁。
① 李宏弢:《數字法學發展的法文化邏輯》,《華東政法大學學報》2024年第4期,第84頁。
② 參見鄭志峰:《人工智能立法的一般范疇》,《數字法治》2023年第6期,第57頁。
③ 據中國信通院報告,AI原生以AI為核心,對軟件構建、用戶交互方式等環節進行重構,相關應用完全由AI打造,具備高效、精準、便捷、自動化等原生特點。
④ 參見林毅夫:《后發優勢與后發劣勢——與楊小凱教授商榷》,《經濟學(季刊)》2003年第4期,第992頁。
⑤ 據中國信息通信研究院發布的《全球數字經濟白皮書(2023)》,中國在全球AI大模型的占比已超過1/3,達到36%,僅次于美國的44%。在全球AI企業數量上,中國以15%的占比緊隨美國之后,位列第二。
⑥ 參見洪濤、程樂:《全國算力體系一體化建設的五大問題及治理對策》,《中國科學院院刊》2024年第12期,第2089頁。
① See Guerrera A, “Senza vincoli è un’arma terribile”, la Repubblica, 2025-02-12, https://www.repubblica.it/econo? mia/2025/02/12/news/intelligenza_artificiale_vertice_parigi_geoffrey_hinton_intervista-423997052/.
② 例如,歐盟大約70%以上的云服務由美企提供,《數字市場法》首次指定的六家“看門人”企業中有5家是美國大型企業,即Alphabet、亞馬遜、蘋果、Meta和微軟。
③ See Helberger N, Diakopoulos N, “ChatGPT and the AI act”, in Internet Policy Review, 2023, Vol.12,No.3,pp.1-6.
① See Johann L, Wachter S, Mittelstadt B, “Trustworthy Artificial Intelligence and the European Union AI Act: On the Conflation of Trustworthiness and Acceptability of Risk”,in Regulation Governance, 2023, Vol.18,No.1,pp.3-32.
② See “Commission work programme 2025”, European Commission, 2025-02-11, https://commission.europa.eu/publica? tions/2025-commission-work-programme-and-annexes_en.
③ 《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》中有很多條款保持了一致,但由于治理對象的場景化差異,三者并非隸屬關系而被視作人工智能治理的“三大規范”。
④ 張凌寒:《中國需要一部怎樣的〈人工智能法〉?——中國人工智能立法的基本邏輯與制度架構》,《法律科學(西北政法大學學報)》2024年第3期,第17頁。
⑤ 參見程嘯:《論我國個人信息保護法的基本原則》,《國家檢察官學院學報》2021年第5期,第14—15頁。
⑥ 參見張慧紅、李晶、譚天:《“小快靈”立法工作機制的實踐和完善》,《法治時代》2024年第4期,第58頁。
① 促進型立場雖然強調提高產業發展的比重,但并不意味著忽略私權保護和國家安全,此三者是任何立法都要考慮的基本價值,但要結合實踐情況和發展階段調整內在權重比。簡言之,促進型立場就是要把產業發展的比重提高,這是因為發展是私權保護、國家安全的保障,不發展就是最大的不安全。
② 參見馬克斯·韋伯:《社會科學方法論》,李秋零等譯,北京:中國人民大學出版社,1999年,第32頁。
③ 張凌寒:《中國需要一部怎樣的〈人工智能法〉?——中國人工智能立法的基本邏輯與制度架構》,《法律科學(西北政法大學學報)》2024年第3期,第5頁。
④ 張凌寒:《生成式人工智能的法律定位與分層治理》,《現代法學》2023年第4期,第128頁。
⑤ 參見中國信息通信研究院:《中國算力發展指數白皮書(2023)》,中國信通院官網,2023年9月,http://www.caict.ac. cn/kxyj/qwfb/bps/202309/t20230914_461823.htm。
⑥ 例如,中國人工智能技術面臨“卡脖子”難題,目前大多數算法由美國的谷歌、微軟等開創,中國核心算法原始創新成果較少。See Castro D, McLaughlin M, Chivot E, “Who Is Winning the AI Race: China, the EU or the United States?”,Center for Data Innovation, 2019-08-19, https://datainnovation.org/2019/08/who-is-winning-the-ai-race-china-the-eu-orthe-united-states/。
① 參見高志民:《以法治之力為AI技術發展保駕護航》,《人民政協報》2024年4月16日,第12版。
② 周雪光:《組織社會學十講》,北京:社會科學文獻出版社,2003年,第72頁。
③ 參見邵長茂:《人工智能立法的基本思路》,《數字法治》2023年第5期,第5頁。
① 參見許佳瑩:《風險社會條件下行政追償模式的解析與完善》,《現代法學》2024年第1期,第64頁。
② 參見陳亮:《人工智能立法體系化的困境與出路》,《數字法治》2023年第6期,第15頁。
③ See Rinke A, “Exclusive-Germany, France and Italy Reach Agreement on Future AI Regulation”, Reuters, 2023-11-18, https://reutersbest.com/germany-france-and-italy-reach-agreement-on-future-ai-regulation/。
④ 參見伊恩·古德費洛等:《深度學習》,趙申劍等譯,北京:人民郵電出版社,2017年,第269頁。
⑤ 吳陽:《人工智能法納入立法計劃背后:專家建議劃定紅線,設置負面清單》,紅星新聞,2023年6月8日,https:// static.cdsb.com/micropub/Articles/202306/ed5ea6859cdbfd574bd87544b7b5c0fe。
① 參見侯東德:《人工智能法的基本問題及制度架構》,《政法論叢》2023年第6期,第61頁。
② 參見陳亮:《人工智能立法體系化的困境與出路》,《數字法治》2023年第6期,第12頁。
③ 參見張凌寒:《中國需要一部怎樣的〈人工智能法〉?——中國人工智能立法的基本邏輯與制度架構》,《法律科學(西北政法大學學報)》2024年第3期,第12頁。
④ 《最高人民法院關于審理使用人臉識別技術處理個人信息相關民事案件適用法律若干問題的規定》第1條第1款規定:“因信息處理者違反法律、行政法規的規定或者雙方的約定使用人臉識別技術處理人臉信息、處理基于人臉識別技術生成的人臉信息所引起的民事案件,適用本規定。”
⑤ 參見姜偉、龍衛球:《數字法學原理》,北京:人民法院出版社,2023年,第379頁。
⑥ 參見侯東德:《人工智能法的基本問題及制度架構》,《政法論叢》2023年第6期,第62頁。
⑦ 參見陳吉棟:《公私交融的人工智能法》,《東方法學》2024年第2期,第63頁。
⑧ 參見胡敏潔:《從融合到尊讓:民法典時代的公法與私法》,《法治現代化研究》2023年第3期,第106頁。
① 比如,平臺企業既是提供網絡服務的私權利主體,又是承擔公共管理職責的私權力主體,呈現出公私混同的主體性質。
② 產品企業(如平臺)與個人的關系比較復雜,前者在為后者提供產品或服務的同時,又會進行行政性管理和監督。
③ 參見熊偉:《事物本質、領域區分與領域法的特性透視》,《政法論叢》2024年第1期,第15頁。
④ 參見劉劍文、胡翔:《“領域法”范式適用:方法提煉與思維模式》,《法學論壇》2018年第4期,第80頁。
⑤ 參見王遷:《再論人工智能生成的內容在著作權法中的定性》,《政法論壇》2023年第4期,第16頁。
① 參見吳漢東:《人工智能生成作品的著作權法之問》,《中外法學》2020年第3期,第669頁。
② See Friedman B, Nissenbaum H, “Bias in Computer Systems”, in ACM Transaction on Information Systems ,1996,Vol.14, No.3 pp.330-347.
③ 算法歧視很多情況下是不可避免的,因為其來自社會固有認知,所以技術無法完全禁止。促進型立場正是認識到這一點,才主張法律制度設計時,應考慮相關要求技術上是否可行。
④ 哪些信息屬于合理、必要需要斟酌,在促進型立場上相關信息應在保障知情權和避免過度負擔、維護企業商業秘密之間維系平衡,如可要求公開人工智能產品和服務的功能、目的、運行機制,但不宜包括原始代碼。
⑤ 參見劉金瑞:《生成式人工智能大模型的新型風險與規制框架》,《行政法學研究》2024年第2期,第28頁。
① 洪濤:《生成式AI嵌入社會治理的價值、風險及法治應對——以ChatGPT為例》,《法治論壇》2023年第3期,第11頁。
② 技術研發者、服務提供者及使用者三方的義務并不相同,所以責任也應有差別,如技術研發者主要從事算法設計、數據標注、模型訓練等開發活動,一般承擔數據來源合法義務、數據質量保障義務等;提供者直接面向用戶提供人工智能服務,一般承擔數據標識義務、通知和補救義務、及時受理投訴舉報義務等。
③ 參見郭少飛:《主體論視域下人工智能侵權責任承擔構想》,《地方立法研究》2023年第3期,第78頁。
④ 《人工智能示范法2.0(專家意見稿)》,網絡信息法學會,2024年4月16日,https://aisg.tongji.edu.cn/info/1005/1211. htm。
⑤ 《人工智能法(學者建議稿)》,中國法學創新網,2024年3月18日,http://www.fxcxw.org.cn/dyna/content.php?id= 26910。
[責任編輯 李宏弢]
The Promotion-Oriented Stance and Regulatory Delineation of China’s Artificial Intelligence Legislation
ZHOU Xiang, HONG Tao
Abstract: The emergence of DeepSeek does not diminish the importance of legislative regulation. On the con? trary, international competition in artificial intelligence (AI) has already extended to governance rules. Private rights protection, national security, and industrial development constitute the three fundamental values requir? ing careful balance in AI regulatory legislation, with different weight allocations leading to divergent regulatory stances. Examining international practices, existing voluntary, strict, and responsive regulation all exhibit limi? tations. For instance, responsive regulation can only achieve fragmented governance over specific AI applica? tions through incremental measures. Based on the uncertainty of AI, China’s industrial development and insti? tutional environment, as well as the needs of international cooperation and competition, the AI Law should adopt a promotion-oriented stance - prioritizing industrial development through inclusive governance within its value framework. Distinct from responsive regulation, such promotion-oriented stance establishes new com? pliance requirements for AI Law through dimensions of regulatory subjects, regulatory targets, and regulatory instruments. Under this promotion-oriented stance, the AI Law should be positioned as domain-specific legis? lation. It should establish rights provisions along two dimensions of data and algorithms while clarifying dam? age liability determination through four aspects of accountability subjects, liability bearers, accountability prin? ciples, and liability mitigation mechanisms.
Key words: Artificial Intelligence Legislation, responsive regulation, promotion-oriented stance, Field of Law