999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

ChatGPT類生成式人工智能歸責論析

2024-11-02 00:00:00芮然

摘 要:以ChatGPT為標志,智能生成特征更為顯著、互動性更強、通用性更好的生成式人工智能正快速介入人類生產生活,與此同時,其所帶來的不確定性和致損風險也相伴而生。但是,生成式人工智能法律地位不明確、歸責方式不清晰,給損害發生時的民事、刑事責任承擔帶來極大阻礙,也影響了對生成式人工智能的有效監管。基于此,有必要從意志能力、行為能力、擬制主體適格性的角度重新認識ChatGPT類生成式人工智能的責任能力,在承認其責任有限的基礎上,結合不同情形和形態,厘清由制造者、控制者、監管者及生成式人工智能自身等多主體負責的責任分擔體系和歸責方式,促進人工智能持續、健康、負責任、可控制地發展。

關鍵詞:生成式人工智能;責任能力;有限責任;歸責方式

一、引言:生成式人工智能何以歸責

人工智能(Artificial Intelligence,AI)自20世紀50年代在達特茅斯會議上提出后,一直是學術研究和技術推進的重點,也取得了非凡的成就。到2022年11月,OpenAI公司推出以“ChatGPT”命名的生成式人工智能①,更是將人工智能的發展推上了一個新高度,短短兩個月便風靡世界,月活躍用戶突破1億。一定程度上說,其重要性可能不亞于當年個人電腦的誕生,一樣具備劃時代的革命性進步。如比爾·蓋茨所言,ChatGPT與互聯網和個人電腦的誕生同等重要,是具有劃時代的革命性技術進步[1]。特別是2023年3月又發布了多模態大模型的GPT-4,能夠更好地支持多模態,增強了對自然語言文字的多層面處理能力,更大程度地提升了安全性[2]。ChatGPT的面世及其在眾多場景的應用,對各行各業都造成了不同程度的影響和沖擊,相比于以往的人工智能,其給人類社會帶來的潛在風險更加緊迫真實[3]。即便是研究人工智能前沿領域的科學家和行業專家,依然擔心其對人類帶來的不可預估的風險損害[4]。

變革已經到來,ChatGPT類生成式人工智能廣泛應用于思考型對話、多媒體內容生成、辦公智能化等領域,以及翻譯、繪圖、剪輯、配音等日常生活,全面替代人類的趨向似乎在走向現實。但與此同時,其應用過程中的各類風險現實存在且不斷加劇,在數據準備階段有數據安全和合規風險,在使用過程中有算法偏見和算法濫用風險,在生成內容上有知識產權和內容濫用風險[5]。鑒于此,一些國家側重于從風險預防的角度出發,將風險控制在合理限度內,通過風險分級、安全評估、行政許可、算法審查等措施,盡量將風險控制在合理范圍內。但是,必須認識到,這些前置性或者事中控制的措施,終究只能控制風險,而無法完全消除風險,因“算法黑箱”和不確定性因素的存在,即使生成式人工智能服務提供商采取措施滿足監管需求,仍然會對第三方或相關主體造成難以防范或不可預測的損害[6]。在2023年6月5日,OpenAI公司就在美國佐治亞州因ChatGPT使用被提起名譽權糾紛訴訟②。可以預見的是,生成式人工智能造成的現實損害問題現實且緊迫,值得深入研究和關注。

面對這種風險和損害,諸多國家立法和政策均提出發展“負責任的人工智能”,但是當智能生成特征更為顯著、互動性更強、通用性更好的生成式人工智能迅速介入人類生產生活時,一個更大的問題就擺在我們面前。ChatGPT類生成式人工智能是否能為自身的決策負責,怎么歸責,其責任能力如何,又如何負責?厘清這個問題,是完善生成式人工智能規制體系的基礎性一環,也是保障可能受生成式人工智能侵害的相關主體切身權益的應有之義。

二、新場景下生成式人工智能歸責的現實困境

需要關注的是,ChatGPT類生成式人工智能除了在社交文娛、交互辦公、電商營銷等與內容生成聯系比較緊密的領域“大有作為”之外,還進一步拓展到生產生活的多個環節,企業對其的應用也已經從初始的API接入發展到基于多元場景需求的二次開發,從簡單的對話生成升級成與語音、圖像形成多模態多終端的復雜交互,形成了諸多線上線下商業化應用新場景[7]。與此同時,這種規模化、商業化的推廣應用,也不可避免會產生諸多不確定性和公眾權利保護隱憂,其強大的技術能力形成了原社會形態下的新生風險,沖擊著權利利益的保護秩序,也造成以權利義務能力為基礎的責任規制的適用困境。

一方面,生成式人工智能法律地位仍不明晰。可以說,生成式人工智能一定程度上已經實現了對人類創造性勞動的替代,產出了真實的勞動成果,可以說顛覆性地提升了生產力。OpenAI公司曾針對美國1000多種職業進行調研,在職業工作中如果使用生成式人工智能工具,其完成同樣工作耗費的時間將少一半以上,以此推論,8成以上人的工作將受到影響,而作家、記者等職業尤為突出[8]。人工智能對社會勞動社會形態的部分替代,并造成部分人機會成本的損失,如果沒有合適的機制設計,就可能會損害人類的發展權,沖擊現代國家的基礎秩序[9]。因此,當生成式人工智能在某種程度上能代替“人”的時候,也要面臨一個迫切的問題,如何判定其法律地位,并完善適合的規訓機制,以對沖其對社會秩序和制度的沖擊。

現實中,法律地位不明所帶來的問題已經顯現。生成式人工智能最大的特點就是高效、實用的內容生成,相應地也對知識產權領域秩序產生了極大的沖擊和挑戰。《生成式人工智能服務管理暫行辦法》中多次提及尊重知識產權、防止侵害知識產權等內容,凸顯出對可能發生的知識產權權益損害的重視,也體現了一定的前瞻性和務實性。ChatGPT相較于之前的分析式人工智能,具備更強的數據分析和處理能力,能自動化編纂內容、加工潤色、多模態轉換和創造性生產,對知識產權的供給模式和生產范式都有顛覆性的改變。在亞馬遜網站上,已有超過200本由ChatGPT署名的作品上架,甚至為ChatGPT開設專欄[10]。由此,即有一個現實問題擺在面前,ChatGPT生成內容能否賦權、如何賦權,是否為著作權意義上的“作品”[11]?生成式人工智能可否成為法律意義上的“作者”?“作品”歸屬生成式人工智能自身、操作者抑或多主體共有?如果可以成為法律意義上的“作者”,其是否具備責任能力,侵權時如何歸責或救濟。這些問題都需在生成式人工智能法律地位確定過程中一一厘清。

另一方面,刑事歸責問題亟待廓清。生成式人工智能除了對民事權利責任體系有影響外,也對刑事法律體系有一定沖擊。一定主體通過利用生成式人工智能實施犯罪,主體、生成式人工智能或者開發者如何歸責,對傳統刑法理論中的犯罪主體及刑事責任體系均需要進一步分析研究。針對這一問題,有觀點認為, 生成式人工智能在犯罪實施中,本質上僅能充當犯罪工具,查詢犯罪方法、進行網絡詐騙或敲詐勒索,不具備成為教唆犯或幫助犯的主體資格,其犯罪后果應由利用者承擔,仍可在刑法體系內予以妥善應對[12]。但在實際情況中,該觀點仍有待商榷。ChatGPT是以海量的數據挖掘作為答案生成的基礎,如果樣本數量足夠多,通過設置一定的關鍵搜索詞,是可以實現對他人的隱私權侵犯乃至侮辱誹謗。甚至說,如果利用ChatGPT自身的思考邏輯、算法邏輯隱秘實施犯罪,現行體系下是否能夠證明是實施者的故意,還是機器自身的故意。比如,有人搜索自殺挑戰時,若生成式人工智能輸出了不恰當的搜索內容最終對自殺后果產生了較大影響,責任又該如何承擔。再如,生成式人工智能能夠輔助編程或者搭建網站,若操作者利用這一便利進行編程并實施網絡犯罪,生成式人工智能是否需要自主決定拒絕犯罪預備的請求;若沒拒絕,犯罪后果產生后,責任是否需要承擔。上述情況中,生成式人工智能是否能夠分辨自身輸出內容的能力與作用,如何成立刑事責任、如何歸責,是在新的技術特點和情形下,需要考慮的現實問題。

三、生成式人工智能歸責基礎:基于責任能力的分析

風險與責任相伴而生,特別是當社會出現人造不確定性或者非外部不確定性影響時,對責任的探討就會越發迫切和深入。生成式人工智能引致風險的不確定性和現實性,呼喚一種邏輯自洽又符合發展需求的歸責模式,來澄清生成式人工智能自身責任、在何種程度上承擔責任。而生成式人工智能歸責的基礎在于分析其責任能力,考察生成式人工智能是否具備承擔責任的資格。

責任能力一般指主體對其實施的不法行為承擔責任的資格或能力,包括民事和刑事責任能力[13]。責任能力往往與行為能力密切關聯,在民事方面,無行為能力或者限制行為能力人具備經濟能力,若造成他人財產損失,也應當承擔損害賠償責任;在刑事方面,無責任能力人不承擔其行為的刑事責任。具體到生成式人工智能來說,結合其所具備的行為能力和意志表征,賦予其相應的責任能力,有一定空間和可能。下面從三個方面加以分析。

第一,關于是否具備意志能力。一般來說,責任產生的前提是具備基本認知理解的能力和實施具體行為時的控制力及意志力。比如,從犯罪論意義上講,實施犯罪行為就是人意志的直接體現,沒有意志能力不構成犯罪,也就不能課以刑罰[14]。相應可以說,只有具備了相應意志能力的理性人工智能,且能夠把自身同其他主體區分開來,才有承擔責任的可能[15]。具體分析:首先,生成式人工智能有較強的認知能力。人類的認知過程從大腦接受外部信息開始,進而分析處理,再轉換為心理活動,最終支配人的行為。這一過程和人工智能收集信息、算法處理、形成決策的邏輯非常相似。傳統人工智能可以搜集用戶喜好,進行算法推薦和決策,具備了一定認知特征。而生成式人工智能這種特征更為明顯,其強大的內容生成能力,具備典型的自然語言學習和處理能力,不論是相對獨立的文章寫作還是智能化辦公,這種實踐所能達到的智能樣態,很難否認其具備相當程度的認知能力。其次,生成式人工智能有理性分析的能力。ChatGPT-4可以通過給出的文字或者圖片等信息,形成符合人類常識和邏輯的推理判斷,能夠認識規律性事物并具備邏輯推理能力。在實踐層面,美國有高校法學院嘗試利用ChatGPT來參加考試作答,考試完畢后發現其平均成績已經達到學生的課程結業要求,特別是在案例分析論述方面,已經能夠適用法學理論和法律規則及形成觀點和論證[16]。再次,生成式人工智能能夠做一定的價值判斷。當然,一般觀點認為,人工智能技術無法替代價值判斷,尤其是司法中的價值判斷。“司法技術永遠無法完全取代司法判斷,尤其是司法中的價值判斷。”[17]但是情況不是一成不變的,隨著技術的進步、算法的進化,生成式人工智能已經有被應用在司法裁判中的案例。2023年1月,美國哥倫比亞一法官就利用ChatGPT實施輔助裁判,并表示實現了更為高效的預測和裁判[18]。在價值判斷的過程中,通過人工智能代替法官裁判并非不可能[19]。綜上,可以看出,生成式人工智能是可以、至少是有很大可能成為滿足意志能力的理性人工智能,顯現出類人類意志的突出特征。

第二,關于是否具備行為能力。 人工智能的行為能力一直是理論和實踐中關注的重點問題,也是無法繞開的問題。對于傳統人工智能來說,一般觀點仍以“代理說”為主,即人工智能的行為被人類所控制,其行為的后果由被代理的主體承擔。有學者認為,自動化系統難以識別和有效理解人類的自然語言,也就難以具備行為能力[20]。但是,生成式人工智能的發展卻使情況更為復雜化。ChatGPT提供者或者控制者固然能夠提供相應的系統運行服務和支持,但其用戶數量多、使用者范圍廣,不同用戶也有不同用途,用以實施的行為也多種多樣,個性化服務也越來越多。當技術更為復雜、應用更為廣泛時,完全繼續沿用“代理說”由提供者承擔責任,既不合理,也不一定經濟。比如,當具備強大算力和大模型的生成式人工智能同無人駕駛結合,在無人駕駛汽車行駛過程中發生交通事故時,即使產品提供者履行算法“可解釋”義務,但是其中的因果關系、舉證、責任承擔仍是一個復雜且值得深究的問題,并不是單純由提供者承擔責任所能解決和涵蓋的[21]。所以,在考慮責任承擔時,有必要脫離“代理說”的窠臼,而思考生成式人工智能是否在一定條件和一定程度上具備相應的行為能力,進而實現更為公平和經濟的歸責。

第三,關于能否作為擬制主體。縱向來看,法律意義上的“人”的概念,在不同歷史時期、不同階段,其概念和范疇是不盡相同的,呈現出與當時經濟社會發展相適應的特征和表現。奴隸制和封建社會階段,自然人并非天然具有權利能力和行為能力,哪怕是在資本主義階段早期,不具備足夠財產的自然人相關權利也受到法律的限制。至于將公司等主體擬制為法律上的法人,則是大航海時代為了風險分擔和鼓勵資本發展的產物。客觀上,這一法律制度的演變也為推動人類財富增長起到積極推動作用,促進了社會的進步與發展。實際上,從意志能力來看,法人這種擬制主體主要基于經濟性的現實需要,使之以財產集合來作為法律后果的承擔主體,實質上并不天然具備人類意志屬性,由此也產生了有限責任[22]。遵從這個維度,在人工智能時代,為順應新的技術和社會發展趨勢,人工智能也應當且必然會獲得相應的法律資格和法律承認[23]。比如,俄羅斯的隔離神法案中就提出,允許人工智能類推使用國家統一法人登記簿制度[24]。某主體成為“法律上的人”,終歸是基于人類的需求,當人類需要它成為法律主體時,它便可以成為[25]。法人生成過程中,也是先產生實體,后被法律確認。以此推論,當生成式人工智能因不可歸責于其他主體的行為造成他人損害時,也是可以基于現實或實際的需要,賦予其自身承擔責任的資格。當然,其中又會產生一個關鍵問題,如何使生成式人工智能享有責任財產,并奠定其作為特殊財產性法律主體的基礎。

四、生成式人工智能歸責的可能展開

馬克思指出,不是人為法律而存在,而是法律為人而存在[26]。法律需要順應時代需求、滿足人類發展實際,在人工智能時代,法律是引導和保障人工智能科技向善、負責任發展的主要抓手和關鍵要素。習近平總書記指出:“人工智能是新一輪科技革命和產業變革的重要驅動力量,加快發展新一代人工智能是事關我國能否抓住新一輪科技革命和產業變革機遇的戰略問題。”[27]是否需要承認或者在何種程度上承認生成式人工智能的責任能力,將對人工智能的發展產生深遠乃至決定性的影響,并會反過來影響未來法律發展的走向。因此,當前需要繼續鞏固我國在人工治理方面的優勢和有益經驗,進一步探索對生成式人工智能的監管邏輯和監管技術,實現可控制、能負責的生成式人工智能發展模式。

(一)基于平衡考量的有限責任

針對新興技術或科技的發展,一般來說法律需要在謙抑理念下鼓勵創新和安全理念下從嚴規制的兩個維度間尋找平衡。關鍵之一就是要明確主體為人工智能主體承擔相適應的責任,涉及其中的主體可能是控制者、操作者、研發者、生產者,特別是針對生成式人工智能這類強人工智能,在一定條件和情況下,責任承擔主體也可能是生成式人工智能自身。上文已經提到,ChatGPT-4在意志能力上已經具備了相當的邏輯推理和表達意思的能力,通過算法系統的精確設定和學習實現接近于操作者的思維期待。就行為能力來說,實踐中也在逐步對“代理說”進行一定的調整因應,以適應更為迅捷、智能度更高的發展趨勢。就擬制人格來說,基于實踐考量和符合發展需求的期待,可以參考法人等擬制主體模式,賦予生成式人工智能特定的法律主體地位,對歸責原則和責任能力逐步明確,進而促進風險的控制和技術的發展。

需要進一步明確的是,生成式人工智能能夠賦予法律人格,但是這種法律人格必然是有限的,所能承擔的責任也是有限的。本質上,人工智能是被制造研發服務于人類的智慧工具,有一個基本準則就是人的權能必然優位于機器的權能,也決定其被賦予的法律人格一定是有限的[28]。生成式人工智能盡管具備一定的意志能力,但客觀上仍是機器和算法系統,從倫理上人類所具有的婚姻、生育、投票等權能不能也不應賦權,但結合其能生成有價值的內容或者作品,可以考慮賦予其知識產權等利益性權能。比如,前文所述的ChatGPT形成的作品,當其他人使用或利用該作品時,就會產生一定的收益,這種收益不歸研發者或者控制者所有,這就可以由生成式人工智能所有;或者在全部收益中,固定抽取一部分收益作為生成式人工智能的強制責任基金。當生成式人工智能實施不可歸咎于控制者的行為,比如侵權、數據濫用或者歧視等行為,對其他主體造成侵害時,就可利用這部分積累收益實施賠償,形成承擔的有限責任的財產基礎。

還需要強調的一點,生成式人工智能的意志能力畢竟是源于大規模數據深度學習后形成的底層邏輯,與人類個體的意志無論是深度、廣度還是靈活性上都有較大的區別。這也是有限責任的根源,在有限責任之外,穿透技術背后,更加廣泛的責任仍然需要追溯到研發者、控制者或者操作者身上。生成式人工智能的有限責任主要用于解決無人駕駛、部分知識產權等現實問題,是制度體系對技術發展和現實作出的適當調整;而最終的、完全的、情感倫理上的責任仍然需要由人類負責,這也是警惕人類被機器替代的必要防御。

(二)基于不同情形的歸責思路

在闡述生成式人工智能責任有限的基礎上,再進一步考量生成式人工智能的歸責原則和責任能力范圍。具體來說,生成式人工智能的責任能力范圍要結合在具體行為時機器所受控制程度不同等情況綜合考量,并深入分析機器在決策時的人機互動來重構歸責中的因果關系。

結合生成式人工智能致損時的原因和具體情形,可以分類甄別:若致損行為完全由生成式人工智能79b57094ad1f05e179d354389105592c224b0e9a031a80607007d26a6b811302自身代碼混亂或程序邏輯錯誤導致的,可由生成式人工智能在相應的責任財產范圍內承擔有限責任,背后的研發者和控制者在證明其研發控制合規合理的基礎上,承擔補充責任;否則,研發者和控制者應承擔嚴格責任。若致損行為主要由操作者操作不當或惡意操作造成的,主要追究操作者的侵權責任;如果無法追查到操作者身份,且控制者能夠證明生成式人工智能可控時,可由生成式人工智能自身承擔一定的限制責任。若致損原因不明或無法查清由何種原因引起的,可考慮由控制者、研發者和生成式人工智能自身聯合起來承擔公平責任,其中責任承擔比例、方式和賠償范圍,則需要更為精細化的配套歸責予以明確。另外,還有可能是由監管者監管不當或者疏忽產生致損行為,則主要由監管者擔責,生成式人工智能自身可課以補充責任。

所以,在承認生成式人工智能有限的責任能力的基礎上,在責任承擔上還需要適用“刺破機器面紗”的歸責原則,根據不同情形和因果關系,進一步挖掘機器背后的實際主體,構建多主體負責的鏈式責任分配機制。畢竟,在技術發展越發復雜、風險越發多元的現實中,讓單一主體承擔主要或全部責任,既不公平,也會因主體承擔過重責任而阻礙對人工智能的持續研發和投入,導致法律規制的負外部性。因此,研發者、控制者、監管者及生成式人工智能自身等不同主體,均應在“權責一致”的基礎上、公平責任的補強下,根據不同情形和具體風險,搭建完整、配套的責任分擔體系和分擔鏈條,更為準確、系統、高效地確定厘定責任承擔的主體、方式和范圍等事項,進而有效促進人工智能持續、健康、負責任、可控制地發展。

注 釋:

① 本文所稱生成式人工智能,依據《生成式人工智能服務管理暫行辦法》規定,是指“具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術”。

② 美國的一位電臺主持人Walters向佐治亞州的一家高等法院提起訴訟,狀告OpenAI公司侵犯其名譽權,起因是美國的一位新聞記者Riehl在與ChatGPT的對話過程中,ChatGPT聲稱Walters曾被指控從一家非營利公司騙取和盜用資金,而Walters稱其從未受到過此類指控并認為該信息純屬ChatGPT捏造。See The Complaint of Mark Walters v. OpenAI L.L.C.,The Superior Court of Gwinnett County,State of Georgia,Civil Action No. 23-A-04860-2。

參考文獻:

[1] 比爾·蓋茨.ChatGPT是1980年以來最革命性的技術進步[EB/OL].[2023-9-3].https://tech.ifeng.com/c/8OLwGZFl2pI.

[2] 張學博,王涵睿.生成式人工智能的法律規制——以ChatGPT為例[J].上海法學研究,2023(6):253-261.

[3] 劉艷紅.生成式人工智能的三大安全風險及法律規制——以ChatGPT為例[J].東方法學,2023(4):29-43.

[4] 《馬斯克等千名科技人士發公開信:暫停訓練比GPT-4更強大的AI系統》[EB/OL].[2023-9-3].https://www.thepaper.cn/newsDetail_forward_22490961.

[5] 畢文軒.生成式人工智能的風險規制困境及其化解:以ChatGPT的規制為視角[J].比較法研究,2023(3):55-172.

[6] 周學峰.生成式人工智能侵權責任探析[J].比較法研究,2023(4):117-131.

[7] ChatGPT殺進15個商業應用,讓AI替你打工[EB/OL].[2023-9-5].https://www.thepaper.cn/newsDetail_forward_23023803.

[8] T. ELOUNDOU,S. MANNING,ET AL.GPTs are GPTs,An Early Look at the Labor Market Impact Potential of Large Language Models,arXiv [EB/OL].[ 2023-3-27].https://doi.org/10.48550/arXiv.2303.10130.

[9] 韓大元.當代科技發展的憲法界限[J].法治現代化研究,2018(5):1-12.

[10] 已經有人靠ChatGPT出書賺稿酬了[EB/OL].[2023-9-13].https://www.thepaper.cn/newsDetail_forward_22043420.

[11] 方卿,丁靖佳.人工智能生成內容(AIGC)的三個出版學議題[J].出版科學,2023(2):5-10.

[12] 鄧建鵬,朱懌成.ChatGPT模型的法律風險及應對之策[J].新疆師范大學學報(哲學社會科學版),2023(5):91-101.

[13] 劉保玉,秦偉.論自然人的民事責任能力[J].法學研究,2001(2):77-88.

[14] 黑格爾:法哲學導論[M].范揚、張啟泰譯,北京:商務印書館,1996:103.

[15] 周靖.論意識條件和主體條件的區分——對人工智能體道德身份論題的一個澄清[J].上海交通大學學報(哲學社會科學版),2023(2):121-129.

[16] JONATHAN H. ChOI ET AL. ChatGPT Goes to Law School [EB/OL].[2023-3-13].http://dx.doi.org/10.2139/ssrn.4335905.

[17] 雷磊.司法人工智能能否實現司法公正?[J].政法論叢,2022(4):72-82.

[18] Judge Used ChatGPT to Make a Court Decision[EB/OL].[2023-5-16].https://metanews.com/judge-used-chatgpt-to-make-a-court-decision/.

[19] 申衛星、劉云.法學研究新范式:計算法學的內涵、范疇與方法[J].法學研究,2020(3):3-23.

[20] JOSHUA FAIRFIELD,NILOUFER SELVADURAI.Governing the Interface Between Natural and Formal Language in Smart Contracts[J].UCLA Journal of Law & Technology,2022(2):79.

[21] 袁曾.無人駕駛汽車侵權責任的鏈式分配機制——以算法應用為切入點[J].東方法學,2019(5):28-39.

[22] 尹志強.人工智能何以為“人”——人工智能時代之民法因應[J].社會科學研究,2023(1):60-70.

[23] 尤瓦爾·赫拉利:《未來簡史——從智人到神人》[M].林俊宏譯.中信出版集團,2017:96.

[24] 張建文.格里申法案的貢獻與局限——俄羅斯首部機器人法草案述評[J].華東政法大學學報,2018(2):32-41.

[25] 漢斯·哈騰鮑爾.民法上的人[J].孫憲忠譯.環球法律評論,2001(4):23-33.

[26] 中共中央馬克思恩格斯列寧斯大林著作編譯局.《馬克思恩格斯全集》(第三卷)[M].北京:人民出版社,2002:40.

[27] 習近平.加強領導做好規劃明確任務夯實基礎推動我國新一代人工智能健康發展[N].人民日報,2018-11-1(1).

[28] 袁曾.人工智能有限法律人格審視[J].東方法學,2017(5):50-57.

基金項目:國家社科基金重大項目“適應新時代市場監管需要的權力配置研究”(20&ZD194)

作者簡介:芮然(1995— ),男,江蘇溧陽人,江蘇省溧陽市人民法院法官助理,碩士,研究方向為刑法學。

主站蜘蛛池模板: 色妞www精品视频一级下载| 亚洲欧洲日韩国产综合在线二区| 97一区二区在线播放| 狠狠色狠狠色综合久久第一次| 欧美午夜久久| 99热国产这里只有精品无卡顿"| 亚洲中久无码永久在线观看软件| 污污网站在线观看| 欧美成人精品一区二区| 综合亚洲网| 精品国产成人三级在线观看| 亚洲最新在线| 国产精品无码AⅤ在线观看播放| 免费观看成人久久网免费观看| 欧美a在线| 国产jizz| 久久人人97超碰人人澡爱香蕉| 怡红院美国分院一区二区| 国产精品55夜色66夜色| 无码aaa视频| 成人永久免费A∨一级在线播放| 久久先锋资源| 伊人久热这里只有精品视频99| 国产精品 欧美激情 在线播放 | 91小视频在线观看| 国产成人综合在线视频| 亚洲乱伦视频| 99视频在线免费| 中字无码精油按摩中出视频| 国产日韩欧美黄色片免费观看| 毛片在线区| 亚洲天堂视频网| 久无码久无码av无码| 很黄的网站在线观看| 久久窝窝国产精品午夜看片| 免费在线一区| 亚洲天堂伊人| 欧美亚洲一区二区三区导航| 香蕉网久久| 九九热免费在线视频| 色亚洲激情综合精品无码视频| 成人噜噜噜视频在线观看| 伊人久久综在合线亚洲91| 久久国产精品无码hdav| 自拍欧美亚洲| 9啪在线视频| 黄色国产在线| 国产成人无码综合亚洲日韩不卡| 午夜啪啪福利| 国产男女XX00免费观看| 亚洲性一区| 中文字幕有乳无码| 午夜啪啪福利| 欧美国产精品拍自| 精品人妻AV区| a色毛片免费视频| 精品三级网站| 国产成人综合亚洲欧美在| 91麻豆国产视频| 久久伊人久久亚洲综合| 国产精品手机在线观看你懂的| 欧美高清三区| 日韩美毛片| 久久青草免费91观看| 亚洲欧州色色免费AV| 性欧美久久| 国产成人精品在线| 久久精品嫩草研究院| 亚洲男女天堂| 亚洲成A人V欧美综合| 91破解版在线亚洲| 欧美视频在线不卡| 91久久夜色精品| av在线手机播放| 欧美日一级片| 国产地址二永久伊甸园| 白浆视频在线观看| 在线看免费无码av天堂的| 日本一区中文字幕最新在线| 国产aaaaa一级毛片| 日韩国产 在线| 欧美日韩中文国产|