999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能應用的倫理風險及法治應對

2022-12-17 14:31:36
學習與探索 2022年7期
關鍵詞:主體人工智能法律

潘 志 玉

(山東政法學院 民商法學院,濟南 250014)

在新一代信息技術革命浪潮的推動下,人工智能應用越來越廣泛,尤其在以大數據和深度神經網絡為代表的前沿領域取得了重大創新與突破。人工智能實際就是創造開發出能夠最大程度模擬甚或超出人類大腦智力的一套原理、技術、方法及應用系統,其最終目標是讓智能機器進行各種類人化操作[1]。當前,人工智能已成為新一輪科技革命和產業變革的重要驅動力量。特別值得一提的是,作為年度熱詞的“元宇宙”開始走上了社會產業發展舞臺,(1)“元宇宙”實際就是人們借助VR技術如身臨其境一般進入虛擬的數字世界,簡言之,即是3D版的網絡世界。2022年1月12日騰訊新聞聯合復旦大學新聞學院傳播系發布的《2021元宇宙年度報告》預測,在未來幾年,元宇宙的核心維度將越來越強,包括算力、響應力、逼真性、沉浸性、互動性、 用戶自主性、數字財產保護、數字貨幣支付等,在制造業、城市規劃、零售業、教育、醫療、娛樂和社交等方面的應用也將越來越多。在元宇宙的世界里,人工智能也將出演重要角色,為元宇宙賦予智能的“大腦”以及創新的內容。在人工智能快速應用、快速發展的同時,它也給我們帶來了諸多的風險和挑戰,有必要從倫理哲學角度深入認識人工智能的法律人格,從而推進人工智能治理的法治化進程。

一、人工智能的法律人格

近年來,伴隨人工智能的廣泛應用,學界開始重視并持續審視人工智能技術與人的關系,對人工智能進行倫理反思。這一反思首先要探討的就是人機關系的定位問題,即人機關系屬于一種平等的人際關系,還是人類主宰機器的主客體關系?根據馬克思主義物質和意識的辯證關系理論,人工智能在本質上是由人類創造的,是人們在認識和改造世界過程中通過實踐活動所創造的一種工具。人工智能的生成原理是模仿人的思維及人腦的作用進而設計相應的算法運作,人工智能仍然是人的意識的反映,是人腦的智慧創造的結果。人類創造智能產品的目的是使其更好地為人類服務,而一旦人工智能產品通過高端科技形成類人化意識,存在控制人類或加害于人類的現實可能性時,人機關系就可能產生倒置錯位[2]。因此,在人工智能的發展和應用過程中,人工智能產品只應該作為服務于人類的客體而存在,人機關系應當是目的與手段、利用和被利用的關系,唯有如此,才能推動人工智能的研發運行于正確的軌道,才能保證人的道德主體地位。從法律的角度來看待人機關系的定位問題,首先要厘清的就是人工智能的法律人格問題。

所謂法律人格,是指由國家法律所認可的一種享受權利、承擔義務的資格,具體分為自然人主體人格和法律擬制主體人格。隨著人工智能技術的進步和變革,其自身的功能及應用在現實生活中與許多法律問題相互交織,因此,規范人工智能的法律人格具有重要意義。對于是否承認人工智能享有法律主體資格,目前學界主要存在否定說、代理說、電子人格說、有限人格說、新主體說等多種界定,其中否認說為主流觀點。否認說認為,具備法律上的人格或者成為擬制法律人,需同時具備生理學、心理學和社會學等要素。人工智能產品(如智能機器人)盡管有一定的意思能力,甚至能夠擔當一定的職業任務,但其仍然屬于物的范疇,不能成為民事主體,其能擁有的僅僅是經由人類制造的無限靠近自然人意思能力或水平的民事法律地位。如果人工智能產品給社會帶來安全隱患或風險,再或者給他人的人身或財產造成實際損害,應當適用民法上的產品責任規范[3]。

然而,對于人工智能究竟能發展到何種程度,是否永遠不能擁有法律人格,現下定論還為時尚早。根據人工智能的發展,大體可以將其劃分為弱人工智能、強人工智能和超人工智能三個階段。目前的人工智能的發展尚處于弱人工智能階段,也即這些智能機器沒有自主意思,不會真正地推理和解決問題,其能夠從事的工作領域依然很有限。而強人工智能機器不僅是一種工具,還具有知覺、思維或自我意識,有真正推理和解決問題的能力,其智慧程度相當于人類大腦,可以基本完成人類的全部工作。(2)強人工智能階段機器的智力已經與人類相當,但科學家還沒有真正掌握這種技術。而美國谷歌公司開發的人工智能程序“阿爾法圍棋”已經邁出了堅實的一步。現在還有一種智能的數據分析平臺,可以根據輸入的信息給出投資建議。超人工智能則在綜合智慧力、聰明度、算法、認知、創意、思維、通識、社交等幾乎所有領域都能趕超人類大腦的智能階段。(3)超人工智能將打破人腦受到的維度限制,其所觀察和思考的內容,人腦已經無法理解,人工智能將形成一個全新的社會。我們應該根據人工智能發展的不同階段,對人工智能的法律人格作出不同的認定。在弱人工智能時期,人工智能產品猶如民法上的“物”,與其所有權人具有一定的依附關系,此時無需相關法律來判定它的人格地位。而在強人工智能甚至超人工智能階段,就需要對人工智能的法律人格給予重新審視和考量,因為否定說無法完全解決無人駕駛、智能醫療等領域引發的侵權問題。(4)無人機駕駛、人工智能醫療事故等侵權案件涉及的責任主體較為復雜,不能把事故產生后的責任完全推給生產者或者設計者,單靠產品責任規范力有不逮。另外,人工智能之所以不被認為具有獨立法律人格地位,還因為其意思表示能力受限。但是,從我國民法典的最新立法精神來看,母體懷孕期間的胎兒可以享有一定的民事權利、具有一定的民事權利能力,那么,由此可以看出,試圖通過無意思表示能力來限制人工智能的法律主體資格也不具有完全的說服力。

所以,承認人工智能的法律人格,在強人工智能和超人工智能時代具有重要意義。可以預見,隨著人工智能技術的不斷進步,人們對于人工智能在法律體系中的主體資格會有認知上的轉變,即由從法律關系的客體到法律關系的主體的轉變。雖然當前人工智能還處于弱人工智能階段,但是十分有必要未雨綢繆探討超強人工智能的法律人格問題。以下四種學說雖然還很不完善,但對于解決未來人工智能的法律人格問題具有一定的借鑒價值。

(一)新主體說

該學說認為,伴隨發展,人工智能將來會具有一定的獨立意識和思考能力,能夠獨立進入法律關系之中作為新的主體而存在,故可以將人工智能作為一種新的主體賦予其法律人格。法人和非法人組織也是隨著立法的進步與完善在自然人之后逐漸成為法律關系的擬制主體的。而且人工智能的發展目的是為人類服務,所以認可人工智能的法律人格地位不僅可以保障既存民事主體的合法權益,也可防止出現因人工智能的民事法律地位不明而給既存民事主體帶來損失的情況[4]。當然,該學說也注意到,法人、非法人組織仍然是由人組成的,通過內部的決議機構形成決策意見進而對外部作出意思表示,本質上還是人的組織,體現的是人的意志;而人工智能作為一種物出現,作為法律關系主體得到確立,既是對立法技術提出更高的要求,也是對立法成本的提高。

(二)代理說

該學說主張,人工智能應被認定為其所有人或使用人的代理人,按照代理法律關系處理相關爭議,即人工智能產品對外實施的侵害“行為”,最終由其被代理人承擔所有法律后果。該學說也具有一定的局限性,因為代理的適用前提是代理人必須具有完全民事行為能力,且無法適用于事實行為,那么對于人工智能自身運行中所產生的對外致害如何擔責,又是難以自圓其說的。

(三)電子人格說

該學說主張賦予人工智能以一定的“電子人”身份人格,可以在相應的領域內參與一定的法律關系。該學說主要針對的是解決由人工智能產生的損害賠償問題。《歐洲機器人民事法律規則》旨在通過賦予人工智能以民事主體資格,以便對其產生的損害賠償等問題進行歸責。應當說,“在對人工智能進行科學分類后,對強人工智能賦予法律主體地位具有一定科學性,但需要在實際操作中施加一定限制;同樣,在分析了智能機器人的認知與行為理性后,也有必要在刑事責任層面確認其主體地位與法律人格。”[5]適用該學說似乎也有一個預想前提,即未來的人工智能應當具有獨立財產,否則損害賠償仍然無法實現。

(四)有限人格說

該學說考慮到人工智能無論智能到何種程度,本質上畢竟不同于人,其與自然人主體在意識、思維、行動、情感、認知等方面存在質的區別,故只是附條件且有限地承認其法律人格,承認人工智能有限的法律主體地位。該學說嘗試借鑒法人和非法人組織的法律擬制規則,并結合登記備案制度來健全人工智能體的責任體制[6]。

二、人工智能技術應用的倫理風險與挑戰

人工智能的快速發展和應用將不可避免地給社會帶來更多的倫理風險和挑戰,(5)人工智能倫理風險源于技術—人—社會—自然之間的復雜交互,主要包括技術倫理風險、社會倫理風險和人類生存倫理風險等,另包含技術內生型倫理風險和技術應用型倫理風險兩大生成路徑。這些挑戰和風險應該引起我們的警醒和重視。人類對人工智能所秉持的倫理原則和價值觀將直接影響其發展路徑和方向,也決定著構建何種人機關系。如果我們能對人工智能技術加以科學利用、合理管控,并始終堅持維護人類命運共同體利益的最高倫理規范,人們就可以充分享受人工智能技術帶來的便利和利益,人類生活將變得更加舒適美好。

(一)人類主體地位受到沖擊

人與人工智能的關系及人類的主體地位,是人工智能發展過程要探討的首要問題。從目前的發展來看,人工智能只是我們創造出來的產品,處于弱人工智能階段,仍然是民法上的“物”的范疇,人類對于其享有物權或者說是知識產權。但是,放眼不遠的未來,人工智能很可能具有類似人類的思維活動以及情感體系,能通過自己的內部程序表達出自己的“意志”,通過自己的“意思表示”與人類或者與其他人工智能進行交流。這樣一來,就會脫離當下與人的從屬關系,成為新的法律主體。那么,它們的發明能力、創造能力是否會超過我們?當它們具有思維活動和意思表達能力后,是否可以具有與人類一樣的法律主體資格?在法律上,它們的地位與我們是否處于同樣的位置?我們是否會被人工智能統治,主體地位遭到破壞呢?除此之外,人權是我們能夠獲得保障、主張權益的最基本權利。如果人工智能同樣享有婚姻、人格、名譽等權利,乃至與人組成家庭,這些都將是對人性倫理的巨大挑戰。(6)2017 年 10 月 26 日,一臺名叫 Sophia(索菲亞)的機器人被沙特阿拉伯授予國籍,自此索菲亞成為世界歷史上第一個具有公民身份的機器人。

(二)利益權衡與價值選擇遇困

技術進步應始終以人為中心,當技術出錯時,一些關于倫理設計和政策的前瞻性思考可以幫助引導技術發展,從而使我們人類免受其害。在具體設計人為人工智能提前設置相應程序時,將會面對價值選擇與利益權衡的困難。縱使我們賦予人工智能以正義、平等、效率、秩序等價值理念,執行的效果也可能不盡如人意。比如,當人工智能汽車行駛過程中遇到行人闖紅燈,它是遵循“交通信號燈”運行規則還是停車避讓以保護行人的安全?再或者遇到“緊急避險”情況,人工智能汽車無論如何都會撞上行人時,它是否會選擇撞向少數人一邊?為實現正義、平等、效率、秩序等價值理念,人們一般會根據實際情況將原則性和靈活性相結合,進而在行動上作出一定的取舍,而且這要求遇到問題的人必須具有一定的思想高度才能實現這些價值觀的“最大公約數”。反觀人工智能,需要我們將這些價值的含義轉換成算法植入其系統內部作為作出判斷的依據,甚至算法在原有的道德規范嵌入基礎上,還要不斷學習新的道德規范,通過持續增強其道德能力水平,才能讓其在風險來臨之際作出更為合理的道德選擇[7]。總之,讓人工智能在關鍵時刻作出在道德價值判斷與倫理規范上的權衡和取舍,將是人工智能應用中不可回避的倫理風險和挑戰。

(三)個人信息安全風險劇增

人工智能技術的廣泛應用離不開海量大數據的采集與精準的算法設計。所以,人工智能技術一旦被濫用,也必將造成可怕的后果。隨著數字化技術的迅猛發展和進步,算法推薦技術正將人們帶入個性化、定制化、智能化更強的信息傳播時代。在這個新的時代,我們每個人的喜好以及購物、上網習慣都會被大數據精確地發現。據《中國大安全感知報告(2021)》顯示,有七成受訪者認為算法能獲取自己的喜好、興趣,從而“算計”自己,近五成受訪者表示在算法束縛下想要逃離網絡、遠離手機卻又很難。日常生活中,人們對于在線支付、圖像采集、生物識別、衛星導航以及社交軟件等的運用已經習以為常,但商家、政府、網絡平臺等采集的這些數據是否能夠被合理利用、是否得到充分保護,還沒有形成透明的機制,還沒有完善的程序和規制措施。因此,隱私及個人信息泄露仍然是人工智能技術發展應用中亟待解決的關鍵問題。除此之外,人工智能若被濫用于非法集資、非法經營、竊取情報、泄露國家秘密等違法犯罪方面,也將會給個人合法權益以及國家利益、社會公共利益帶來重大損害。

(四)安全責任主體缺失困境

近年來,伴隨著網絡技術的更新換代,責任倫理逐漸步入學界視野、走入時代舞臺。“新的道德思維是責任倫理精神中最深層次的東西,責任倫理所具有的他者思維、復雜思維和境遇思維等特點,使其能夠突破傳統道德思維的局限,有可能解決當代人類社會所面臨的道德難題。”[8]人工智能應用離不開算法,而算法設計也很可能會被濫用而引發糾紛,甚至在某些領域出現人類不能預見又不能克服的安全風險和隱患。那么,到底哪些主體應該為這些不確定性的安全事故買單,是人工智能體本身還是研發者、設計者或應用者,其所引發的責任歸屬問題一直困擾著人類,一時還沒有得到解決。(7)依據群體劃分,一方面是算法設計者、使用者應當擔負的重要責任,另一方面是人工智能體應承擔的責任;依據主要環節劃分,責任歸屬則體現在人工智能設計階段的倫理責任嵌入和人工智能體的倫理責任監管,即所謂的“前端嵌入”與“后端規約”。例如,無人駕駛汽車應用后,誰應為汽車事故負責?人工智能代替醫生進行醫學診斷時,如果出現診斷失誤,誰應為這些醫療事故承擔責任?如果這些責任事先沒有明確劃分,那么當人工智能在應用中出現事故時,就會出現責任主體缺失問題,研發者、設計者或應用者各方相互推卸責任,不利于人工智能的進一步應用和社會的穩定。安全責任主體多元復雜以及主體責任的缺失或不明,是新一代信息技術倫理困境的總源頭。盡管國家已經制定了一些有關人工智能應用的規范,但仍然缺少完備的、體系化的必要執行機制。

(五)勞動者面臨失業挑戰

人工智能的迅猛發展對于勞動者具有多方面的威脅和挑戰。其一,人工智能具有對于簡單、機械工作的高頻率重復特性,能夠在短時間內完成人力所不及的生產數量,而且能夠忍受更為艱苦的工作條件和生活環境。與人力勞動力相比,人工智能體具有低成本、高效率、普適性的優勢。在市場經濟高速發展的今日,用人單位為了獲取更多的利益,更青睞于選擇人工智能這一新興的“勞動力”。由此,便出現人工智能取代普通勞動力的情況,特別是一些從事簡單生產勞動的底層勞動者將喪失勞動機會,從而引發嚴重的社會保障壓力,進一步拉大貧富差距,影響社會和諧穩定[9]。其二,人工智能作為一種技術、一種高級資源,在市場競爭中,掌握了人工智能便是占據了資源的優勢,從而容易形成“馬太效應”,即優勢企業公司可以利用自身掌握的算法來識別、打擊弱勢企業進而形成行業壟斷,造成強勢企業更強、弱勢企業更弱的局面[10]。由此,弱勢企業被強勢企業兼并,強勢企業取得壟斷地位,小企業的生存發展空間減少,勞動者的就業機會也會大大減少,對社會保障也形成挑戰。其三,根據人工智能的“擬人性”,如若人工智能獲得相應的法律人格,那么在人工智能參與勞動就業時,對其是否應該堅持民法的主體平等、意思自治原則,受到與自然人勞動相同的保護呢?這也是人工智能快速發展應該面對的問題。

四、人工智能應用倫理風險的法治應對

人工智能技術具有突飛猛進的發展和變革態勢,將對我們所處社會的政治、經濟、文化、教育等各個方面都帶來不可預估的影響。為了確保人類的主體地位,科技絕不能凌駕于倫理之上,面對在人工智能發展過程中產生的倫理風險和挑戰,必須以法治思維和方式最大限度地加以管控,通過立法對人工智能技術發展的邊界作出限定,確保人工智能的安全、可控、健康發展。

(一)確立和發展“數字人權”理念

新興的智慧社會催生了 “第四代人權”——“數字人權”,(8)數字人權是2020年7月全國科學技術名詞審定委員會批準發布的大數據新詞,但實際上在2019年6月張文顯教授于“知識產權與相關權利的法理”學術研討會上即首次提出“數字人權”概念,引發學界熱議。也有學者認為,“數字人權”既缺乏憲法的規范基礎,也不符合“人的尊嚴”標準和“最低限度基礎性”標準,無法被證立為憲法未列舉基本權利。其本質是在數字經濟和智慧社會發展中作為人而應該享有的權利[11]。隨著互聯網、即時通訊、線上課堂、在線支付、云計算、智能機器人等成為人們日常生活的重要組成部分,社會大眾對數字網絡形成慣性依賴。如果把人們對人工智能產品的利用作為其享受生活便利和舒適的一項權利看待,在此背景下普及數字人權理念就成為一種必然。為適應新興數字時代的客觀發展要求,必須推動從傳統物質世界人權觀到新興數字世界人權觀的提級轉變。要發展數字人權,首先在基本價值理念上要堅持科技以人為本,貫徹以人民為中心的發展理念,人工智能技術的應用不能背離人性,不能傷及人類尊嚴。其次,在制度上,要求我們的政府以及參與人工智能研發、設計的主體必須堅持社會主義核心價值觀,切實承擔起尊重和保障人權的責任和義務,讓科技遵循人文主義,符合倫理規范,并積極向廣大群眾普及法律知識、科學知識、智能技術的使用方法等內容,不斷提高人民群眾的數字化應用水平,從而填補、彌合社會公眾特別是弱勢群體面對高科技智能產品的“數字鴻溝”,真正讓人工智能技術始終掌握在人民手中并造福于民。

(二)強化對算法倫理的法治監管

一些惡意軟件運用算法偏差、算法黑箱、算法壟斷等進行“大數據殺熟”“用戶畫像”和“算法推薦”,引發了公眾對算法推薦技術倫理風險問題的恐慌和憂慮。對于這一涉及個人信息自動化決策的熱點問題,《個人信息保護法》給予了明確回應,即規定個人信息處理者應當確保決策的公開透明和結果的公平、公正,不得對個人在交易條件上實行不合理的歧視性差別待遇。2022年3月1日起生效施行的《互聯網信息服務算法推薦管理規定》,更是對于算法推薦服務作出了全面細致的規范,著重強化對算法相關數據、模型等進行評估審查,細化用戶知情權、退出個性化推薦等權利內容,明確了算法推薦服務提供者的信息服務規范和算法治理體系,合理構建了網絡平臺問責機制,實行事前事中事后全流程、全鏈條政府監管。然而,畢竟該管理規定在形式上屬于部門規章,強制效力較低,內容上條文數量不多,還有繼續完善的空間。比如在責任主體方面,該管理規定只限定了算法推薦服務提供者這一單個主體,而對于算法推薦技術運行、管理時的其他參與主體以及政府監管部門的責任承擔卻有疏漏。另外,算法推薦也會參考流量收益、用戶喜好、用戶人群量等方面進行計算與運行,對于具體的算法推薦的“濫用”“排除限制競爭”等方面,還需要拿出可以量化的具體標準來進行規制。總之,要實現對算法倫理審查和治理的制度化、標準化、規范化、法治化,要建立健全人工智能倫理安全風險評估、算法審計及認證、大數據缺陷檢測、人工智能技術監管、備案管理等配套制度體系[12],促成全社會形成“法網大于互聯網”“國法高于算法”“算法不能算計”的集體共識和行動,真正形成政府監管、企業履責、行業自律、網民維權、社會監督的多元共治體系。(9)2022年2月28日,中國互聯網協會法工委副秘書長胡鋼在接受《新民晚報》記者采訪時表示:“我們要行正算、懲濫算、倡公算、促同算、致上善。算法歧視、大數據殺熟、誘導沉迷等算法濫用因踐踏權利、壓榨利益而成為普通網眾的心頭之恨,而‘算法邪惡’甚至成為扭曲真相、撕裂社會、禍亂宇內的罪惡之源,必須嚴懲不貸。”

(三)以立法阻卻人工智能應用對個人信息權益的侵害

如前文所述,在人工智能技術應用過程中不可避免地存在海量個人信息的收集、存儲、使用、加工、傳輸、提供、公開、刪除等現象,生物識別技術實施過程中也將采集大量公民的個人圖像、身份識別等敏感信息甚或隱私信息。這些信息一旦被泄露或者非法使用,很容易導致公民的人格尊嚴受到侵害或者人身、財產安全受到危害。(10)《個人信息保護法》第28條規定,敏感個人信息包括生物識別、宗教信仰、特定身份、醫療健康、金融賬戶、行蹤軌跡等信息,以及不滿十四周歲未成年人的個人信息。從法律規制方面看,隨著《網絡安全法》《民法典》《個人信息保護法》以及《數據安全法》的陸續出臺,基本實現了對公民個人信息權和隱私權的保護,也填補了人工智能技術應用對個人信息權侵害的立法空白,一定程度上為個人信息保護提供了較為安全可信的客觀預期。然而不可否認,立法具有一定的滯后性,現有立法步伐永遠跟不上人工智能技術跨越式發展的腳步,隨著人工智能技術的不斷推陳出新,現有立法必然要不斷修補完善。當前我國互聯網領域專門立法較多,相關規定較為零散,還沒有形成體系,尤其對各類技術主體的法律責任的規定,基本都是重事后懲處、輕事前預防。未來立法應在阻卻人工智能對個人信息權侵害上適度引入侵權懲罰性賠償和保護獎勵制度,建立健全統一的多元化侵權責任體系。

(四)推進人工智能治理法治化進程

從倫理學角度來看,道德與法律同屬于上層建筑,它們所體現的價值目標是一致的,又都是實現社會倫理精神的重要手段或工具。道德是內心的法律,更是法律的最高追求;法律是成文的道德,也是最低限度的道德;法律以道德為基石,道德以法律為保障。因此,在信息技術迅猛發展以及全面依法治國的時代背景下,建立完備的人工智能法律制度刻不容緩。2018 年1月,中國電子技術標準化研究院發布了《人工智能標準化白皮書(2018 版)》,針對人工智能倫理提出了人類利益和責任兩大基本原則;2019年6 月,國家新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》,進一步明確了為確保人工智能安全可靠可控,共建人類命運共同體,人工智能發展相關各方應遵循的八項原則;(11)八項原則包括和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理。同年9月25日,國家新一代人工智能治理專業委員會又發布了《新一代人工智能倫理規范》,旨在使倫理道德規范融入人工智能研發、管理、供應、使用等環節的全生命周期,并充分考慮當前社會各界有關隱私、偏見、歧視、公平等倫理關切,對從事人工智能相關活動的各方主體提出了六項基本倫理要求和四方面特定倫理規范。從這一系列規范文件的出臺可以看出,國家非常重視倫理入法,正努力通過倫理規范來引導人工智能技術穩步健康發展。當然,這離人工智能法治化目標還相差甚遠,因為這些文件層級較低,至多算是行業內的自律性規范,沒有強制約束力。建議國家立法機構組織人工智能技術、倫理、法律等相關方面專家學者盡早啟動人工智能治理的專項立法工作。立法源于實踐,又要指導實踐。鑒于“法不溯及既往”原則,事前的行為不能用事后制定出來的法律進行調整和規制,這容易讓那些違背人工智能技術安全應用標準的不法分子鉆法律空子,進而進一步增大危害性。相比于發現問題之后的“亡羊補牢”,問題產生之前的“未雨綢繆”應該受到重視。我國應該盡快開展對人工智能應用的立法,明文規定人工智能技術研究和應用的領域、應當遵循的倫理原則,明確規范人工智能技術的倫理要求、安全標準、監管機制,界定人工智能研究開發、設計、制造、生產、銷售、使用、管理等各方參與主體的權利、義務以及侵權責任的歸責原則、責任主體、責任承擔方式等。正像Uber無人駕駛汽車導致損害一案,立法設計要按照人工智能的有限人格進行責任承擔與追責,同時也要根據具體情況追究其設計、開發、制造、使用等環節的人類主體責任,避免某單一主體的責任風險成本過高[13]。總之,要增強立法前瞻性,著重加強無人駕駛、智慧傳媒、智慧醫療、智能教育、智能家居、智慧風控等人工智能領域的立法,逐步建立起一整套規范人工智能應用的法律體系。

猜你喜歡
主體人工智能法律
論自然人破產法的適用主體
南大法學(2021年3期)2021-08-13 09:22:32
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
關于遺產保護主體的思考
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
“互助獻血”質疑聲背后的法律困惑
中國衛生(2015年1期)2015-11-16 01:05:56
論多元主體的生成
主站蜘蛛池模板: 宅男噜噜噜66国产在线观看| 亚洲人成在线免费观看| 欧美成人一区午夜福利在线| 国产成人综合网在线观看| 99中文字幕亚洲一区二区| 欧美人与动牲交a欧美精品| 亚洲激情区| 熟妇无码人妻| 欧美国产日韩另类| 成人午夜视频网站| 欧洲免费精品视频在线| 亚洲欧美另类中文字幕| 国产手机在线小视频免费观看| 国产经典免费播放视频| 亚洲视频黄| 无码 在线 在线| 亚洲国产成人久久77| 毛片网站观看| 午夜无码一区二区三区| 无码区日韩专区免费系列| 99成人在线观看| 国产va视频| 国产真实乱人视频| 午夜限制老子影院888| 亚洲成a人在线观看| 欧美一区国产| 制服丝袜一区| 国产精品欧美在线观看| 欧美日韩成人| 欧美一区二区三区国产精品| 欧美一区二区啪啪| 在线欧美一区| 伊人网址在线| 国产99视频精品免费视频7| 国产第一福利影院| 国产日本欧美在线观看| 国产欧美日韩va另类在线播放| 久久综合婷婷| 色综合狠狠操| 国产黄视频网站| 免费无码又爽又黄又刺激网站| 亚洲国产看片基地久久1024| 成人伊人色一区二区三区| 黄色a一级视频| 久久国产亚洲欧美日韩精品| 国产主播福利在线观看| 国产成人高清精品免费5388| 久久综合伊人 六十路| 成人免费视频一区| 国产免费高清无需播放器| 国产乱人激情H在线观看| 少妇精品在线| 精品欧美日韩国产日漫一区不卡| 精品少妇人妻一区二区| 91无码人妻精品一区二区蜜桃| 欧美a级在线| 国产日韩欧美一区二区三区在线 | 五月婷婷精品| 中文字幕丝袜一区二区| 亚洲黄网在线| 日韩高清无码免费| 成人蜜桃网| 亚洲一区二区三区在线视频| 在线观看免费AV网| 在线观看亚洲人成网站| 伊人精品视频免费在线| 亚洲婷婷在线视频| 亚洲成人免费看| 97久久人人超碰国产精品| 亚洲天堂区| 亚洲V日韩V无码一区二区| 久草中文网| 激情在线网| 国产黄色视频综合| 97视频精品全国在线观看| 99热精品久久| 韩国福利一区| 亚洲无限乱码一二三四区| 久久久久久久久久国产精品| 国产91全国探花系列在线播放| 久久黄色影院| 亚洲精品第五页|