999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

弱人工智能時代的法律回應
——構建以產品責任為核心的責任分配體系

2019-01-26 19:00:35錢思雯
中國科技論壇 2019年9期
關鍵詞:人工智能人類法律

錢思雯

(常熟理工學院,江蘇 常熟 215500)

0 引言

案例一:2011年,英國一駕駛員根據GPS指引,超車并將車輛轉向道路錯誤的一側造成交通事故致人死亡。法院認為GPS的失誤是事故的部分原因,但駕駛員對GPS的過分依賴構成了疏忽駕駛,被判處4年徒刑。

案例二:2016年,美國佛羅里達州一輛開啟Autopilot模式的特斯拉電動汽車對駛近的大貨車未做出任何反應,徑直撞向了大貨車尾部的拖車并導致駕駛員死亡,成為人工智能發展史上第一起自動駕駛致死事故。

案例三:2017年,ElsaGate (愛莎門事件)使不良兒童視頻廣泛傳播,由于You Tube算法存在漏洞 (如自動推薦算法給予基于視頻發布者的權值權重很小,給予個人觀看者權值比重大;兒童安全算法易被規避等),導致個別有害視頻被兒童觀看后大量類似視頻被自動推薦給兒童。

從深藍到AlphaGo,從GPS到智能車,近年來,人工智能 (Artificial Intelligence,AI)在多個領域取得突破進展并展現了極為強大的深度學習能力,甚至超越了人類一流專家水平,人工智能已成為不可阻擋的時代潮流,對各國經濟社會發展產生著戰略性和全局性影響。 《國務院關于積極推進 “互聯網+”行動的指導意見》提出,到2018年,要在重點領域培育若干全球領先的人工智能骨干企業,初步建成基礎堅實、創新活躍、開放協作、綠色安全的人工智能產業生態,形成千億級的人工智能市場應用規模。

人工智能的飛速發展帶來了一系列社會與法律問題:社會層面,特定行業工作崗位首當其沖,2018年1月,美國卡車司機工會要求與UPS談判禁止無人機和無人駕駛卡車配送包裹,以保障26萬名員工工作;法律領域,2017年12月,工信部 《促進新一代人工智能產業發展三年行動計劃 (2018—2020年)》提出要開展人工智能相關政策和法律法規研究,為產業健康發展營造良好環境。年是三年行動計劃的之年,人工智能法律領域的研究也已提上議事日程,人工智能的民事主體地位、人工智能作品著作權、人工智能侵權、大數據時代隱私權保護等問題皆已引起了各方關注。

面對人工智能時代對現行法律體系的挑戰,本文針對以下問題進行思考:傳統法律如何應對人工智能技術革新?怎樣構建人工智能時代的責任分配體系?如何在保障安全與促進技術進步之間取得平衡?本文的第一部分對當前人工智能的發展階段進行定性,認為當前人工智能屬于弱人工智能階段,尚未脫離 “物”之屬性,仍屬法律關系的客體;第二部分從責任分配的角度分析弱人工智能時代可能承擔責任的主體,認為由制造商承擔產品責任是平衡技術發展與消費者權益保護的最優選擇;第三部分討論弱人工智能技術發展對現行法律體系的挑戰,認為法律應對人工智能的合法地位采取寬容態度,并確立合理的監管框架和責任分配體系。

1 人工智能的定位:弱人工智能的 “物”之屬性

技術進步使人工智能逐漸由 “物”向 “人”轉變,對應人工智能法律人格從無到有、法律地位由法律關系的客體向主體的轉變。人工智能的不同法律定位對應了不同的糾紛解決形式,影響最終的權利歸屬與責任承擔方式,因而明確現階段人工智能技術的發展階段與法律地位成為探討人工智能一切法律問題的前提。

1.1 發展階段

自1956年達特茅斯會議上提出人工智能概念以來,人工智能的發展已經歷60多年,對人工智能的討論圍繞 “思考”和 “行為”區分了四個維度,即:像人一樣思考的系統,理性地思考的系統,像人一樣行動的系統,理性地行動的系統[1],但對其定義至今未有一致結論。從發展階段看,人工智能可分為弱人工智能 (Artificial Narrow Intelligence,ANI)、強人工智能 (Artificial General Intelligence,AGI)和超人工智能 (Artificial Super Intelligence,ASI)三個階段,弱人工智能盡管具有推理計算、自我學習能力,可以像人類一樣解決任何問題并在任何社會環境中進行互動,但并不具備意識;強人工智能則具備意識、自我、創新思維等與人類類似的智能[2];超人工智能更是在各方面均遠超人類大腦。

目前,弱人工智能已取得了飛速發展并充斥在人類生活的各個方面,如搜索引擎、導航系統、人臉識別系統、AlphaGo,等等[3]。盡管深藍、AlphaGo等人工智能在某些領域擊敗人類頂尖高手,但尚未具備自我、意識等類人類智能,仍未跨越與強人工智能之間巨大的技術鴻溝, 《星球大戰》中的C-3PO等智能程度匹配甚至超越人類智能的強人工智能仍屬虛構。 《奇點臨近》一書預言技術發展將以指數級速度遞增,人工智能將在2045年超過人類智能[4],但奇點臨近前的當前時點仍處于弱人工智能階段。

1.2 控制能力

面對人工智能的爆發式發展,霍金曾公開表示憂慮,其認為: “可以想象,人工智能會以其‘聰明’在金融市場勝出,在發明方面勝過人類研究者,在操縱民意方面將勝過人類領導人,研發出人類甚至不理解的武器。盡管人工智能的短期影響取決于誰在控制人工智能,而它的長期影響則取決于人工智能能否受到任何控制。”可以看到,控制權的歸屬將成為強人工智能和超人工智能時代人類與人工智能交互作用的焦點,也是人工智能從法律關系的客體向主體轉變的重要轉折點。強人工智能以后,人工智能技術超越人類控制能力,倫理性將超越技術性成為人工智能法律制度的基石,從 “機器人三定律”到 “阿西洛馬人工智能原則”,人工智能的倫理性基礎將確保其未來發展以人類最佳利益行事。

弱人工智能的深度學習能力導致其行為具有不可預測性,當制造商 (設計者)將人工智能用于實踐后就無法預見其將如何運行,更無法預測其與消費者或第三方互動學習結果[5],例如,案例三中,You Tube根據用戶點擊習慣推薦類似視頻導致有害視頻擴散,微軟聊天機器人Tay根據互動用戶語言習慣學習并發表種族歧視言論,等等。然而,盡管無法精準預測弱人工智能的行為結果,制造商 (設計者)仍可通過更科學合理的設置算法與強化審核過濾體系對不可預測后果加以防范。因此,盡管弱人工智能具有獨立思考與深度學習能力,甚至具備某種程度的獨立行為能力,但仍離不開人類的監管與控制,如人類駕駛員在自動駕駛模式下仍需保持足夠警覺并在系統發出請求時及時恢復人工控制,又如網絡平臺自動推薦系統的控制權由平臺公司掌握并受到監管。由此可見,弱人工智能階段,人類有能力也有義務保持對人工智能的控制以保障技術發展的安全性,對弱人工智能的法律規制更多集中于技術層面。

1.3 法律地位

沙特阿拉伯于2017年賦予機器人 “索菲亞”公民身份,引發了對人工智能法律地位的思考,其究竟是隸屬于人類的 “財產” “自然奴隸”,還是與人類相似的 “公民”[6]?具有公民身份的機器人 “索菲亞”在當前只是特例,弱人工智能的公民地位并未得到普遍認可,人工智能的公民權問題在強人工智能時代將無法回避,而弱人工智能時代則更多關注責任分配等私法問題。

長遠來看,確定人工智能有限法律人格或特殊法律地位系大勢所趨[7],當人工智能自治性增強到具有獨立行為能力的轉折點——便產生了獨立承擔民事責任的必要性與可能性。2016年,歐洲議會向歐盟委員會報告第59 (f)項建議: “從長遠來看,要創設機器人的特殊法律地位 (a special legal status),以確保至少最復雜的自動化機器人可以被確認享有電子人 (electronic persons)的法律地位,以彌補人工智能所造成的任何損害,并適用于機器人做出自主決策或獨立與第三人交往的情形”。除技術突破外,還需輔以勞動法、稅法、保險法、公司法、信托法乃至憲法等法律的變革,才能使人工智能享有獨立財產并享有一定程度的私法 “人格”[8]。

目前,弱人工智能雖具有獨立思考與深度學習能力,但尚未具備自我意識與情感,也不能離開人類的最終控制。從作為輔助駕駛工具的GPS到可獨立作出判斷的自動駕駛汽車,人工智能自治性不斷增強,工具性不斷減弱,難以做出準確的法律定性。明確弱人工智能的法律定位是解決一切法律問題的關鍵,根據人工智能的特殊屬性,其可能的法律定位包括[9]:

(1)雇員:近年來,亞馬遜等公司開始探索采用無人機、無人駕駛汽車送貨,導致人類快遞員崗位岌岌可危,或可將弱人工智能的法律地位類比為人類雇員,其造成的損害由雇主承擔替代責任。然而,與其說無人機、無人駕駛汽車類似于人類雇員,不如說其為更先進的運輸工具更合適。再進一步,人工智能并不具備人類雇員的特性,無法在復雜的社會活動中作為一個有自我意識的主體存在,難以從主觀上斷定其是否為 “雇主利益”行事,對其自我學習、自我判斷后超出授權范圍的行為難以斷定是否屬于 “職務行為”,將其類比為 “雇員”并不合適。

(2)代理人:電子代理人 (electronic agent)在電子商務締約過程中的廣泛運用提出了人工智能法律地位的另一種可能——代理人,與人類代理人相似,電子代理人使被代理人行為得以延伸,并將行為后果歸屬于被代理人。然而,電子代理人實質上仍是計算機程序、電子或自動化手段,根據既定程序運行,與人類代理人有本質區別,沒有能力對代理過程中造成的損害承擔民事責任,無法超脫工具范疇 (Instrumentality Theory),并不適合將其類比為代理人[10]。

(3)未成年人:將人類對弱人工智能的監管類比為對未成年人的監護,監護手段與強度隨著被監護人理性的增長而調整[11]。但監護權系準身份權[12],弱人工智能并不具備 “人格”與 “身份”,并且其理性程度、承擔監護義務的主體均難以確定,無論使設計者、制造者或使用者負擔監護義務,均將造成 “監護人”的過重負擔,阻礙人工智能技術發展。

(4)動物:弱人工智能的理性水平尚處初級階段時,拋開 “人格”與 “身份”的顧慮,動物或許是更為合適的類比對象。動物飼養人或管理人實際控制、管理著動物,并了解動物的習性,比一般人更能注意和防范損害發生,應當對動物采取安全措施并負合理注意義務,對動物造成的損害承擔侵權責任。然而,此種類比將弱人工智能侵權責任施予實際控制者 (如使用人,往往是消費者),并不深究損害原因[13],但事實上,實際控制者并不掌握人工智能的運作原理,不能預測其行為趨勢并防止損害發生,由其承擔替代責任并不公平。

(5)危險行為:還有一種思路是將弱人工智能類比高度危險作業,如民用核設施、航空器、高度危險物等,由實際控制者承擔無過錯責任。然而,人工智能的運用與火箭測試、高速駕駛油罐車等行為存在本質區別,發展人工智能的目的是使人類生活更為便利與安全,即便在使用過程中產生了危險也并非其固有風險,很難將其定性為危險行為。相反,弱人工智能在提高安全性、減少事故發生方面做出重要貢獻,例如特斯拉在安裝了Autopilot輔助駕駛系統后交通事故發生率降低了40%。

(6)物:弱人工智能遠未發展到 “電子人”階段,人類依舊保持著對弱人工智能的監管與控制。不同于對未成年人的監護及對動物的管理,人類對弱人工智能的監督主要體現在兩方面:一方面,體現為制造過程中制造商對程序和算法的設定、技術的改進,以及在后續維護中對程序的更新及漏洞的彌補;另一方面,體現為應用過程中使用人對控制權的掌握。現階段,人類對弱人工智能的權益并未脫離占有、使用、收益、處分的范疇,將人工智能定位為 “物”,特別是被人們生產、使用和消費的 “產品”更為合適,有利于推動人工智能商業化進程。

2 弱人工智能的責任承擔:以產品責任為核心

無論是有形的自動駕駛汽車,還是無形的算法,弱人工智能作為 “物”與人類互動不斷增多,無可避免產生損害與侵權風險。不同于奇點來臨后的強人工智能,弱人工智能尚未具備獨立承擔法律責任的條件,但與傳統 “物”之侵權不同,弱人工智能侵權特征表現為侵權形態的多樣性、侵權原因的復雜性以及控制手段的隱秘性,如何合理分配弱人工智能的侵權責任,從而推動技術進步并保障技術安全成為現行法律亟待回應的重要問題。

2.1 責任主體

導致人工智能侵權的原因多種多樣,包括人工智能產品缺陷、使用人 (監管人、第三人等)的錯誤操作以及人工智能本身的獨立判斷等,在人工智能與人類互動導致損害的過程中,責任主體有以下可能[3]:

(1)制造商 (設計者、經銷商等)。人工智能作為產品本身的缺陷,包括制造缺陷、設計缺陷和警示缺陷,應由制造商 (設計者、經銷商等)承擔責任。如案例三中,You Tube應對存在漏洞的算法導致的損害結果負責;實務中汽車制造商對汽車電子控制系統設計缺陷、定速巡航系統缺陷亦承擔產品責任。

第三天仍然是有,第四天,第五天,一個星期過去。第十天的時候,阮小棉終于把那張報紙留下來。她記下了他的地址,芙蓉里五段18號。

(2)使用人 (監管人、第三人等)。目前的弱人工智能尚未具備獨立行為能力,使用過程離不開人類控制與監管,即便使用者并不了解、無法預測人工智能的行為,仍需為其行為承擔責任[13]。如案例一中GPS提供的路線指引離不開駕駛員的獨立判斷;Google汽車Autopilot系輔助駕駛系統需要駕駛員保持對車輛的控制和快速反應;自動駕駛模式下的飛機駕駛員仍有義務對飛機保持嚴密監控。此外,第三人通過與人工智能互動等方式對其自我學習結果產生影響致使損害發生,也應當承擔責任,如聊天機器人自動學習的語言內容與使用者的語言習慣有直接關系;黑客對系統漏洞的攻擊可引發隱私泄露等一系列嚴重后果。因此,弱人工智能的使用人、監管人乃至第三人都是可能的責任主體。

(3)人工智能本身。特定情況下,弱人工智能符合邏輯的正確決定也將導致損害,產生人工智能本身承擔責任的可能。例如:兩輛完全自動駕駛汽車在高速公路上同向行駛,A車在左車道,B車在右車道,A車在B車略前方。一頭鹿突然出現在左車道中間,A車立刻做出決定,向右車道打方向以避免撞到那只鹿。右車道內的B車同樣做出決定,向右側打方向以避免碰撞到A輛車,撞到了右面的一棵樹并導致B車內乘客受傷。兩輛自動駕駛汽車均正確運行并做出最安全的決定,由人工智能本身承擔責任似乎最符合公平正義的理念。當前,美國國家公路運輸安全管理局 (the National Highway Transportation Safety Administration)已承認車輛自動駕駛系統作為車輛 “駕駛人”,由人工智能本身承擔責任的情境并不遙遠。

此外,在人類與人工智能的復雜互動中,尤其是弱人工智能尚離不開使用人監督操作的現階段,更多出現混合責任的情況,如人類駕駛員在不利的天氣條件或路況下開啟自動駕駛模式,以及未能在特定情況下重新控制車輛等,此時,事故原因的界定及責任的合理分配將更為困難。

2.2 最優選擇

無論是通過傳統侵權法體系還是產品質量法體系解決弱人工智能侵權責任分配問題,事故原因的查明均系關鍵所在,但只有制造商才具備技術與數據優勢進行調查。此外,正如霍姆斯法官所說, “最安全的方式是將風險交給決定采取何種預防措施的人。”[14]人工智能的制造商掌握著最全面的制造與改進技術,對弱人工智能具有最強的控制權。無論從事故原因的確定還是從風險控制方面來看,制造商都具有最優主體地位,具體而言:

(1)調查優勢。人工智能的運作過程類似 “黑匣子”,無論是法院還是其他專門調查機構,在事故原因調查中都需要人工智能制造商配合以獲得相關數據,如案例二中,美國國家公路交通安全管理局作為調查主體要求特斯拉公司移交自動駕駛系統引入以來的一切設計變更與更新的詳細信息,以及接下來四個月的更新計劃。弱人工智能的運作過程類似 “黑匣子”,制造商在推動 “黑匣子”轉變為 “玻璃匣子”的進程中發揮核心作用。目前,各國已開始推動人工智能的透明化進程,歐盟要求配置大量對公眾產生影響的算法的公司,必須在2018年前對所創建模型的內部邏輯做出 “解釋”,美國國防高級研究計劃署也制定了 “可解釋的人工智能新計劃”力圖對人工智能深度學習進行解釋[15]。

(2)控制優勢。由于制造商掌握著弱人工智能的核心技術并在制造、設計、警示方面具有主動權,較于其他主體,制造商對人工智能產品更為了解,更有利于控制事故、改進技術,具有最低的預防成本,根據漢德公式,由制造商作為人工智能侵權的第一責任人具有合理性。制造商對弱人工智能行為缺乏預見能力并不能成為其拒絕承擔產品責任的 “擋箭牌”,現代侵權法的多樣性風險路徑擴張了風險預見能力與預見范圍[5],制造商 “合理預見”范圍也進一步擴大,必須預見人工智能產品可能的一切用途,而不局限于其宣稱的功能。而隨著弱人工智能技術發展,越來越多弱人工智能將獨立運作,責任承擔將進一步由混合責任向制造商責任傾斜。

制造商的第一責任人地位也引發了一系列擔憂:一方面,面對不可預見的產品責任,制造商將失去開發新產品的動力從而阻礙技術進步[16]。嚴格的產品責任使中小企業很容易因幾起訴訟而破產,大企業則成為侵權訴訟的 “深口袋 (Deep Pocket)”背負沉重枷鎖;另一方面,制造商采取各種手段轉移責任使產品責任名存實亡,從而對人工智能市場發展產生負面影響。如將具備看護功能的人工智能保姆作為 “玩具”銷售,消費者難以證明對其看護功能的 “合理期待”,出現問題后難以歸咎于產品責任[3];或與消費者簽訂格式條款要求消費者保持注意義務并承擔最終風險,如Tesla要求自動駕駛模式下駕駛員的手經常保持在方向盤上并保證控制權,將責任轉移到使用人。

(1)責任限制。①免責事由。根據 《產品質量法》規定的免責事由,未將產品投入流通、產品投入流通時引起損害的缺陷尚不存在、科技發展水平限制可作為免責事由進行抗辯,但后兩種抗辯事由應采取更嚴格的標準,要充分考慮到制造商對人工智能自動學習、自我發展能力的預測與控制能力。②責任限額。科技進步與風險伴生,以航空法的發展為例,20世紀初飛機的發明對當時人類社會的沖擊并不亞于人工智能時代的到來,為保障航空公司免于大規模侵權訴訟,1929年簽訂的 《華沙條約》對國際航空運輸中的承運人責任、損害賠償標準等做出了規定,促進了技術創新與航空產業發展[18]。面對弱人工智能造成的不可預知的侵害,可參考航空法責任限額方式對制造商責任進行限制。③合理替代設計。制造商并不因人工智能帶來凈效益而免責,但為緩和制造商責任并防止訴訟泛濫,在缺陷的認定上可采合理替代設計標準,即制造商若能證明不存在其他合理替代設計以避免損害可減免責任[9]。在完全自動駕駛車輛基于獨立判斷仍不免發生事故的情況下,制造商并無合理替代設計方案避免事故,即便人類駕駛員也無法做出更好的選擇,根據風險-效用理論并不能認定自動駕駛車輛存在缺陷,因而制造商在上述情況下可免于承擔責任。

(2)稅收與基金。通過向制造商收稅并設立賠償基金以緩和制造商責任、減少訴訟帶來的沖擊,此種方式在醫療、汽車制造領域均有先例。以醫療領域為例,新疫苗的研發與應用往往伴隨大量訴訟,為促進疫苗的研發并維護受害人權益,1986年,美國前總統里根簽署 《全國兒童疫苗損害法案》 (NCVIA)并為受害者設立賠償基金,并成立了國家預防接種傷害救濟項目 (NVICP),每劑疫苗向制造商征收0.75美元的稅收,消費者可直接向該項目提出索賠。消費者并不承擔對因果關系和實際損失的舉證責任,只有消費者拒絕賠償或被該項目拒絕賠償的情況下才可對制造商提起訴訟,此舉既鼓勵了家長給兒童接種疫苗,同時也促進了制造商繼續研發疫苗[18]。在人工智能領域,也可參考此種方式向制造商征收合理的稅收并成立賠償基金,為人工智能侵權受害人提供賠償,避免制造商陷入訴訟旋渦。

(3)保險。通過保險分散人工智能帶來的風險是一個多贏選擇,人工智能安全性越高,保費就越低,就越能促進制造商進一步改進技術、提高產品安全性[16]。目前,在自動駕駛領域,交通事故責任保險或賠償保函已成為強制性要求。對人工智能投保也具有較強可行性,目前許多保險公司已開始采用 “基于使用”計劃,通過車輛設備收集駕駛信息,了解駕駛習慣及駕駛行為,據此精確調整保費。類似的,在其他人工智能領域,保險公司也可根據歷史數據確定風險并調整保費[19]。

2.3 制造商義務

弱人工智能時代,法律調整的首要任務是在防范人工智能帶來的風險與鼓勵科技創新之間尋求平衡,由于制造商在事故原因調查、風險控制、技術革新方面都具有顯著優勢,并可通過責任限額、稅收、基金及保險等手段分散風險,故以產品責任為核心的責任分配體系具有合理性與可行性。圍繞制造商責任,基于弱人工智能特點,制造商還需承擔如下義務:

(1)舉證義務。產品責任系無過錯責任,原則上,受害人承擔對產品缺陷、損害以及因果關系的證明責任;生產者則對法律規定的免責事由承擔舉證責任。而在特殊情況下,如生產者掌握核心技術,受害人無法通過其他途徑檢測產品缺陷,則可由法官裁量采用舉證責任倒置。弱人工智能的產品責任確定即屬于此種特殊情況,人工智能的復雜性與不透明性使消費者難以查明事故原因并證明產品缺陷,為避免消費者負擔過重的舉證責任,舉證責任倒置是更合理的選擇。此外,以不存在 “合理替代設計”作為證明標準,避免訴訟泛濫[20]。

(2)培訓與訓練義務。弱人工智能的特殊性在于其不斷的自我學習與自我改進能力,為確保制造商對其行為的 “合理預測”,在人工智能產品進入市場前,必須保證具備足夠的 “前市場測試”使操作系統具有足夠的學習量[19]。以醫療機器人 “達芬奇”為例,其投入市場后已引發多起產品責任訴訟,法院普遍認為制造商應對消費者進行培訓指導,個別法院甚至認為制造商還應當負有對機器人的 “訓練義務”[9]。

(3)警示義務。現階段弱人工智能尚離不開使用者監督,但消費者對人工智能的想象與信賴很容易產生對其安全性與便利性的 “合理期待”,導致對人工智能的過度依賴與注意力分散,因此,除事先對消費者進行培訓外,制造商還應承擔及時的風險警示義務[9]。案例二即人類駕駛員對有條件自動駕駛模式產生過度依賴所導致的,事發時駕駛員正在觀看電影,人類駕駛員無視車輛發出的視覺警告及語音警告導致了事故發生。針對此種情況,除及時有效的警示外,制造商還應采取容錯設計以避免人類在與人工智能互動過程中發生錯誤。案例二事件發生后,特斯拉升級了Autopilot系統,若司機對系統警告沒有反應,將暫時阻止車主使用該系統。通用汽車也計劃在半自動駕駛汽車中安裝包含能夠探測出駕駛員是否困倦或未注意路況功能的軟件,并采用聲音和視覺方式引起駕駛員注意,若警告無效,制造商將通過車輛的對講系統與人類駕駛員對話溝通。如果人類駕駛員仍未有反應,車輛就會在路邊停靠,進一步確保人工智能安全性[19]。

(4)維護義務。不同于普通產品制造商提供的售后服務,弱人工智能產品投入市場后,不斷與人類互動并自我學習成長,時刻面臨新情況、新問題,弱人工智能產品制造商負有更重的跟蹤維護義務,需要隨時注意更新程序、修補漏洞并防范黑客攻擊,必要的時候甚至需要主動召回產品[9]。目前,一些制造商已經在自動駕駛汽車采用無線升級技術OTA (Over The Air),以確保對自動駕駛汽車的維護與更新。

(5)披露義務。人工智能是當前發展最前沿的技術之一,消費者很難通過檢索代碼等方式發現程序、算法錯誤等產品缺陷[21]。制造商出于商業秘密保護等目的可能不愿意透露產品信息,但舉證責任倒置的要求及合理替代標準的確立都迫使制造商負擔一定程度的信息披露義務[20]。此外,結合產品責任保險,制造商還可通過披露保費的方式使消費者了解人工智能產品的潛在風險,從而做出正確的消費決定[19]。

3 弱人工智能時代的法律態度:激進還是保守

技術的發展對法律制度有著直接影響,甚至推動全新法律制度的創造[22],反過來,法律對科技發展的回應方式又影響了技術革新的進程。人工智能時代對法律帶來的挑戰遠甚于以往任何時期的技術變革,在人工智能產業發展三年行動計劃的開局之年,我們必須思考:現有的法律體系應以何種姿態應對人工智能的飛速發展?如何在促進技術革新與維護各方權益之間取得平衡?

3.1 對現行法律體系的挑戰

人工智能的最大特點在于其自我學習、自我決定的能力,而現行法律則是建立在 “所有的決定都是由人類做出”這一假設的前提下,長遠來看,兩者必然產生沖突,在憲法、刑法、民法等各個領域引起重大變革。在當前的弱人工智能時代,沖突尚未加劇,但摩擦早已顯現,弱人工智能在合法地位、監管手段、責任承擔等方面與目前法律體系不相適應,亟待法律及時做出調整與回應。

(1)合法地位的挑戰。人工智能的進步正在以無與倫比的勢頭挑戰現有法律體系,以自動駕駛汽車為例,現有的法律制度、政策、保險體系等,并不是為自動駕駛時代的交通量身定制的,勢必面臨排斥反應[23]。2017年7月,百度CEO李彥宏 “乘坐”無人駕駛汽車在北京五環上行駛的事件引發了對無人駕駛合法性的爭議,倒逼現行交通法律法規的破冰。12月,北京市交通委聯合北京市公安交管局、北京市經濟信息委制定發布了 《北京市關于加快推進自動駕駛車輛道路測試有關工作的指導意見 (試行)》和 《北京市自動駕駛車輛道路測試管理實施細則 (試行)》,規范并推動了自動駕駛汽車的實際道路測試。自動駕駛領域的合法性挑戰在國際上早已呈現,2016年 《國際道路交通公約 (日內瓦)》修正案承認了符合條件的自動駕駛合法身份,德國、西班牙、新加坡和美國部分州也肯定了自動駕駛汽車的合法性,相反,印度則于2017年7月宣布禁止自動駕駛汽車上路。

(2)監管體系的挑戰。面對人工智能帶來的不確定性與潛在風險,放任自流并非明智選擇,如何構建適度有效的監管體系,引導人工智能在正確的軌道上發展成為各國立法的重要課題。早在2016年,歐盟議會法律事務委員會發布 《就機器人民事法律規則向歐盟委員會提出立法建議的報告草案》 (Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics)及 《歐盟機器人民事法律規則》 (European Civil Law Rules in Robotics),并于2017年通過一份決議 (Resolution),提出了具體的立法建議,加強對人工智能的監管成為該項決議的重要內容,具體包括設立專門機構、確立倫理準則、針對特定用途人工智能出臺特定規則等。目前,無人駕駛汽車及無人機領域的監管盲區已經呈現[24],在及時填補特定領域法律空白的同時,學習歐盟確定針對人工智能確定整體監管框架與倫理準則成為當務之急。

(3)責任體系的挑戰。隨著人工智能的廣泛運用,越來越多人工智能侵害案件對現行責任體系提出挑戰,強人工智能甚至能成為侵權責任、違約責任乃至刑事責任的主體。弱人工智能在逐漸脫離使用者監督、控制的過程中,責任分配方式也從使用者過錯侵權轉移至生產者的產品責任。而現階段弱人工智能仍需要人類操作與監管,存在大量混合責任的情況,責任的確定與轉移難以 “一刀切”,目前各國立法對此的回應較為保守,中美兩國則仍在現行法律體系內確定自動駕駛責任,人類駕駛員仍居于責任主體地位。德國2017年修訂的 《道路交通法》則更進一步,試圖在制造商與駕駛員之間明確責任轉移的標準,但此舉的合理性與可行性遭到質疑。但長遠來看,面對弱人工智能的發展,對現行法律體系的變革與責任的重新分配勢在必行。

3.2 法律對技術革新應對手段

法律必須是穩定的,但又不能一成不變[25]。人工智能的迅速發展將徹底改變人類生活甚至改造世界,對現行法律體系的挑戰也是前所未有。法律應及時做出回應,在激進與保守、穩定性與適應性之間尋求平衡點:一方面,對人工智能合法地位采取寬容態度,以鼓勵技術發展;另一方面,確立科學合理的監管框架和責任分配體系,以維護安全穩定。此外,應對技術革新,弱人工智能時代的法律體系更要處理好以下三方面關系:

(1)推動創新與保障安全。科技的進步從來是一把 “雙刃劍”,法律應在技術進步與安全穩定之間起到平衡作用。人工智能引領人類通往未知世界,被稱為 “第四次工業革命”,在構建人工智能法律體系與監管手段時,必須具備充分的前瞻性,既要防止刻板傳統的監管阻礙創新,又要防止法律盲區引發系統性風險[9],應致力于 “建立以安全為核心的法律價值目標、以倫理為先導的社會規范調控體系和以技術、法律為主導的風險控制機制[26]。”

(2)信息披露與知識產權保護。在人工智能監管框架內,從事故原因調查到產品標準確立,均離不開制造商對人工智能技術的合理披露,這與商業秘密的保護存在沖突。然而,人工智能自我學習能力的提高與發展將帶來制造商無法控制的風險,適當的權利讓渡不可或缺,對人工智能 “黑匣子”運作過程的解讀與一定程度的信息披露是保障人工智能安全性的必經之路。

(3)制造商責任與消費者權益。特別是現階段,一方面,弱人工智能尚離不開使用者監督,制造商采取種種手段將最終責任轉嫁到消費者身上;另一方面,消費者對人工智能的合理期待又無法避免其產生合理依賴,在允許自動駕駛汽車的人類駕駛員手離方向盤、上網、瀏覽郵件的同時,又要求其保持隨時掌握車輛控制權實屬強人所難。弱人工智能發展的最終方向是脫離使用者監督,不斷增強自治性與獨立性,因而應當構建以產品責任為核心的責任分配體系,強化制造商責任,并輔以保險、基金、稅收等手段分散制造商風險,從而平衡制造商與消費者權益并推動技術進步。

4 結論

人工智能的發展無論在倫理性層面還是制度性層面都引發了廣泛爭議,從長遠看,必然給人類社會帶來翻天覆地的變化,政治、經濟、法律等各個領域都將發生深刻的變革;而從短期看,目前技術發展水平仍處于弱人工智能階段,我們既不必杞人憂天地對人工智能產生 “終結者”的恐慌,又不可故步自封無視技術的進步,法律則應順應時代發展,在對人工智能合理定位后做出恰當的回應,為人工智能發展營造良好環境。

猜你喜歡
人工智能人類法律
人類能否一覺到未來?
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
“互助獻血”質疑聲背后的法律困惑
中國衛生(2015年1期)2015-11-16 01:05:56
主站蜘蛛池模板: 欧美在线视频不卡| 中文字幕乱码中文乱码51精品| 婷婷综合色| 中国国产A一级毛片| 精品无码一区二区三区在线视频| 成人午夜免费视频| 国产精品免费电影| 日韩在线观看网站| 精品一區二區久久久久久久網站| 尤物国产在线| 99热这里只有精品5| 亚洲成在线观看| 久久免费视频播放| 亚洲精品成人片在线观看| 国产乱论视频| 国产激情影院| 欧美成人午夜视频| 国产激情影院| 为你提供最新久久精品久久综合| 国产免费精彩视频| 久久亚洲综合伊人| 欧美成人午夜影院| 久久伊伊香蕉综合精品| 国产av无码日韩av无码网站| 一本大道无码日韩精品影视| 精品天海翼一区二区| 99青青青精品视频在线| 久久窝窝国产精品午夜看片| 中文字幕亚洲另类天堂| 天堂中文在线资源| 久久99国产乱子伦精品免| 99久久精品久久久久久婷婷| 国产精品嫩草影院av| 精品人妻一区二区三区蜜桃AⅤ| 亚洲无码电影| 久久一日本道色综合久久| 中文字幕日韩久久综合影院| 老司机午夜精品网站在线观看| 亚洲伊人天堂| 国产精品免费电影| 无码免费试看| 第九色区aⅴ天堂久久香| 国产精品无码久久久久AV| 国产91丝袜在线观看| 久久伊人操| 色综合天天综合| 色窝窝免费一区二区三区| 九九九精品视频| 久久亚洲AⅤ无码精品午夜麻豆| 亚洲天堂日韩av电影| 91久久性奴调教国产免费| 一级毛片视频免费| 国产97视频在线观看| 亚洲欧美国产五月天综合| 亚洲国产精品国自产拍A| 国产成人无码AV在线播放动漫| 99久视频| 亚洲欧美另类专区| 成人午夜精品一级毛片| 亚洲二区视频| 亚洲av综合网| 在线亚洲小视频| 日韩精品一区二区三区中文无码| 99青青青精品视频在线| 欧洲亚洲一区| 国产亚洲欧美日韩在线一区二区三区| 91九色最新地址| 五月婷婷丁香色| 在线欧美a| 91外围女在线观看| 无码视频国产精品一区二区| 国产激情国语对白普通话| 国产高清在线丝袜精品一区| 91福利免费视频| 伊人无码视屏| 国产免费福利网站| 久久国产精品影院| 亚洲大学生视频在线播放| 五月天综合婷婷| 日韩在线播放欧美字幕| 国产微拍一区二区三区四区| 国产女人综合久久精品视|