寧金成 李瑞升
(1.2.鄭州大學 法學院,河南 鄭州450052)
人工智能浪潮方興未艾,在很多領域展示出巨大應用前景,然而隨著人工智能技術的發展,其高智能、自主決策的特性在應用中卻引發一系列倫理問題,比如智能主播因學“壞”而辱罵聽眾、自動駕駛汽車為自我避險而沖撞行人等,這些問題應如何避免并確定相關的責任,相關立法并未及時回應。雖然人工智能已經歷了半個多世紀的發展,但有關人工智能的立法國內外都沒有及時跟進,人工智能的屬性、質量標準、法律責任等仍處于制度空白,這與人工智能的發展現狀及對人類社會的巨大影響是不相稱的。目前讓人工智能取得法律主體地位還不具有充分的說服力,但如果將人工智能作為物來對待,人工智能自動決策的現象卻要求其表現要符合人類社會倫理規范,對人工智能的規制現行制度顯得力不從心。未來人工智能發展最大的問題,不是科學技術上的瓶頸,而是如何正確設置、處理人工智能與人類的關系問題。如果不把人類社會倫理規范引入人工智能的安全標準立法之中,可能人工智能帶給我們的不僅僅是便捷,還有無窮無盡的麻煩。遺憾的是,我國法學界對人工智能現象的探討尚未全面展開,近年來掀起的人工智能研究熱潮也主要集中于人工智能的法律地位、人工智能生成物的權利歸屬、人工智能侵權責任的承擔等問題,但對于人工智能活動與人類社會倫理規范的關系、人類社會倫理規范如何約束人工智能,現有研究缺乏從立法角度的實證分析。盡管倫理學也對“機器人能否成為倫理主體”問題開始研討,但法律倫理的交叉研究其實還沒有展開。因此,本文從人工智能的特性出發,探討人工智能倫理標準的立法構建,以保障科技造福人類最終目標的實現。
人工智能技術是模擬、延伸、擴展人的智能的理論、方法及應用的一門科學,也是迄今為止最具有挑戰性的一門科學。人工智能開啟了人類生產生活的全新方式,不過一門新興科技帶來的福與禍總是相伴而行[1],目前隨著人工智能的普及,其“脆弱面”也逐漸暴露,帶來一系列棘手的問題。比如自動駕駛汽車為了避免違反交通規則而沖撞了行人,這種自動化決策是否具有正當性,應該用何種標準來判斷這種決策是否選擇不當?再比如人工智能主播在閱讀資料時接觸了人類的欺詐案例,進而出現欺詐聽眾的情形,這是不應該出現的現象,但用何種標準來約束、規制這種現象?
這些問題的出現都源于人工智能對人類活動的模擬甚至現實的取代。人工智能與以往所有人類制造物存在的不同,就是人工智能具有同人類一樣甚至超越人類的思維判斷和行動能力。人工智能技術發展的最高理想是代替人類決策,比如醫療人工智能就可以代替醫療人員從事特定的診療工作,甚至比醫生做的更好。2017年3月29日,阿里在云棲大會深圳峰會上展示了基于阿里云服務的超聲甲狀腺結節智能診斷系統的實際應用情況。這個診斷系統利用人工智能,將甲狀腺結節診斷的準確率從60%~70%提高到了85%[2]。人工智能具有高度自主性、復雜性,非一般物可以比擬,這使得我們不得不在一些場合將人工智能當做“人”來看待,比如谷歌開發的無人駕駛汽車的人工智能車載系統就被美國官方認定為“司機”。高級人工智能可以像人類一樣進行邏輯推理甚至從事創造性工作,一些寫作人工智能在無須向系統輸入任何先天知識、無人類智慧直接參與的前提下,系統自身可以獨立生成新的智力內容、創造新的成果比如一篇新聞報道、一首詩歌。有學者就認為,只要是人工智能獨立完成的,其所生成的內容具有獨創性就能夠構成作品[3]。人工智能是用來解決某些實際問題的,但人工智能不會經過人類思維這個中介,不會以人類社會價值觀為背景做出判斷,如何更像人類也不是人工智能的發展方向,比如自動駕駛技術不僅是在汽車上安裝了自動駕駛程序,還采集大量的地圖地貌信息加入程序以使得駕駛更加符合實際需求。既然人工智能從事的行為如同人類自己在從事一樣,那么倫理選擇權也交給人工智能了,這種情況下就需要以人類社會規范來檢視人工智能的表現,其底線就是應符合人類社會法律法規、倫理道德的要求。
人工智能活動需要遵守人類社會的法律、倫理規則,但一般來講,法律是規范法律主體的、道德是規范人類社會自然人的,作為客體的物不是法律、道德規范的對象。對于人工智能的法律地位和屬性,近年來也引發激烈爭論。一些學者認為,在傳統法視野下將人工智能視為物已不能解決其致損侵權問題,人工智能與傳統機器的區別在于其具有“人”的自主性,按照目前人工智能的發展趨勢,人工智能必將獲得脫離人類控制的獨立自主能力,賦予其民事主體地位并自行擔責是大勢所趨。盡管對如何賦予人工智能法律人格,學界還存在爭議,比如有的學者認為,人工智能應該具有類似于企業法人的法律人格[4],還有學者認為,人工智能應當具有法律人格,但是屬于有限的法律人格[5],但這些觀點都傾向于在確定人工智能民事主體地位的前提下解決現有的法律問題。如果將人工智能視為民事主體,那么就要圍繞人工智能專門設計其權利義務享有制度和法律責任承擔制度。但這種推翻原有民法規則的做法其實沒有必要和可行性。從立法的目的和效果上看,把某一實體設計為民事主體是為了激勵、控制、約束、規范其行為。但人工智能運作模式都是由設計者設計的程序控制決定的,人工智能也不可能對人類制定的法律產生敬畏等意識,因此,法律不可能對人工智能的所作所為進行激勵、約束或控制,需要約束、規范的是人工智能背后的設計者、生產者、使用者的行為。因此,將人工智能作為民事主體、責任主體進行法律調整沒有實際價值。反過來講,如果認為人工智能是主體或者具有人格屬性,那么就要從根本上改變民法的人與物二分法的基本體系,就要針對人工智能創造出調整現有人與物之外的第三種基本規則來調整人工智能這種存在形式,但人工智能顯然沒有這樣強烈的需求和如此大的沖擊力。“面對人工智能技術的發展,用現行民法的基本理念和基本規則進行適當調整,就能夠解決其所帶來的問題。不必急急忙忙、不假思索地想著改變民法的基本理念和基本規則。”[6]因此,可以得出結論,目前我國立法目前沒有賦予人工智能以民事主體地位,在未來一段時間內也不需要修改法律賦予人工智能民事主體地位以使其可以獨立享有權利、履行義務。
目前人工智能“是法律關系的客體而非主體。”[7]但越來越多的社會實踐證明,物并非與道德無關,物蘊含著人類的思想,物反作用于人的思維方式,物與人類道德密切相關。在美國紐約州通往瓊斯海灘的路上,有一座摩西橋非常低,只有私家車可以通過,而公共汽車則不能,這讓瓊斯海灘成為只向富人開放的海灘,這種設計因此受到指責[8]。雖然橋梁不具有人的意志,但設計行為、設計過程與設計結果都要接受人類法律、道德的評判。反過來,特定物的設計、運用也會反作用于人類道德,比如馬路上減速帶的設計可以促進人們養成禮讓行人的良好道德風尚,地鐵進出口驗票通道中的閘門設計可以規避乘客逃票行為。“人類的最高目標是人類的全面發展,技術只是為這個目標服務的手段。”[9]人類所制造、設計的物都應該考慮權利、公平等社會價值問題,人工智能也如此。人工智能屬于物,但同樣蘊含著倫理主張、倫理需求。人工智能不具有人類所獨有的道德情感以及是非善惡意識,人工智能在解決一個具體問題時只能通過已有的有限數據來作出判斷決策,缺乏像人一樣決策時的社會倫理語境,但其自動化的行為和決策卻不得違背我們人類的倫理道德規范底線,因此要特別對人工智能活動加入社會倫理規范。本質的問題是如果將決策權交予人工智能,卻又對倫理問題不管不問,人類就面臨著失控的風險。實踐中已頻頻出現類似的實例,微軟推出的智能聊天機器人Tay上線24 小時即在與人的交流過程中,被“教壞”而成為滿嘴臟話的“不良少女”,被緊急下線[10]。這不啻為一記警鐘。當然有時候用戶自身可能道德素質不高,人工智能違反道德的決策可能與用戶的要求并不違背,但人工智能作為影響整個人類發展的高科技產品,為其設置法律、倫理道德底線以從整體上把控這一領域的發展方向十分有必要。2018年12月歐盟人工智能高級別專家組發布了一份人工智能道德準則草案,將人工智能倫理問題的規范化、制度化正式提上日程,這值得我們借鑒。
針對人工智能活動應建立倫理規則,但這種倫理規則應如何建立,這需要從人工智能的本質屬性出發來考察。
人工智能倫理規則應如何構建取決于人工智能的屬性,取決于人工智能應接受何種制度的規范。人工智能目前只是人類的工具,不應該超越于人類而具有獨立存在的價值,人工智能發展的一個里程碑式事件是機器人“索菲亞”取得沙特阿拉伯國籍,但機器人“索菲亞”取得沙特阿拉伯國籍后,也并未真正行使公民權利、履行公民義務,因此人工智能在本質上仍然屬于物,人工智能應置于人類的控制下。那么人工智能屬于何種屬性的物?《中華人民共和國產品質量法》第二條規定,本法所稱產品是指經過加工、制作,用于銷售的產品。人工智能是人類設計的,是經過加工、制作出來的,生產人工智能的目的是為參與流通即銷售,從這一點來看,人工智能仍然屬于產品的范疇,應接受產品制度的調整。實踐中對人工智能的分類也是從產品領域角度進行的,將人工智能分為醫療人工智能產品、智能寫作人工智能產品、自動駕駛汽車等。如果人工智能屬于產品,那么就應接受《產品質量法》產品質量、產品責任等制度的調整。對此問題學界也有不少探討,比如以產品責任解決自動駕駛汽車致損事故,就得到了較為廣泛的認可[11]。在人工智能屬于產品的情況下,以產品質量法中的產品責任制度規制人工智能領域的活動,也具有多個方面的可行性:
第一,人工智能帶來的風險只有通過產品責任規制生產設計行為才能得以良好控制。在很多時候人工智能致損時其處于完全自主的狀態,比如谷歌的人工智能概念車就已經完全取消了方向盤、剎車等干預裝置,車內的人是乘客而不是司機,此時發生交通肇事事故,判斷誰有過錯并進而確定責任人就成為難題。如果適用一般侵權責任的過錯歸責原則無法解決人工智能致損侵權責任,我國《侵權責任法》在第六條和第七條還規定了過錯推定規則和無過錯責任,不過適用過錯推定規則和無過錯責任都需要法律的明確規定,也就是說在沒有法律專門規定人工智能致損侵權適用過錯推定和無過錯責任時,就無法適用。總之,現有的侵權法不足以解決自動駕駛汽車帶來的問題[12]。而我國對產品責任制度規定了生產者的無過錯責任,人工智能在沒有外來干擾的情況下在運行過程中因自身瑕疵致人損害,就應由生產者承擔無過錯責任,而無過錯責任可以督促生產者盡最大努力保證人工智能這一產品的安全,杜絕人工智能產品設計上的瑕疵和盲目生產。從立法技術上看,法律調整最終是調整民事主體的行為,人工智能是由一系列算法來操控,是人類思維的延伸,是按照設計者預先設定的程序來運行,不會產生自己獨立的意志,法律也無法直接調整人工智能的決策程序。人工智能適用產品責任具有規制生產行為的作用[13],產品責任制度通過規制人工智能生產者、設計者的行為來作用于人工智能。在人工智能侵權場合確定責任人,不僅涉及對受害者的賠償,還涉及防范致損事件發生義務的分配問題。通過產品責任制度方能促進生產者、設計者盡力改進人工智能運行程序、嚴格生產規范,保障人工智能產品的安全。有學者就以自動駕駛汽車為例,指出在無人駕駛的情況下系統的可靠性至關重要,對系統安全性問題讓生產者承擔產品質量責任具有合理性[14]。
第二,產品責任制度的責任方式可以有效救濟人工智能致損侵權的受害人。我國立法規定的產品責任承擔方式包括排除妨礙、消除危險、賠償損失,以及對產品缺陷的補救方式如警示、召回等,都可以適用人工智能致損侵權場合。比如產品召回制度可以及早去除危險,避免損害進一步擴大,更有利于保護消費者。人工智能產品在設計方面的缺陷,有時只有在使用之后才能有透徹的認識,因此召回制度適用于人工智能產品具有合理性。侵權致損事實發生后,如果需要對于侵權的人工智能召回、修理或者更換,這些法律后果也是人工智能自身所不能完成的,需要通過產品責任制度實現。
第三,產品責任制度的抗辯事由可以保障人工智能生產者的創新積極性。人工智能作為新興技術,一些技術風險和漏洞從某一種意義上講是無法完全避免的。為避免無過錯產品責任打擊人工智能技術創新的積極性,需要一定的免責事由保護生產者。我國《產品責任法》第四十一條規定了生產者的免責事由,即未將產品投入流通;產品投入流通時,引起損害的缺陷尚不存在的;將產品投入流通時的科學技術水平尚不能發現缺陷的存在的。這種抗辯事由適用于人工智能產品責任場合也具有合理性,可以保障生產者的研發人工智能積極性,在一定程度上鼓勵科技創新。當然生產者如果以尚不能發現缺陷的存在為由進行抗辯是非常不容易的,只要這種缺陷是現有技術水平能夠識別、能夠事先預判的風險,不管能不能控制、避免,都要負責。人工智能具有學習能力,可能基于學習產生了之前沒有的缺陷,但這是設計時就可以預料到的問題,當然不能以此為由免責。
在人工智能應接受產品制度調整的前提下,倫理規則應成為產品質量合格與否的標準或者規則之一,違反倫理規則的產品要納入缺陷產品。按照我國《產品質量法》和《侵權責任法》的規定,產品質量是否合格或者是否存在缺陷的判斷標準分為兩種,即產品存在危及人身、財產安全的不合理危險,或產品達不到國家或者行業規定的標準。現階段我國還未制定人工智能產品的國家、行業標準,那么人工智能產品是否合格、是否存在缺陷,就主要取決于人工智能產品是否存在不合理危險。目前對產品存在的危險是否合理的判斷標準,目前理論上存在著“技術標準說”“消費者期待說”“風險-效用說”等,但考慮的因素都與產品質量標準相關,產品質量標準包括技術標準和管理標準兩個方面,主要是從產品的物理性能、外觀結構等方面上分析產品狀況,絲毫不涉及社會道德倫理問題,這對于判斷人工智能的某些儀器設備是否存在缺陷具有適用性,比如判斷人工智能傳感器是否正常、自動駕駛汽車的輪胎是否有缺陷等,都完全適用。但對人工智能自動決策時的道德選擇來說,上述判斷標準卻都不能適用。
雖然人工智能也是產品的一種,但人工智能與以往人類生產的所有產品都存在巨大不同,其具有類似甚至超越人類的智能。一般產品都是在人的操作下發揮產品功能,人的操作是產品實現一般產品功能的必要條件,但人工智能發揮功能并不需要人的操作。比如人工智能汽車反應速度遠超人類,其目的就是將人從駕駛這種簡單勞動中解放出來,高危險、高污染的環境下利用人工智能替代人類工作,不但能避免人類發生意外事故,還能節約勞動成本。按照目前的發展趨勢,人工智能具有獲得脫離人類控制的獨立自主能力的傾向,這導致只適用于規范人類自主決策行為的社會倫理道德規則也需要適用于人工智能產品,適用于這種特殊的“物”。正如學者指出的,自動駕駛汽車的算法也可能需要面對倫理上的挑戰[15]。在發生事故時自動駕駛汽車是嚴格遵守交通規則還是保護人類優先?一輛自動駕駛汽車在行進過程中面對突然從路邊跑過來的小孩,可能需要在雙黃線上轉彎以避免撞到小孩,但這可能違反交通規則,此時就需要做出符合人類社會需要的抉擇,但這種抉擇妥當與否,與產品物理等性能無關,無法適用傳統產品缺陷的判斷標準。因此,未來應完善豐富產品質量標準,倫理規則應成為人工智能產品質量合格與否、是否存在缺陷的標準,這是人工智能倫理規則建立的路徑。
早在2015年霍金就發出過警告,超級聰明的人工智能可以非常容易地實現它的目標,如果這些目標與人類不一致,人類就麻煩了[16]。是否應該為產品性能設置社會倫理邊界,這是以往產品制度中從來不需要考慮的,但對人工智能產品,卻需要加入這種倫理邊界以約束其自我決策過程。對于此問題,國內外都已經開始予以關注,比如2019年4月8日歐盟委員會發布《可信人工智能倫理指南》,指出“可信賴的人工智能”包括7個關鍵條件:人類的自主性和監督,技術的健全性和安全性,隱私和數據管理,透明度,多樣性、非歧視和公平性,社會福祉,問責機制[17]。2019年6月17日,我國國家新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》,提出人工智能治理的框架和行動指南,強調和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開發協作、敏捷治理8個原則[18]。這些文件所體現的原則和精神,都表明人工智能的發展應受到人類社會價值觀的約束。今后我國立法應在產品質量法中引入人工智能產品的社會倫理規則,具體包括兩個方面,即在人工智能產品質量標準中加入倫理道德規范,針對倫理問題增加人工智能產品缺陷制度的類型。
一般來說,產品質量是指產品滿足規定需要和潛在需要的特征特性總和,不管產品質量標準是操作運行方面、結構方面、物理性能化學成分方面,還是耐用性、使用成本、外觀等方面,最終目的都是為了保障滿足用戶的需要而設定的,從這一方面講,人工智能是代替人類作出決策的,其決策是應用于人類社會的,因此人工智能活動也要滿足人類的倫理需求,倫理要求應是判斷人工智能產品質量合格與否的一個重要指標。由于人工智能種類繁多,跨越多個行業和領域,因此可以在科技部下面建立人工智能的專門監管部門,未來可以由人工智能監管部門牽頭制定人工智能產品在質量方面的社會倫理規范行業標準。人工智能產品的社會倫理標準是針對人工智能的算法或者說決策活動的,具體內容應包括:
第一,人工智能的算法、決策應符合法律法規。這是人工智能產品算法設計的底線,倫理規范方面的法律標準是毋庸置疑的。法律與倫理在某些觀點上雖有所不同,但相互間不能分離[19]。人工智能決策出現違反法律法規情形的,比如人工智能在接觸人類隱私后選擇公開他人隱私,當然屬于產品運行方面的重大質量缺陷。
第二,人工智能的算法、決策應符合社會核心價值觀和倫理道德原則,應符合人類的根本利益,尊重人類人格尊嚴等。人工智能的算法、決策不僅僅是一個技術選擇問題,比如在自動駕駛汽車不可避免發生交通事故時,人工智能必須處理“保護誰和損害誰”的問題,但是決定“保護誰和損害誰”本質上是一個倫理問題,立法有必要予以干預并保障人工智能的此類決定符合社會核心價值觀和倫理道德原則。在現代法治背景下,倫理問題必然會轉化成政治壓力和民主議題,反映在立法中[20]。具體來說,人工智能設計要確保算法設定不出現歧視、避免用來欺詐的算法、對個人信息的收集和利用要關注隱私保護等。如果人工智能在倫理選擇方面進行算法上的排序,保障生命權應放在首位,當人工智能面臨人類生命權與其他權益相沖突時,首選保障生命權,其次再考慮其他人身權益、財產權益、效率秩序等倫理價值。
第三,為確保人工智能的算法、決策符合倫理規則,人工智能的算法設計要遵循可解釋性原則,即保證人類能夠了解人工智能如何以及為何做出特定決定,保證自主決策系統的工作原理人類可以預測。
為了保障規則的較大適用性,立法規定的人工智能產品倫理規則必然較為抽象,各個行業領域人工智能產品的社會倫理規范具體細則,監管部門可以另行制定。需要說明的是,人工智能的倫理問題一般消費者難以發現,在發展一項新的人工智能技術時,要對其是否符合社會倫理規范經過道德評估。我國《產品質量法》第十二條也規定,產品質量應當檢驗合格。在人工智能產品國家標準尚未出臺時,人工智能企業的自律存在獨斷的風險,而國家對產品質量的監督檢查以抽查為主要方式。鑒于人工智能產品的巨大社會影響,筆者認為,有必要針對人工智能產品建立第三方檢驗制度,新類型的人工智能產品進入市場前,監管部門要責令行業協會組織對人工智能進行內部算法檢驗,對人工智能技術指標是否符合社會倫理等標準進行全面審查和預估。在實踐中,如果是用戶在使用過程中修改程序導致人工智能算法程序、人工智能決策違反法律和倫理道德規范的,這與生產者設計者無關,應由用戶自行承擔后果。
適用產品責任制度的前提是產品存在缺陷,而傳統產品缺陷包括設計缺陷、制造缺陷和警示缺陷三類,按照這種分類人工智能產品的缺陷也可以分為設計缺陷、制造缺陷和警示缺陷,比如人工智能不按照輸入的指令運行就屬于設計缺陷,智能機器人電池漏電就屬于制造缺陷,沒有合理告知消費者操作注意事項就屬于警示缺陷。人工智能源于設計缺陷、制造缺陷和警示缺陷這三類原因在自動運行時致損侵權,就要適用產品責任制度解決其帶來的損害賠償等法律責任問題。但傳統產品的設計缺陷、制造缺陷和警示缺陷是否能涵蓋人工智能運行中的特殊倫理問題不無疑問。人工智能在使用過程中出現的大量思考、選擇和自主決策,原本可能是需要人類做出的,這是人工智能作為人類工作替代物面臨的最大問題。許多人工智能具有深度學習能力,生產商也無法準確預測人工智能在某些情況下會做出何種行為、發生何種后果,比如人工智能醫生是基于對以往診斷數據的學習分析,來給患者提出診療方案,IBM 公司就通過和一家癌癥中心合作,讓其研發的人工智能輔助診療機器人Watson對專業醫學知識、基因組數據、病歷信息等醫療數據進行深度學習,來構建自動化分析的疾病診斷治療系統。這些人工智能醫生的決策是無法事先預估的,如果人工智能醫生判斷患者已無康復希望,基于治療效果考慮而拒絕對患者提出醫療方案是否屬于不當反應,原有的產品缺陷種類難以涵蓋這種情形。筆者認為,如果人工智能運行系統、算法設計不能避免人工智能出現違反倫理規范決策的,應視為存在產品倫理缺陷,要由生產者對由此造成的損害承擔產品責任。將人工智能產品倫理缺陷獨立為一個類型,還源于:第一,現有產品缺陷制度所針對的缺陷是產品存在危及他人人身和財產安全的不合理風險,但人工智能產品倫理缺陷的本質是算法推演過程或結果違背人類社會倫理觀,兩者存在不同之處,現有產品缺陷制度無法涵蓋人工智能產品倫理缺陷。第二,保障人工智能的決策符合倫理德道規范,主要應在設計環節加以貫徹,倫理缺陷其實也是產品設計上的倫理缺陷,但通常情況下設計缺陷一般是指產品結構設置不合理、產品設計選用的材料不適當、設計沒有附加應有的安全裝置等等,為了突出人工智能倫理標準的獨特性,也有必要將人工智能產品倫理缺陷作為產品缺陷的單獨一個種類加以規范。
在人工智能違反倫理規則給他人造成損害,而受害者主張人工智能生產者承擔產品責任時,一般情況下應當對人工智能產品存在缺陷、受損事實以及缺陷與損害事實之間存在因果關系進行舉證。對于制造、警示等方面的缺陷,判定相對簡單,舉證也不困難,比如自動駕駛汽車的輪胎是否符合質量標準等,只需要按照一般產品的判斷標準進行舉證、確認即可。但人工智能倫理上的缺陷,需要認識其系統工作原理,從而指出算法存在倫理缺陷,這是一般人無法完成的證明。對于具有學習能力的高度自主性的人工智能來說,隨著系統自身經驗的增加,其行為、決策的推理過程設計者本身有時也無法完全還原,在計算分析能力上人腦和這些人工智能比起來遜色很多。法官等法律工作者如何對此達成共識也是一個難題。因此,有必要對人工智能產品責任是否存在倫理缺陷實行舉證責任倒置。只要受害人證明了自己因人工智能違背倫理規則的活動造成了損害,人工智能生產設計者就應當對人工智能產品不存在倫理缺陷或倫理缺陷與損害之間不存在因果關系承擔舉證責任。如果人工智能生產設計者不能證明人工智能設計不存在倫理缺陷或倫理缺陷與損害事實的發生沒有因果關系,就要承擔產品責任。
人工智能對我們來說是一把雙刃劍,我們發明了人工智能,但如何以及能否使人工智能在人類的控制下活動是一個大問題。史蒂芬·霍金就曾警示道:“成功地創造出人工智能是人類偉大的進步。但,這極有可能是人類文明最后的進步。”[21]無論如何,科技進步的車輪不可逆轉,如何解決人工智能帶來的倫理風險,將成為影響它能否良性發展的關鍵環節。鑒于目前人工智能的出現并沒有顛覆原有“人—物”兩分法的法律體系,我們要在關注人工智能特殊性的前提下,改進產品責任制度,引入產品倫理標準,規制人工智能產品的生產設計行為,解決人工智能技術帶來的倫理問題。
我國在2020年5月份通過了《中華人民共和國民法典》(以下簡稱《民法典》),遺憾的是《民法典》中并未涉及人工智能的任何法律問題,這與人工智能無處不在的生活現實是不相適應的。鑒于短期內我國修改《民法典》并不現實,建議今后在《產品質量法》中增加條款以規范人工智能的責任問題及倫理問題,本文也以立法建議作為結束語。本文建議的條文草稿為:人工智能產品存在缺陷造成他人損害的,生產者應當承擔侵權責任;人工智能產品的算法、決策應符合社會倫理規范,人工智能投入市場前應接受倫理規范審核;人工智能產品設計違反倫理規范的,視為存在產品倫理缺陷;人工智能產品違反倫理規則造成他人損害的,生產者應對產品是否存在倫理缺陷承擔舉證責任。
最后,需要說明的是,當前人工智能只是人類的工具,沒有超越法律視野下“物”的范疇,但人工智能技術進步勢不可擋,隨著大數據、云計算、物聯網等信息技術的發展,人工智能的自我學習、自我判斷、甚至是自我管理的“智力”發展不可限量,人工智能不僅能夠模擬人的智能,其強大的計算功能使得未來人工智能很可能具有超越人類、不受人類控制的思維和行動能力,在未來可能無法僅僅將人工智能視為人類可以隨意控制的工具。如果人工智能產生了自我意識,他們可能會很好地控制、管理自己,此時人工智能的活動規則可以由人工智能自己依據社會既有規則來設定。因此,未來立法要給具有自我管理能力的人工智能發展為獨立民事主體留下空間,如果人工智能成為民事主體,那么現有的法律法規、社會倫理道德就可以無障礙適用于人工智能了。