文/吳漢東
人工智能時代的制度安排與法律規制
文/吳漢東
人工智能是人類社會的偉大發明,同時也存在巨大的社會風險。這種社會風險或是“技術—經濟”決策導致的風險,或是有法律保護的科技文明本身帶來的風險。同時,智能革命對當下的法律規則和法律秩序帶來一場前所未有的挑戰,在民事主體法、著作權法、侵權責任法、人格權法、交通法、勞動法等諸多方面與現有法律制度形成沖突,凸顯法律制度產品供給的缺陷。對于由人工智能引發的現代性的負面影響,人們有必要采取風險措施,即預防性行為和因應性制度。面向未來時代的調整規范構成,應以人工智能的發展與規制為主題,形成制度性、法治化的社會治理體系。借鑒國外經驗,立足本土需要,當前應盡快出臺“國家發展戰略”,及時制定“機器人倫理章程”,適時進行機器人專門立法。
智能時代是以人工智能(Artificial Intelligence,簡稱AI)來命名的。作為研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學,人工智能將改變甚至顛覆人類現存生產工作和交往方式,由此迎來一個以新的技術結構支撐新的社會結構的人類新時代。一方面,智能革命無疑將給我們帶來一個更美好的社會,它是智能的、精細化和人性化的“最好時代”。但另一方面,智能革命也將給我們帶來諸多麻煩,也許帶來一個社會問題叢生和安全隱患不斷的“最壞時代”。人們在為人工智能的強大能力感到驚嘆的同時,也表達了對人工智能安全問題的普遍憂慮。人工智能是否成為人類“最后的發明”?我們應該如何看待人工智能的潛在風險?具體說來,人工智能時代的社會風險具有以下特點:
一是風險的共生性。風險社會的內在風險基于技術性風險和制度化風險而形成,且存在共生狀態。人工智能時代是一個高度技術化的社會,科學技術的高度發展既是風險社會的特征,也是風險社會的成因。制度風險可能來自我們的工業制度、科技政策乃至法律規則,或是表現為對新技術無措的“制度缺失”,或是表現為對新技術錯判的“制度失敗”。這些即是規則運轉失靈的風險,其結果是形成制度化風險。
二是風險的時代性。智能革命是時代的產物,其特點是人類智力與人工智力的結合,智能技術導致智力物質化、社會智能化,最終出現智能社會。人們需要應對智能時代中現實世界與理念世界的分離,防范病毒、黑客對人工智能產品的侵蝕。這種高科技所引發的高風險會持續貫穿整個智能革命的時代過程,它是現實的風險,也是未來潛在的風險。
三是風險的全球性。經濟全球化、科技全球化、信息全球化乃至治理機制的全球化,不可避免地帶來風險的全球性。可以認為,風險社會是一種“全球風險社會”,風險的空間影響超越了地理邊界和社會文化邊界。
面對智能革命,我們不能逃避它、否定它和阻止它。上述判斷依賴于兩點事實:第一,人工智能技術在造福人類的同時也加大了人類危害自身的可能性,這即是技術的負面性與風險的不確定性的聯系;第二,傳統社會治理體系無力解決工業社會過度發展而產生的社會問題,這即是法律的確定性與風險的不確定性的背離。我們應“通過法律化解風險”,“通過法律吸納風險”,“將風險社會置于法治社會的背景之中”,即對智能革命時代的法律制度乃至整個社會規范進行新的建構。
智能革命的出現,對當下的倫理標準、法律規則、社會秩序及公共管理體制帶來一場前所未有的危機和挑戰。就調整人工智能相關社會關系的法律制度而言,人們的擔憂多于期待、疑慮甚于創制。現擇其主要問題分析如下:
1.機器人法律資格的民事主體問題
機器人是機器還是人,在法理上涉及主客體二分法的基本問題。在民法體系中,主體(人)與客體(物)是民法總則的兩大基本制度。民法意義上的人,須具有獨立之人格(權利能力),該主體既包括具有自然屬性的人(自然人),也包括法律擬制的人(法人)。在自然人人格場合,“法律人”的成立是以倫理價值為依據,將倫理價值從人的范疇中抽去之后,即通過權利能力將“生物人”自然本性與“法律人”的法律屬性直接連接的。而在法人人格場合,由于權利能力扮演“團體人格”的角色,從而形成“團體—權利能力—法律人”的邏輯關系,從而使得法人與同為“法律人”的自然人一樣在某些方面享有人格利益成為可能。基于上述分析,可以認為:機器人不是具有生命的自然人,也區別于具有自己獨立意志并作為自然人集合體的法人,將其作為擬制之人以享有法律主體資格,在法理上尚有商榷之處。換言之,受自然人、自然人集合體——民事主體——控制的機器人,尚不足以取得獨立的主體地位。
2.人工智能生成作品的著作權問題
人工智能的實質,是“讓機器從事需要人參與的智能工作”。基于此,文學、藝術和科學作品的創作也在機器人的智能范圍之內。關于人工智能的生成作品,著作權法有兩個問題需要解決:機器人設計的作品是否享有權利?該項權利應歸屬于機器還是創制機器的人?盡管機器人稿件的表達技巧有限,但仍可以視為著作權法意義上的作品。人工智能生成之內容,只要由機器人獨立完成,即構成受著作權保護的作品。機器人作品享有著作權,但機器人并不能像自然人作者或法人作者那樣去行使權利,換言之,該項著作權應歸屬于機器人的創造人或所有人。在這種情況下,法律可以通過保護機器人作品以達到保護機器人的創造人和所有人的目的。具言之,可參照著作權法關于職務作品或雇傭作品的規定,由創制機器的“人”而不是機器人去享有和行使權利。
3.智能系統致人損害的侵權法問題
智能機器人的廣泛使用,在帶來高效和便捷的同時也不可避免對人類帶來傷害。機器人致人損害有兩種情形:一是侵權人對智能系統進行非法控制而造成的損害;二是智能系統自身的產品瑕疵而造成的損害。這究竟是機器人創制者的技術漏洞,抑或智能機器管理人的不當使用,甚至可能是人工智能系統超越原控制方案的“自身行為”?在這種情況下,就必須對機器人的過錯行為原因進行分析,以查找侵權主體構成并分擔賠償責任。關于智能系統致人損害責任的認定,有兩種責任方式可供選擇。一是基于行為人過失所產生的產品責任。二是基于技術中立原則所產生的替代責任。在替代責任情形中,機器人本無瑕疵,符合技術中立原則要求,但機器人的所有人或使用人,或不盡善良管理人之義務,或放任機器人的侵權行為,則不能以技術中立原則免除責任。
4.人類隱私保護的人格權問題
網絡空間是一個真實的虛擬存在,是一個沒有物理空間的獨立世界。在今天和未來,當移動互聯網、大數據和機器智能三者疊加后,我們生活在一個“無隱私的社會”。面對大數據對個人隱私潛在的威脅,我們必須重視智能革命時代隱私權的保護,有三點舉措可供采用。一是增強自我保護意識。在人工智能時代,挖掘個人隱私是由機器完成的,因此保護隱私,須從自己做起,對智能電器有防范之心。二是強化企業保護用戶隱私的責任。企業須負有保護用戶隱私的意愿和責任,“這將是用戶隱私是否得到有效保護的關鍵”。三是加強網絡、電訊隱私保護的專門立法。隱私權的保護應以民法保護為基礎,明確隱私權的權利屬性、權能內容、保護方式等;同時以專門法律保護為補充,規定特定領域的特定主體隱私保護的原則和辦法。
5.智能駕駛系統的交通法問題
人工智能在交通領域的重要應用是網聯自動駕駛。無人駕駛汽車可能帶來的法律問題,主要有三種。一是法律規制對象的轉變。隨著無人駕駛中駕駛人概念的消失,法律規制的對象不再是車輛的駕駛人員,而將是智能駕駛系統的開發者、制造者。二是法律責任體系的重構。對于道路交通事故的認定,其歸責事由只有結果的“對與錯”,而無主觀上的“故意”或“過失”。三是交通監管重心的變化。在智能駕駛中,避險保障和精確駕駛的軟硬件體系,是道路交通檢測、準入的重點。
6.機器“工人群體”的勞動法問題
智能機器人的大規模應用,使以保護勞動者利益為宗旨的勞動法,面臨著前所未有的兩個難題。一是傳統勞動法的調整功能消減會對現有勞動者的權利帶來沖擊。大批勞動者離開傳統崗位,其權益救濟更多是尋求社會保障法,那么“勞動法是否面臨消亡的命運?”二是未來勞動法將面臨新的調整對象。機器人搶掉人類的飯碗,人工智能“工人群體”正在形成。對機器人權利保護或者說禁止對機器人濫用,在當下尚是一個社會倫理問題,而在未來就成為勞動立法問題。應該認識到:智能機器人本質是機器,但亦有人的屬性,對智能機器人的尊重就是對人類自身的尊重。可以預見,上述倫理規范將成為未來立法的組成部分。
面向未來時代的制度構成,應以人工智能的技術發展與規制為主題,形成包含法律規則、政策規定和倫理規范的社會治理體系。關于理念、規范、體制與機制的制度設計,筆者擬提出如下構想:
1.以安全為核心的多元價值目標
安全是人工智能時代的核心法價值。安全價值是對整個社會秩序穩定的維護。安全價值是許多法律部門共同追求的目標,且通過不同的制度或調整方法來實現。人工智能作為未來時代技術尚在深入發展之中,但在當下已引發人們對其安全問題的普遍擔憂。人工智能超越人類智能的可能性,人工智能產生危害后果的嚴重性,以及人工智能技術本身內在的不確定性,這些因素足以構成法律以及其他規范防止風險的必要性。關于風險規制的安全規范,包括人工智能產品的倫理規范、人工智能技術的應用規范、人工智能安全的監測規范等,都是相關法律制度設計和安排需要考量的問題。
創新是人工智能法律的價值靈魂。創新價值體現在人工智能發展政策制定與立法活動之中,其主要制度設計是:(1)謀化國家發展戰略,在整體性、全局性的政策層面,對人工智能技術和相關社會變革作出相應的戰略部署;(2)制定產業促進與監管的政策法律,在立法和政策層面,推進智能駕駛系統、智能機器人、精確醫療、語言識別、人腦芯片等核心技術的研發和應用,同時明確準入規范,制定安全標準,完善配套設施,營造健康、有序的監管環境;(3)完善知識產權創新激勵機制,通過權利保護、權利交易和權利限制等制度,促進技術創新和新興產業發展。總的說來,國家通過戰略指引、法律規范和政策安排,將創新這一行為上升為“規劃理性”的法價值,體現了人在價值發現中的能動性干預和控制。
和諧是人工智能時代的終極價值追求。和諧價值實現的理想狀態,即是人工智能社會的良性健康和有序。在智能機器人的發展過程中,和諧價值具有引導性功能。為保證人類社會的和諧穩定,對人工智能產品進行倫理設計、限制人工智能技術應用范圍、控制人工智能的自主程度和智能水平等,都應以和諧價值為指引和評價準則。
2.以倫理為先導的社會規范調控體系
對于人工智能社會關系的調整,倫理規范具有一種先導性的作用。這是因為法律規范基于現實生活而生成,且立法過程繁瑣,因而總是處于滯后境地;而倫理規范可以先行和預設,對已變化或可能變化的社會關系作出反應。在發達國家,對人工智能的倫理研究早于立法研究。概言之,倫理規范的調整功能非常獨到且極為重要,例如:對智能機器人預設道德準則,為人工智能產品本身進行倫理指引;規定人工智能技術研發及應用的道德標準,對科研人員進行倫理約束。上述倫理規范,為后續法治建設提供了重要法源,即在一定時候,倫理規范亦可轉化為法律規范,實現道德的法律化。
3.以技術和法律為主導的風險控制機制
人工智能時代的風險防范和治理,可采取技術控制與法律控制的綜合治理機制。法律控制是風險治理機制的重要手段。立法者必須重視控制風險功能的法治化。此外,還應輔之以相關科技法律、法規,對人工智能的研發、使用和傳播建立限制機制、禁止機制以及懲戒機制。技術控制是風險治理機制的重要措施。技術規制表現為法律規范、政策規定和倫理規則等。風險社會理論指引下的技術規則有以下特點:風險規避的主要路徑,是事先預防而不是事后補救(即從技術研究開始規制,以預防技術產生的負面效應或副作用);風險規避的基礎范式,是從技術研發到應用過程的責任制度(包括社會道義責任、科學倫理責任和法責任);風險規避的重要措施,是奉行技術民主原則(包括技術信息適度公開和公眾參與、公眾決策)。
防范人工智能的技術性風險,不僅涉及強化法律規制的傳統制度改造,而且要求建立以社會監管為重要內容的政策體系,同時形成以全面理性(包括社會理性和科學理性)為基本內涵的風險控制機制。
在制度構建方面,目前有三項重點任務。一是盡快出臺國家發展戰略,以此作為人工智能政策體系的支撐。國家發展戰略應是關于人工智能問題的整體性謀略和全局性安排,它是一個涉及戰略目標、戰略任務、戰略措施的政策制度體系。中國必須高度關注智能革命發展前景及其引發的相關社會變革,盡快作出相應的戰略政策部署。二是及時制定《機器人倫理章程》,以此作為人工智能研發、應用的道德基礎。我國似可組織政治家、科學家、企業家、法學家參加的專家小組,編寫機器人倫理章程,構建人工智能倫理規范。三是適時進行機器人專門立法,以此作為人工智能法律的基本規范。我國在人工智能領域發展相對滯后,但相關立法活動應未雨綢繆,組建專家團隊對機器人專門法律開展研究,其重點包括:人工智能的法律地位、人工智能生成內容的權利歸屬、人工智能損害后果的責任分擔、人工智能風險的法律控制等。
未來時代已經到來,這是一個創新的時代。創新不僅反映了人與自然的關系,而且反映了人與人的關系、個人與社會的關系,已成為一個具有普遍意義的關系范疇。人們在生產力、生產關系和上層建筑所有領域中進行的創造性活動,即技術進步和制度變革都是一種創新過程。智能革命引發的法律、政策和倫理話題剛剛開始,伴隨人類社會的知識創新,我們需要跟進理論創新和制度創新。法學家和法律改革家們需要秉持理性主義精神,去發現和探索一個理想的法律制度體系。我們有理由相信,科學技術的智慧之光與法律制度的理性之光,將在人工智能時代交相輝映。
【作者系中南財經政法大學知識產權研究中心主任;摘自《法律科學》(西北政法大學學報)2017年第5期】