胡元聰,曲君宇
(1.西南政法大學經濟法學院,重慶401120;2.西南政法大學人工智能法律研究院,重慶401120)
自2017年國務院政府工作報告提出要培育和壯大人工智能產業以來,我國掀起了智能無人系統開發與應用的熱潮。基于智能無人系統對社會生產力發展的巨大推動作用,同時基于對《中國制造2025》提出的“關鍵崗位機器人替代”工程目標的美好憧憬,政府、企業、高校等社會各界均投身于智能無人系統的研究中。隨著研究不斷深入,智能無人系統開發與應用中面臨的法律問題也日漸凸顯。因此,如何通過制度革新對這些法律問題加以解決成為了智能無人系統研究中的新焦點。目前,對于智能無人系統開發與應用中面臨哪些法律問題,學界已研究得較為透徹,《新一代人工智能治理原則——發展負責任的人工智能》《人工智能安全白皮書(2018)》等報告中對此均有涉及,大致可以概括為數據壟斷問題、數據侵權問題、算法霸權問題、產品責任問題和社會保障問題。但對于如何通過制度革新解決智能無人系統開發與應用中面臨的上述法律問題,現有研究仍然存在不足,一方面對規制理念的探討尚不全面;另一方面提出的規制對策也有待細化,因而迫切需要后續研究者加以挖掘與拓展。
研究“智能無人系統開發與應用的法律規制”需要結合智能無人系統的現有技術背景進行展開。在目前的弱人工智能時代,智能無人系統不能也沒有必要成為獨立的法律主體,可以作為“產品”以法律客體的形式存在。而根據法學的基本原理,法律規制主要具有兩個功能,一是對法律主體進行約束和限制,二是對法律主體提供激勵和保護。因此,對智能無人系統開發與應用的法律規制實質上是對智能無人系統中各方主體的法律規制。其中,智能無人系統的開發者憑借數據壁壘和算法優勢,不斷攫取超額利益,所以需要法律予以約束和限制;智能無人系統的消費者、受智能無人系統影響的勞動者以及其他利益相關者的正當利益不斷受到侵害,所以需要法律予以激勵和保護。只有善用法律,對智能無人系統中各方主體辯證地加以規制,使各方主體的利益達致均衡,才能妥善解決智能無人系統開發與應用中面臨的法律問題[1]。
基于上述考慮,本文以“問題提出——基本原則——具體對策”為分析框架,試圖闡明智能無人系統開發與應用中面臨的許多法律問題,而這些法律問題阻礙了市場秩序的正常運行,可能對個人、社會和國家的利益造成嚴重損害,故而亟需對其進行法律規制。本文通過對各類法律價值理念進行考量和取舍,提出應當樹立尊重人權、社會公平、安全可控、開放共享和權義統一五項基本原則,為智能無人系統開發與應用的法律規制提供理論支撐。并以此為指引,通過構建強制許可與用戶授權規則、制定產品安全與算法技術標準、加重信息披露與解釋說明義務、建立責任追溯與責任分擔機制、健全相關社會保障與發展制度,為智能無人系統的開發與應用提供具體的規制對策,以保障智能無人系統的高質量發展。
依照德國于2017年發布的《大數據與競爭》中的觀點,數據壁壘的形成有兩個前提,一是相關數據具有重要作用,二是其他經營者沒有能力獲得數據。參照此觀點可以發現,智能無人系統在開發中可能面臨數據壁壘問題[2]。一方面,智能無人系統的開發離不開海量的數據作為支撐。開發者通過對數據進行收集、分析和使用,不僅可以充分了解用戶偏好而提供個性化的智能無人系統產品,還可以對智能無人系統產品的應用環境作出更多模擬,促進智能無人系統產品性能的優化,增強其自主性。因此,相關數據對智能無人系統的開發具有重要作用[3]。另一方面,對智能無人系統的相關數據進行收集,需要開發者投資相應的基礎設施且需要用戶使用該開發者的產品。然而許多潛在的開發者沒有能力進行相應的前期基礎設施投資,又或者雖然進行了前期投資但卻因為用戶數量過少而難以收集到足夠的用戶數據。就目前的情況看,由于我國對數據壟斷的法律規制仍處于空白狀態,導致開發者很容易憑借數據壁壘進行數據壟斷。因為其只需要依靠自身掌握大量數據資源的優勢,拒絕向其他開發者共享數據資源,就可以迫使其他開發者開發同類智能無人系統時從頭做起,重復自己已做的勞動。待其他開發者完成開發,原開發者早已通過產品的市場反饋數據以及后續模擬實驗開發出更先進的智能無人系統,如此循環往復,形成完整的周期閉環,其他開發者只能被迫退出競爭。因此,開發者可以依靠不斷累積的數據在市場競爭中構筑最深的“護城河”,限制其他開發者進入相關市場,從而占據市場支配地位,形成數據壟斷。開發者的數據壟斷行為不僅有礙市場的正常競爭秩序,剝奪了其他開發者公平參與市場競爭的機會,從長期來看,更會損害消費者權益,最終減損社會整體利益①有鑒于數據的經濟價值日益凸顯,中共中央十九屆四中全會已經正式將其列為重要的生產要素。因此,數據壟斷屬于生產要素壟斷的一種形式,其會造成市場的低效率,影響帕累托最優的實現,進而造成社會整體利益的減損。。
智能無人系統在開發中不僅面臨數據壟斷問題,還可能面臨嚴重的數據侵權問題。智能無人系統產品應用中所反饋的數據,往往是通過對用戶的個人信息進行采集、處理和分析所得,這就可能涉及到對用戶權利的侵犯。事實上,針對數據侵權問題,我國已經出臺了多部法律以及規范性文件進行規制,但其都存在一定缺陷。如《中華人民共和國消費者權益保護法》(以下簡稱《消費者權益保護法》)第29條規定了經營者收集、使用消費者個人信息時應遵循合法、正當、必要原則,并承擔明確告知、征得同意、保密、保障安全、補救等義務。但其并未正面規定消費者作為信息主體所享有的權利。《關于加強網絡信息保護的決定》第1條規定了國家保護有關公民個人身份和個人隱私的電子信息。但其卻未明確個人身份的具體范圍而存在可訴性缺陷。《中華人民共和國民法總則》第111條規定了自然人的個人信息受法律保護,任何組織和個人在獲取個人信息時都應當依法取得并確保信息安全,而不得非法收集、使用、加工、傳輸他人個人信息,也不得非法買賣、提供或者公開他人個人信息。但該條款也只是一種原則性規定,在實踐中難以直接適用。目前為止,我國尚未對個人信息權利做出明確且具體的規定。正是由于制度設計過于粗略,致使部分開發者抱著僥幸心理,游走于法律邊緣。其中有的開發者未經授權,任意收集、使用和分析用戶的個人信息數據,有的開發者雖然獲得了用戶授權,但授權協議采用了格式條款的形式,不僅難以引起用戶的注意,且授權協議的內容也超越了必要范圍②2019年10月至2020年1月間,工信部通報了56款侵害用戶權益的App,其中41款存在私自收集或共享用戶個人信息的問題。。開發者的這些行為由于缺乏法律上的依據,因而均涉嫌個人信息數據侵權。
尤瓦爾曾預測,未來的時代將會進入算法主導的時代,權威將從個人轉向由算法構成的網絡。人類不會再認為自己是自主的個體,不再依據自己的期望度日,而是習慣把人類整體看作一種生化機制的集合體,由電子算法網絡實時監測和指揮[4]。這一預測雖然現在看來還有些杞人憂天,但也間接證明了算法在人工智能時代的重要性。對智能無人系統而言,算法是其運行機制的核心,決定著智能無人系統的運行邏輯。因此,當開發者濫用算法時,很可能導致算法霸權的產生。算法霸權在智能無人系統的開發中可能基于兩種原因產生:其一,開發者基于算法后門取得霸權。一般產品的生產者將產品售出后,通常會喪失產品的控制權,而智能無人系統產品則不同,其不僅有生產者,還有開發者。如果開發者通過算法設計在智能無人系統上留下“后門”,其將在事實上對智能無人系統擁有最高權限。舉例而言,如果開發者在無人駕駛汽車中留有“后門”,其將可以在后臺接管無人駕駛汽車的駕駛權,進而對消費者的生命安全產生實質威脅。因此,當智能無人系統產品廣泛普及后,開發者將借此獲得巨大的社會影響力。其二,開發者基于算法判斷取得霸權。由于算法的回報函數都是在特定的價值立場下設定的,其運算過程總是蘊含著開發者的價值判斷[5]。因此,開發者的道德傾向甚至個人好惡都會對智能無人系統的實際運行產生影響。以著名的“電車難題”為例,如果該軌道是由智能無人系統控制,則將失控電車引向哪一邊其實是由開發者的價值觀念決定的,亦可以說,開發者成了該題的“判官”。這意味著,智能無人系統產品廣泛普及后,開發者的價值判斷將自然而然的取代產品使用者甚至法官的價值判斷,開發者將因此而獲取解釋“正義”的權力③在美國,司法機關已經在運用COMPAS算法評估被告人再次犯罪的概率。但該算法被指出可能存在算法歧視,即對黑人的評估數值較高,對白人的評估數值較低。。算法霸權的出現,不僅會對市場秩序造成破壞,更會對國家安全和社會治理帶來嚴重的威脅。
2018年3月20日,美國亞利桑那州的一名女子在穿越馬路時被Uber無人駕駛汽車撞傷致死。有關部門在事后判定中認為該女子橫穿馬路本身具有一定過錯,但是其過錯并不必然導致損害結果的發生,無人駕駛汽車顯然未能盡到與普通駕駛員相同水平的注意義務。也就是說,Uber公司作為無人駕駛汽車的開發者,也應當因產品缺陷承擔部分責任。雖然此案最終以雙方和解收場,未能在制度層面給我們多少經驗加以借鑒,但該案的發生已經證明了智能無人系統在應用中面臨產品責任問題[6]。眾所周知,智能無人系統在開發中會存在漏洞,這些漏洞會影響智能無人系統的穩定性與安全性,導致其作為產品進入市場后可能會出現產品責任事故而造成他人損害。既然有損害就要有救濟,產品責任問題將會隨之而來。對一般產品而言,產品責任的歸責主體為生產者和銷售者,適用的歸責原則為無過錯責任原則,即產品致人損害后,除了消費者有過錯以及幾種特殊抗辯情形外,應當由生產者或銷售者分別或共同承擔賠償責任。但對智能無人系統產品而言,其是由開發者設計而成,因此產品的歸責主體還應當包括開發者,這一點各方基本沒有異議。但除此之外,智能無人系統產品應當適用何種歸責原則,產品責任該如何進行分擔,目前法律并未給出明確答案[7]。除此之外,另一個與責任分擔相關的問題在于算法開發與產品制造不同,我們可以很容易地根據產品編號等證明文件追蹤到產品的制造者,但卻很難對算法的開發者進行追蹤。因此,即便明確了產品責任的分擔方式,如何尋找智能無人系統的開發者仍是法律需要面臨的問題。隨著武漢發出首張自動駕駛商用牌照,解決智能無人系統產品的產品責任問題已迫在眉睫,如果法律不能妥善解決該問題,勢必使智能無人系統產品的消費者產生疑慮,從而影響市場信心,減緩智能無人系統的發展速度④2019年9月22日,武漢向百度、海梁科技、深蘭科技發出自動駕駛商用牌照。這意味著,這些公司不僅可以在武漢的道路上進行載人測試,也可以進行商業化運營。。
正如美國科普作家馬丁·福特所說,我們要承認一個嚴峻的現實,目前的大部分工作被機器人取代只是時間問題。與人工智能相比,人類在工作效率上存在明顯的劣勢。即便在弱人工智能時代,智能無人系統在某些行業的工作效率也已遠遠高出人類。一方面,在一些勞動密集型行業,智能無人系統可以長期工作而不降低穩定性。另一方面,在一些涉及高危險、高精度勞動的特殊行業,智能無人系統可以很好地適應環境,同時保持高精密性。因此,在這些行業,智能無人系統可能會很快取代人類,而由此引發的大規模失業將會使我國面臨嚴峻的社會保障問題。事實上,麥肯錫全球研究院發布的報告已經對智能無人系統即將取代人類約一半的工作作出了預測,并認為這一趨勢極有可能實現[8]。在中國,智能無人系統帶來的失業浪潮已經開始上演,如銀行使用ATM機代替柜員、阿里巴巴啟用機器客服取代人工客服、高速公路收費站用ETC系統代替收費員等等。隨著大量工作崗位被智能無人系統所取代,一些傳統行業消亡將成為當代經濟發展中不可阻止和逆轉的事實。雖然智能無人系統的發展也為社會創造了許多新的就業崗位,如數據科學家、機器學習工程師等,但其創造崗位的數量和速度遠遠比不上其替代崗位的數量和速度[9]。況且對于失業的勞動者來說,他們一般屬于底層勞動者,綜合素質相對較低,這決定了其很難快速掌握智能無人系統所取代不了的先進技術,即便創造了新的崗位,他們也難以勝任。在此情況下,如果我國的社會保障能力跟不上社會發展的步伐,導致這些失業勞動者被時代所拋棄,不僅會引發大規模的失業浪潮,使得經濟穩定性和可持續性大大降低。還會加大社會的貧富差距,甚至于造成階級對立與割裂,最終偏離共同富裕的發展目標。
《世界人權宣言》提出:“人人生而自由,在尊嚴和權利上一律平等。”因此,人權不僅是每個公民與生俱來的權利,也是社會發展的最終旨歸。具體到智能無人系統而言,其只是人類發展過程中的一種工具,開發與應用的最終目的是為了豐富人們物質生活,幫助人們更好地適應自然和改造自然,將人們從繁重的勞動中解救出來,以實現更大程度的自由。因此,在智能無人系統開發與應用的法律規制中,我們首先應當樹立尊重人權原則。該原則有以下內涵:
(1)智能無人系統的開發不得以侵害具體人權為代價。在智能無人系統的開發中,我們應當認清一個事實,即智能無人系統只是手段和工具,為人類社會發展所用才是目的。人權的具體內容有很多,智能無人系統開發中主要侵害的是其中的個人信息權。因此,我國應當盡快完善個人信息保護立法,制定具體的個人信息數據保護細則,對智能無人系統開發中的數據侵權行為進行規制,保護公民的個人信息權,以維護其人格尊嚴。
(2)智能無人系統不得擅自應用于侵害具體人權之領域。智能無人系統可以應用于人類生活的各個領域,但應用的領域不同,對人類社會發展產生的效果也不同。如果將其應用于科研、醫療等領域,自然會對人類社會的發展產生幫助,但是如果將其應用于戰爭、犯罪等領域,不僅不能對人類社會發展產生助力,反而會對人類社會發展造成嚴重損害。因此,我國應當通過立法對智能無人系統的應用領域作出嚴格限定,一般領域的應用需要經過法律程序進行備案,可能嚴重侵害人權的特殊領域的應用則需要經過法律特別審批,以此降低智能無人系統應用中的人權侵害風險。
(3)智能無人系統開發與應用中對人權帶來的負外部性應當被合理抑制。智能無人系統的廣泛普及可以提高社會發展水平,提高人們的人均生活質量,為人權帶來正外部性。但同時也可能造成勞動者大規模失業,影響社會秩序的穩定,給人權帶來負外部性。因此,我國應當秉持創新發展戰略,以“人工智能+”作為戰略目標,通過制度革新推動智能無人系統在更多傳統行業與傳統產業中的應用,進而實現人機協同。同時,將“大眾創業,萬眾創新”的思想與智能無人系統的開發與應用相結合,從而調動全民的創新熱情,追求新的經濟增長點,創造更多的就業崗位,以此促進就業,緩解社會矛盾,抑制智能無人系統開發與應用中對人權帶來的負外部性。
社會公平是人類多年來一直不懈追求的重要目標,其涵義已從最初的形式公平發展到后來的實質公平。而隨著時代的發展,社會公平的內涵還在不斷變化。在人工智能時代,國家新一代人工智能治理專業委員會賦予了社會公平新的內涵,其認為人工智能時代的社會公平就是保障利益相關者的權益,促進機會均等,在數據獲取、算法設計、技術開發、產品研發和應用過程中消除偏見和歧視⑤國家新一代人工智能治理專業委員會:《新一代人工智能治理原則——發展負責任的人工智能》。。因此,在智能無人系統開發與應用的法律規制中,我們堅持的社會公平原則有以下內涵:
(1)通過立法保證智能無人系統開發中的信息公平。在人工智能時代,信息已經成為一種戰略資源,具有很高的經濟價值。在智能無人系統的開發中,各方主體間存在信息不對稱的問題,其中開發者可能憑借地位優勢對信息進行控制,形成信息壟斷,損害其他主體的正當權益。因此,我國應當加快相關立法,一方面賦予其他開發者對原開發者所收集的數據在支付對價的前提下享有要求共享的權利;另一方面賦予他方主體對開發者所設計的算法中與自身利益密切相關的信息享有充分的知情權。通過數據信息的共享以及算法信息的披露,保證智能無人系統開發中各方主體之間的信息公平。
(2)通過立法保證智能無人系統開發中的算法公平。伴隨人工智能的發展,國家和社會對于算法的依賴逐漸加深,一種新型的權力形態——算法權力也隨之出現[10]。算法權力打破了智能無人系統中各方主體的權利平衡,使開發者對他方主體具有了巨大的影響力和控制力。實現算法公平,其實質就是抑制開發者的算法權力,將算法權力放入法律的“籠子”中[11]。因此,我國應當通過立法對開發者的算法設計進行引導和約束,使其保持客觀中立的價值取向,在運行時不歧視或區別對待。如果算法設計中涉及重大價值判斷問題,應當通過法律程序由公民民主決定其最終應當遵循何種價值觀念,以增強算法的可解釋性,保證智能無人系統開發中各方主體之間的算法公平。
(3)通過立法保證智能無人系統應用中的交易公平。開發者不僅在智能無人系統的開發中具有優勢地位,在智能無人系統的應用中,其作為經營者同樣處于優勢地位。因此,我國應當基于《消費者保護法》弱者保護之精神,通過立法對開發者在市場交易中的權利與義務進行傾斜配置,適當加重開發者的義務與責任,以削弱開發者的地位優勢,從而恢復平等的市場關系并實現智能無人系統應用中的交易公平。
安全是維持人們正常生產生活的最低需求,社會安全一旦被破壞,人權也就喪失了實現的基礎。智能無人系統的開發與應用給社會安全帶來了巨大的挑戰,由于智能無人系統具有很強的不確定性,其存在觸碰到了人類預知的限度,導致其在運行中很容易脫離人們的掌控,因而產生了巨大的安全風險[12]。而且隨著智能無人系統的自主性不斷提高,人類對其的控制力度將越來越弱,預判其運行結果將更加困難,所以其安全風險也會變得越來越高。因此,在智能無人系統開發與應用的法律規制中,我們要樹立安全可控原則。其內涵包括:
(1)法律應當對智能無人系統的安全開發起引導作用。根據傳統觀念,法律具有滯后性,其只能被動應對現實生活中已經出現的問題。但對智能無人系統而言,如果等待其開發完畢再進行法律規制,不僅規制效果不佳,而且會使開發者承擔過高的開發成本。因此,我國應當增加法律的能動性,通過直接對開發者的開發行為進行約束,提高算法的可追溯性,同時明確開發者的嚴格產品責任,引導其在算法設計時著重考量算法的可控性,進而提高智能無人系統產品的安全性,避免產品損害風險的發生。
(2)法律應當對智能無人系統的市場準入起到管理作用。清代理學家朱用純有言:“宜未雨綢繆,毋臨渴而掘井”。與其等智能無人系統產品在應用中出現安全問題再對其進行法律規制,不如防患于未然,直接在生產源頭對智能無人系統產品的質量加以控制。因此,我國應當加強智能無人系統標準體系建設,通過建立合理的產品安全標準和算法技術標準,對智能無人系統產品的安全性進行有效評估,杜絕不符合標準之產品進入市場,從生產源頭消滅安全風險。
(3)法律應當對智能無人系統產品責任事故處理機制起監督作用。即便法律對智能無人系統的開發和市場準入都作了預先規制,但其只能降低智能無人系統發生產品責任事故的幾率,而不能完全杜絕產品責任事故的發生。因此,我國還應當健全智能無人系統產品責任事故處理機制。一方面,要求開發者在智能無人系統產品投入市場前,必須對其可能產生的各種安全風險進行評估,并設計相應的產品責任事故應對處理預案;另一方面,要求政府有關部門加強對開發者的監管,確保開發者對安全風險的評估完整和準確,處理方式合理且有效,并督促開發者及時將評估信息披露給公眾。同時,政府還應當勇于承擔責任,通過設立應急處理機構和制定應急處理預案等方式,確保一旦出現產品責任事故,能將其損害結果降至最低[13]。
“封閉使人落后,開放使人進步。”在科技發展日新月異的今天,閉門造車將被時代拋棄,只有交流合作才能進一步促進智能無人系統的發展。對此,工業和信息化部在《促進新一代人工智能產業發展三年行動計劃(2018-2020年)》中提出要加強國際合作,推動人工智能共性技術、資源和服務的開放共享。完善發展環境,提升安全保障能力,實現產業健康有序發展。由此可見,只有秉持著開放的心態積極應對人工智能帶來的挑戰,才能抓住機遇實現國家的跨越式發展。因此,在智能無人系統開發與應用的法律規制中,我們要樹立開放共享原則。
(1)法律應當為智能無人系統開發中的國際交流與聯合治理提供方便。人工智能的發展,不僅關乎我國的未來,更關乎全人類的未來。因此,對智能無人系統進行法律規制,不能僅限于國內法領域,更要延伸到國際法領域。我國應當以優化共生理念為指導,通過與域外各國簽訂相關國際條約、發表相關共同聲明等方式,建立跨地域、全球性、綜合性的人工智能治理生態系統。以此促進智能無人系統開發中的國際交流與合作,推動國際智能無人系統治理框架和標準規范的形成,助力于人類命運共同體的構建[14]。
(2)法律應當對智能無人系統市場中的合作與競爭關系進行協調。早期的技術創新,主要強調個體的作用,但隨著時代的進步,技術創新的系統性越來越強,僅憑單一個體的獨立研究已經很難有所突破,只有通過不同個體間的復雜互動才能實現。在此情況下,能否協調好市場中合作與競爭的關系將決定智能無人系統技術創新的成敗。因此,我國應當善用激勵制度,在不降低開發者生產積極性的前提下,加強數據共享,打破數據壟斷。同時,給予中小開發者適當的政策扶持和財政稅收補貼,提高其市場競爭力,進而促進智能無人系統市場的有序競爭。
(3)法律應當對智能無人系統的廣泛應用給予鼓勵和支持。智能無人系統的應用不僅可以降低生產中的資源能耗,有效推動各行各業轉型升級,提高經濟效率,更可以提升人民整體生活水平。因此,我國應當通過立法加強對智能無人系統中各方主體的教育和科普力度,使各方主體能在心理、情感、技能等方面適應智能無人系統發展所帶來的影響。同時,我國應當給予弱勢群體以相應政策優惠,將智能無人系統產品普及到最廣大的基層中,使每個公民都能共享科技發展之成果。
智能無人系統在開發與應用中會涉及多方主體,不僅包括開發者、制造者、銷售者、使用者,還包括政府及其他利益相關方。由于牽涉主體過多,導致各個主體間的關系錯綜復雜。想要對這些關系進行梳理,必須建立明確統一的權義結構,以權利與義務作為邏輯線索,將各方主體的行為納入法律框架中進行統一規制。因此,在智能無人系統開發與應用的法律規制中,我們要樹立權義統一原則。其內涵如下:
(1)智能無人系統開發與應用中各方主體的法律權利與法律義務設定應當明確。黑格爾曾說過:“法律規定得愈明確,其條文就愈容易切實地施行”。因此,國家在設定智能無人系統開發與應用中各方主體的法律權利和法律義務時,應力求使其明確、具體,禁止通過概括性條款對其作出模糊規定,以便各方主體加以遵循。以政府的監管職責為例,應當通過立法構建相應的政府監管制度,對監管范圍、監管權行使、監管程序等內容作出具體規定。通過設定明確的權利義務關系,厘清各方主體的利益范圍。
(2)智能無人系統開發與應用中各方主體的法律權利與法律義務配置應當合理。智能無人系統開發與應用中各方主體的地位存在天然差異,如果法律對這種差異視而不見,仍然一視同仁地分配權利和義務,只會使這種差異越拉越大。因此,國家在配置各方主體的法律權利和法律義務時,必須考慮智能無人系統開發與應用的現實特點,具體問題具體分析,給予不同主體以正當的差別待遇[15]。以開發者為例,其在智能無人系統的開發與應用中獲益最多,享受了大量的天然權利,因此立法時應當使其承擔更多的法律義務。通過合理的配置權利義務,從而使各方主體間的利益關系得以平衡。
(3)智能無人系統開發與應用中各方主體的法律義務與責任承擔聯系應當緊密。古希臘作家索福克勒斯曾說過:“如果法律沒有恐懼支撐,他絕不能生效”。對于智能無人系統開發與應用中的義務主體而言,僅希冀于其自愿履行法律規定的義務是不現實的,必須以法律責任的形式督促和約束義務主體履行義務。因此,國家應當為義務主體設定適當的民事責任、行政責任和刑事責任,若其不履行或不適當履行義務,則根據情節使其承擔相應法律責任。通過健全智能無人系統中的責任承擔體系,不僅可以對義務主體起到威懾作用,還可以使權利主體得到一定的補償,從而促進各方主體權利、義務、責任三者的統一,確保各方主體在法律允許的范圍內實現自身利益。
構建智能無人系統開發與應用中的數據強制許可與用戶授權規則,應當從以下兩方面進行:
(1)構建數據強制許可規則。數據與知識相類似,都具有公共性,所以數據利用者的增加并不會提高數據利用的邊際成本,即數據的利用者越多,對數據的總體利用效率越高[16]。因此,我國應當根據數據的這一特性,在智能無人系統的開發中,借鑒域外知識產權法律中的著作權強制許可規則,構建與之類似的數據強制許可規則。即開發者在無正當理由而拒絕與第三方開發者達成數據共享協議時,國家有關部門經第三方開發者申請,可強制開發者共享自己所擁有的一般開發數據給第三方開發者使用,該強制可不經過開發者同意,但應當向其支付報酬。數據強制許在適用中應當滿足幾個條件。首先,數據強制許可的目的必須是為了防止數據壟斷,提高市場效率;其次,數據強制許可的前置條件是第三方開發者向該開發者請求數據共享被無正當理由拒絕,其中正當理由的范圍應當以未嚴重限制競爭及有利于社會公共利益為限;再次,數據強制許可需要由第三方開發者自行申請,而不能由有關部門主動做出決定;最后,第三方開發者必須向該占有數據的開發者支付合理報酬,合理報酬的標準應當由統一的機構對數據價值進行評估后制定。另外還應當注意的是,數據強制許可的客體只能是一般開發數據,而不能是個人信息數據,因為個人信息數據涉及人格權,而個人隱私保護應優先于市場效率。同時其客體也不能是商業秘密數據,因為商業秘密數據涉及智能無人系統的核心算法,如果對其強制許可會嚴重打擊開發者的積極性,對市場造成負面后果。
(2)完善用戶授權規則。由于個人信息數據與人格權密不可分,所以個人信息數據的所有權理應永久歸屬于用戶。在此情況下,開發者想要對個人信息數據進行收集,必須取得用戶的合法授權[17]。因此,在智能無人系統的開發中,我國應當完善用戶授權規則。首先,應通過立法對用戶授權程序作出規范。即開發者必須對數據收集的理由、用途、具體使用者、可能存在的風險等內容做出披露,經過用戶明示授權,方可對其個人信息數據進行收集。未經披露或虛假披露的,授權自始不發生效力;其次,應賦予用戶對授權的無條件撤銷權。鑒于用戶在數據收集中的弱勢地位,有必要對其進行特殊保護。因此應規定在任何時間、任何情況下,用戶均可以行使撤銷權,開發者應無條件予以配合;再次,針對開發者的數據侵權行為應適用無過錯責任的追責原則。即在直接侵權和第三者侵權中,經營者若不能證明自身已取得合法、有效授權,且已盡到授權協議中載明之義務,則需要承擔賠償責任或連帶賠償責任;最后,應明確數據侵權的賠償標準。開發者的數據侵權分為兩種情況,第一種是其未經授權擅自侵害用戶個人信息數據,在此情況中,由于單個用戶的數據價值不高,若按《侵權責任法》之賠償標準進行賠償,難以對開發者起到威懾作用,因此應當借鑒《消費者保護法》之規定,設計懲罰性賠償規則,對開發者處以3倍賠償,賠償金額不足500元的按500元賠償;第二種情況是開發者違反用戶授權協議,對用戶個人信息數據進行侵害。此時開發者將構成違約責任與侵權責任的競合,用戶可以根據具體情況擇一要求賠償。通過對上述兩種規則進行構建和完善,有助于促進智能無人系統開發中數據共享與人格保護的協調,從而保證數據的順暢流通,實現數據的有效利用。
制定智能無人系統開發與應用中的產品安全標準與算法技術標準,應當采用“軟硬結合”的方式進行:
(1)制定產品安全標準。由于智能無人系統產品相比一般產品具有更大的安全風險,因此應當參照《中華人民共和國食品安全法》制定《智能無人系統安全法》,采用民主立法、科學立法的方式對智能無人系統產品安全標準作出強制性規定。首先,智能無人系統的產品安全標準應當具體。即產品安全標準中必須包含適用范圍、相關認證要求、關鍵零部件要求、測試要求、對與產品安全有關的信息提供的要求、對與產品安全有關的質量要求等內容,使其具備現實可操作性;其次,智能無人系統的產品安全標準應當適度。即通過對智能無人系統產品的安全性進行專業的風險評估,得出相應的評估結果,并根據評估結果對不同產品按照其社會危險性的大小進行分級,使不同級別的產品可以適用不同的安全標準,避免一刀切情況的發生[18];再次,智能無人系統的產品安全標準應當科學。即制定產品安全標準時應當充分參考相關產品的國際安全標準及國際安全風險評估結果,使其與國際相接軌,以確保智能無人系統產品最大程度的安全[19];最后,智能無人系統的產品安全標準應當合理。即制定好智能無人系統產品安全標準草案后必須及時向社會公布,并廣泛聽取、認真評估各方主體的意見,發現問題及時修正,以盡可能彌補其中之疏漏。通過制定具體、適度、科學、合理的產品安全標準,杜絕具有安全隱患的智能無人系統產品流向市場,以滿足公民保護與社會保護之一般需要。
(2)制定算法技術標準。由于算法未應用于智能無人系統產品時不具備直接的安全風險,因此不宜采用國家立法的形式對其進行強制性規制,而應當采用軟法治理的方式引導其發展[20]。即由標準化組織、行業協會等社會中間層組織商議和制定算法的測試方式和技術標準。社會中間層組織在其所在領域往往具備更豐富的專業知識及更強的社會影響力,所制定之軟法通常更符合實際且易于推行。許多國際組織在這一方面已經走在了前列,如電氣和電子工程協會(IEEE)已成立了IEEEP7000標準工作組,設立了倫理、透明、算法、隱私等10大標準工作組。國際電工委員會(ISO/IEC)也成立了人工智能可信研究組,對算法的透明度、可驗證性、可解釋性、可控性等問題進行研究。因此,我國社會中間層組織應當以此為鑒,積極推動智能無人系統算法標準的制定,以構建完善的算法標準軟法體系,實現對開發者的有效引導與約束,使開發者在注重自身經濟效益的同時,強化社會責任意識,在設計算法時更加自律、負責,避免算法“后門”的出現,確保算法設計的安全可控。通過硬法規范與軟法規范相結合的方式,可以充分發揮二者的優勢,既對開發者的算法設計進行了約束,又避免因規制過于死板而限制開發者的創造力,同時確保了智能無人系統產品使用者及相對方的安全。
加重智能無人系統開發者的信息披露和解釋說明義務,應當結合算法的特點,從以下兩方面入手:
(1)加重開發者信息披露義務。由于算法具有不透明性,使得除開發者以外的主體很難獲知與算法有關的信息,導致了“算法黑箱”的產生。為了破解“算法黑箱”,在智能無人系統的開發中,國家有必要通過立法加大開發者的信息披露義務,強制要求其公開披露算法的部分信息。首先,強制披露義務的界限范圍應當清晰。由于算法具有很高的商業價值,可能構成商業秘密。因此對算法進行強制披露的范圍應當以與消費者利益或社會公眾利益密切相關為限,以保證智能無人系統開發者的生產積極性;其次,強制披露義務的內容應當全面。不僅要對算法的認證結果、功能效果,基本架構進行披露,還要對算法的已知缺陷、運行中可能存在的風險及應對措施進行披露,以保障智能無人系統中他方主體的充分知情權;再次,強制披露義務的過程應具有持續性。由于算法具有動態性,一直處于不斷升級的狀態中,特別是未來發展到強人工智能階段,其將具有更強的自主學習和深度學習能力,甚至可以進行自我完善。因此,智能無人系統的開發者在履行信息披露義務時并非一勞永逸,而應根據算法版本的更新不斷進行信息披露,以保障他方主體可以對算法進行持續了解和監督;最后,強制披露義務履行不當的責任承擔機制應當明確。即規定智能無人系統的開發者未履行或未適當履行信息披露義務的,應當按照《消費者權益保護法》之規定以欺詐行為論處,消費者可以要求其承擔3倍賠償責任,同時監管機構應給予其相應的行政處罰,以督促開發者負責任的履行信息披露義務。
(2)加重開發者解釋說明義務。由于算法具有一定主觀性,其運行中往往體現著某種價值判斷,使開發者獲得了天然的算法權力,導致了“算法霸權”的產生。為了預防“算法霸權”,在智能無人系統的開發中,國家有必要通過立法加重開發者的解釋說明義務,強制要求其對他方主體存在異議的算法運行邏輯進行解釋說明。首先,解釋說明義務應設置相應的前置條件。與信息披露義務不同,解釋說明義務在具體操作中會產生較高的商業成本且存在泄露商業秘密的風險,故而對其適用需要加以嚴格限制。因此,開發者承擔解釋說明義務必須以他方主體對算法運行邏輯存在合理懷疑為前提,只有當算法作出的決策未滿足合理預期時,他方主體才可以請求開發者對算法運行邏輯進行解釋,以防止社會資源的不當浪費;其次,解釋說明義務的內容限于算法運行邏輯。即開發者需要將算法的運行邏輯以一種簡化的、平均的、易懂的方式提供給其他主體,使其他主體可以不依靠專家講解和算法相關的專業知識就足以理解其原理,以加強其他主體對智能無人系統的認知[21];最后,解釋說明義務的履行應當受到監管。即國家應當設立專門機構,一方面對他方主體的請求進行審查,判斷其是否合理[22]。另一方面對開發者的解釋說明進行監督,判斷其能否為公眾所理解以及算法運行邏輯是否符合社會的價值取向。如果算法運行邏輯出現重大的價值取向爭議,應當舉行聽證會,由選舉出的人民代表對其進行判斷,以確保算法的價值取向與人民的價值觀保持一致。通過加重開發者的信息披露義務和解釋說明義務,不僅可以有效維護智能無人系統中各方主體的知情權,還可以促進各方主體共享算法權力,促進民主在人工智能時代的發展。
在智能無人系統開發與應用中建立產品責任追溯和產品責任分擔機制,應當遵循“探究責任發生的原因——根據原因劃分責任”的思路,設計并完善以下機制:
(1)建立產品責任追溯機制。由于智能無人系統發生產品責任事故的原因多種多樣,導致各方主體在事故中的責任大小難以判斷。因此,國家應當建立智能無人系統產品責任追溯機制。一方面,由于智能無人系統的開發者具有隱蔽性,應當通過立法強制要求開發者在智能無人系統產品的包裝上及使用說明書中標記自身標識,使開發者的身份信息可以直觀的被各方主體所認識,便于使其承擔責任。若開發者未適當標記自身標識,考慮到智能無人系統的生產者在產品制造時就應當對開發者的身份有明確認識。因此,應由生產者承擔督促開發者明確自身標識的義務。生產者未履行督促義務的,應承擔連帶賠償責任,被侵權人可以直接向其索賠,其賠償后可以向開發者進行追償,以保護被侵權人的權益;另一方面,為獲取產品責任事故的相關信息,應當通過立法強制開發者在智能無人系統中嵌入類似“黑匣子”的可追溯構件,并對其性能做出具體要求。通過對可追溯構件中記錄的相關信息進行分析,進而判斷智能無人系統發生產品責任事故時是否存在缺陷、缺陷的形成原因以及使用人、被侵權人在事故中是否有過錯。以便于之后以此為依據對各方主體的責任進行劃分。若開發者未適當設計可追溯構件的,除開發者提供證據證明其他主體存在過錯的,由開發者承擔全部責任,以確保事故責任得以明確劃分。
(2)明確產品責任承擔機制。智能無人系統產品與其他產品并無本質不同,因此應當遵從《中華人民共和國產品質量法》之規定,對其適用“以無過錯責任為一般,以公平責任為例外”的產品責任承擔機制[23]。通常情況下,應根據智能無人系統產品責任事故追溯中得出的結論對責任進行分擔。缺陷由一方造成的,由其單獨承擔責任,缺陷由多方主體共同造成的,按具體情況由各方主體承擔連帶責任或按份責任。同時,為了避免使用者惡意使用產品或被侵權人惡意欺詐,應規定若使用者或被侵權人在產品事故責任中有過錯的,可以根據過錯程度不同減輕或免除開發者、制造者、銷售者的產品責任,以維護各方主體間的誠實信用。特殊情況下,如果根據可追溯構件未發現智能無人系統產品存在缺陷或發現的缺陷在產品最后一次投入流通時的科技水平下難以被避免的,將無法適用無過錯責任。此時為了平衡各方主體間的利益關系,應考慮在智能無人系統產品責任事故中,開發者、制造者、銷售者和使用者相對被侵權人而言更具優勢地位。因此,可以根據聯合國教科文組織和世界科學知識與技術倫理委員報告中的建議,由開發者、制造者、銷售者和使用者共同承擔公平責任,以確保被侵害人能夠得到及時賠償[24]。通過建立智能無人系統的責任追溯和責任分擔機制,可以激勵各方主體加強責任意識和倫理底線意識,減少產品損害的發生,使智能無人系統產品可以迅速被社會公眾所接受[25]。
健全智能無人系統開發與應用中的相關社會保障與公民發展制度,應當充分發揮國家的作用,通過積極的國家干預解決智能無人系統開發與應用所帶來的社會問題,具體方式如下:
(1)完善相關社會保障制度。現階段智能無人系統所取代的工作崗位主要是重復性體力勞動崗位,涉及的勞動者通常是底層勞動者。這些勞動者對風險的抵御能力較弱,一旦失業將可能難以維持正常生活,所以當務之急是保障他們的生存權。因此,國家應當完善與智能無人系統開發與應用相關的社會保障制度。一方面,國家應當完善財政和稅收立法,通過調整個人所得稅免征額、提高高收入群體的個人所得稅稅率、增強政府轉移支付力度等方式,對人工智能時代的社會財富分配模式進行調整,提高社會財富二次分配的合理性與精準性,以減少貧富差距,緩和社會矛盾;另一方面,作為剝奪失業勞動者工作機會的補償,國家應當完善社會保障立法,通過擴大社會保險范圍,提高社會福利待遇,增加社會救濟力度等方式,健全我國的社會保障制度,使底層勞動者具備更強的抗風險能力,即便失業也可以維持必要之生計。
(2)健全相關公民發展制度。國家應當健全與智能無人系統開發與應用相關的公民發展制度,保障公民的發展權。首先,國家應當健全人才再培養制度。即通過實施各種財政政策和稅收政策,對被智能無人系統所替代的失業勞動者進行政策扶持,鼓勵其參加教育和技能培訓,引導其終身學習,提高個人素質,增強自身適應新技術的能力;其次,國家應當健全就業服務制度。即通過完善勞動力要素市場的相關立法,加強對人才市場、人力資源管理服務企業、獵頭公司等就業服務機構的專門引導和有效利用,進而拓寬失業勞動者的再就業渠道,使失業勞動者能快速找到新的工作崗位,實現再就業;最后,國家應當健全就業督促制度。基于部分西方發達國家近年來發展過程中的慘痛教訓,國家應當謹慎平衡社會保護與社會促進間的關系,預防“福利陷阱”。因此,對待失業勞動者,國家不僅要采取正向手段對其進行激勵,還要采取相應的逆向手段對其進行約束。對仍然具備勞動能力而逃避勞動的失業勞動者,應當通過完善失業保險期限,加強社區教育等方式,督促其重新投入勞動。以防止小部分失業勞動者不思進取,失去個人發展之動力,只想搭他人之“便車”,成為社會發展的阻礙。通過健全智能無人系統開發與應用中的相關社會保障和公民發展制度,不僅能為智能無人系統的發展解除后顧之憂,更有助于使其惠及并賦權最大可能的多數人,促進社會公平在人工智能時代的實現。
正如盧梭指出,“人性的首要法則,是要維護自身的生存,人性的首要關懷,是對于其自身所應有的關懷”[26]。阿西洛馬人工智能23條原則也提出,“人工智能研究的目標不是為了創造不受指揮的智能,而是有益的智能”⑥阿西洛馬人工智能23條原則于2017年1月在加利福尼亞州阿西洛馬Beneficial AI會議上由諸多專家聯合簽署。。因此,智能無人系統的開發與應用也應當堅持“以人為本”和“科技為民”。在智能無人系統的發展過程中,我們要避免舍本逐末,防止將物化的產品作為最高理想予以追求,而應當將人性之光輝在人工智能時代予以發揚,把科技創新與改善民生福祉相結合,發揮科技創新在提高人民生活水平、增強全民科學文化素質和健康素質、促進高質量就業創業、扶貧脫貧、建設資源節約型環境友好型社會中的重要作用,讓更多創新成果由人民共享,提升民眾獲得感⑦國務院:《國務院關于印發“十三五”國家科技創新規劃的通知》。。本文所提出之法律規制原則及對策,皆為促進人與智能無人系統的和諧統一及共同發展。總之,無論本文之建議能否對智能無人系統問題的解決有所裨益,但求其觀點能起到開拓思路,拋磚引玉之作用。