項志祥
得益于大數據、深度學習以及算法三要素的日益完善,“近年來人工智能呈現出爆發式的快速發展”。無人駕駛汽車、軍用無人機等人工智能產品從實驗室開始進入到實際應用,“這些早期的技術僅僅只是一個開始,我們或許很快就能目睹一場機器人人格化大革命”。正當人們歡欣鼓舞準備迎接人工智能時代的到來,享受“智能生活”的同時,也有人對此表示擔憂。英國物理學家霍金在接受《泰晤士報》采訪時表示,人類需要控制人工智能,防止其可能帶來的毀滅性威脅。這并非危言聳聽,實際上人工智能時代是一個數據、代碼、算法的時代,如數據收集與個人隱私保護、算法黑箱等潛在風險都是法律理論與實踐過程中必須迅速應對的。
一、人工智能時代的潛在風險
德國社會學家烏爾里希·貝克首次系統提出“風險社會”概念。貝克認為,“在風險社會階段,各種全球性風險對于人類的生存和發展都造成了一定的威脅”。對于人工智能技術來說,正面作用是主要方面,潛在風險是次要方面,但只有控制好其潛在風險,才能更好地發揮正面作用。因此,要關注人工智能時代的潛在風險,制定應對之策,以防止可能的全球性威脅。
1.開發者的壟斷風險。由于人工智能代表著國際上最前沿的科技,充滿了不確定性以及未知性,注定了能夠去研究、掌握并使用它的必定是財力雄厚和資源豐富的社會團體。這些社會團體作為人工智能技術的開發者,實際上已經擁有了最高話語權,由此也帶來了風險。自工業革命以來,大多數的行業產業都呈現著金字塔形態,即便是油氣或電信等行業,政府幾乎也無一例外的反對壟斷。但是,當人工智能技術漸漸步入成熟階段,作為需要工資、保險以及養老金的人類雇員在低成本的智能機器人面前將顯得不堪一擊,并且智能機器人的穩定性也更優于人類,各項資源得以被最大化利用。站在金字塔頂的企業或社團能夠充分利用自身的資源優勢,用更低成本更低定價的產品去擊敗對手,形成眾多壟斷或寡頭壟斷市場。
2.人工智能物的變異風險。強人工智能時代,人工智能物能夠擁有如人類一般的思維能力和運動能力,其在某些方面甚至超越人類,這顯得霍金的擔憂不無道理。一方面,當人工智能物在多個方面都超越人類的智能,人類為其設定的框架不論是法律制度也好還是內嵌的道德紅線也好,是否對其具有現實的約束力;當人工智能物形成自身的意識同盟,行為一致地破壞規則,人類又是否有足夠的限制力。另一方面,人工智能物的行動實際上由代碼和算法來控制,當其運行系統被黑客或更高級別的人工智能物侵入,彼時則不僅是互聯網時代的隱私泄露和財產安全問題,更會涉及到人類生存問題。這些變異風險為人工智能技術的發展抹上了一絲隱憂。
3.消費者的法律風險。消費者在使用人工智能物時,由于人工智能物的故障導致的損害行為到底由誰來承擔責任,一直是現有法律要直面的問題。在弱人工智能時代,人工智能物主要用于智能增強,其損害行為可大體適用產品責任法,即通過對開發、制造和使用過程中故障成因的界定來分別對編寫者、制造商和消費者進行追責。然而在強人工智能時代,人工智能物具有自身的理解判斷,當其引起的損害行為并非由硬件原因導致,將使消費者面臨法律風險。一方面,開發者的算法設定通常未公開且監管困難,使得消費者的權益保護較難得以主張;另一方面,人工智能物本身并無財產權利,現有民法無法對其追責,而刑法的處罰對于損害行為本身來說又顯得于事無補。
4.人類的生存風險。人工智能時代的到來將使得人類中心主義受到前所未有的挑戰。從工業革命到信息革命,不論生產力如何發展,信息如何聯通,人類一直無可爭議地是這個生態系統向前發展的核心推動力。人類智力超群,能夠勞動,但是面對人工智能物將顯得遜色,從而引發其生存風險。一方面,人類可能淪為人工智能物的附庸。眾所周知,人類區別于其他物種的根本特征就是勞動,當人工智能物可以完全替代人類時,勞動這一根本特征便會逐漸消失,人類反而成為其所創造之物的配角。另一方面,人工智能物的反叛風險。當人工智能物進化地足夠強大,脫離了為其設定的路徑,它們似乎并不再需要地球上人類這個龐大的種群繼續存在,而人類也沒有足夠的能力與之抗衡,人類的生存空間將受到威脅。
二、 人工智能的認識誤區
互聯網時代的到來曾讓人們歡欣鼓舞,認為人與人之間的聯系將更加緊密,而實際上卻是漸漸疏遠,面對面的交流減少,通過電子設備進行溝通的方式取而代之。筆者認為,現階段對于人工智能的認識同樣存在誤區。
1.失業問題。無可否認的是,人工智能時代的來臨將會造成大規模的失業,“人類社會很可能分成兩大階層,一個是非常少的、‘升級后的精英階層,而絕大部分人將變成沒有任何經濟價值的‘無用階級”。但是,傳統意義上來說就業是為了維持生存,實現人生價值,較低的失業率能夠保證社會的穩定,而人工智能時代大部分簡單的重復的勞動將被機器取代,人類得以解放,物質極大地豐富之后人們并沒有太多關于物質的憂慮。因此,人工智能時代的失業與傳統意義上的失業存在著很大的區別,失業后人們的關注點相較于物質欲更多的是心理的滿足。
2.人工智能的效用。人工智能時代,人類相當部分的簡單重復勞動可以被替代,這使我們產生了一種錯覺,即人類將從事的都是級別更高的工作,人類將變得更強大。事實上,“每普及一個工具,人們就失去了一個學習相應技能的機會”,計算機的發明弱化了人們的書寫能力,導航的發明弱化了人們的認路能力。人類被人工智能替代的工作越多,人類自身的基本技能也喪失地越快。很難想象,連基本技能都逐漸喪失的人類,能夠熟練地運用高級技能持續有效地對人工智能進行規制。
三、人工智能的法律應對
現階段,既不能對人工智能時代的到來矢口否認,將強人工智能歸類于科幻,也不宜過于狂熱,認為人工智能時代的浪潮馬上就要席卷全球。法律往往是滯后的,但法律也可以是前瞻的,以法律來應對人工智能時代的潛在風險應屬未雨綢繆的做法。同時應當注意過猶不及,將人工智能技術限定在合法的框架內,才能保證其健康發展。
1.守住底線,設定人工智能的準入條件。美韓等國有關殺人機器人的研究水平處于世界前列,當其有朝一日真正應用于戰爭,無異于打開了“潘多拉魔盒”,部署此類武器令國際各方難以接受;性愛機器人看似消費者的個人行為,但其背后卻牽涉有關人類繁衍的倫理問題,也導致一部分人的極力反對;得益于人工智能技術的“深度偽造”視頻可以偽造人臉,即使親眼所見也可能不是事實,這給新聞和司法審判等領域帶來巨大障礙……人工智能效力強大,能夠應用于生產生活多個層面,以至于必須保證其在合理合法的框架內運行,對于明顯非法或尚有爭議的應用亮出紅牌,相關技術應審慎準入,維護人工智能的“純潔性”。
2.厘清因果,確立產銷一體的擔責體系。首先,由人工智能物所引起的侵害事件的責任承擔,應當以人工智能技術所處的階段加以區分。在弱人工智能時代,人工智能物可以簡單地當做某種“工具”,操作不當的損害責任應由使用者承擔,而產品缺陷責任則應由生產商承擔。在強人工智能時代,人工智能物自身有處理能力,若因其本身的編程或算法漏洞而引起的損害責任理所應當由開發者來承擔。其次,可設置專門的人工智能監管部門,在產品上市前先進行抽樣調查并試用無誤后再準予流入市場,守住最后一道關口。再其次,應盡快出臺人工智能物保險制度,例如家庭汽車的強制保險,將可能引起的損害風險最小化。
3.分清主客,把握好人類中心主義原則。對于是否給予人工智能物法律主體地位,學術界一直存在爭議。人工智能物是無生命體,由人類創造,有人類的行為能力卻缺失責任能力,無自身獨有的利益,并不符合法理上對于法律主體的定義。但是,人工智能物又完全可能有獨立于人類的意識并為法律意義上之行為,存在被定義為法律主體的核心基礎。不論如何,人類給予了人工智能“生命”,必須恪守人類中心主義這一基本原則,以人類為主,人工智能為客。當人工智能危及人類地位,應當啟用緊急預案對其予以銷毀或永久清除數據等處理。
誠然,人工智能未來將往何處去,人工智能從業者也無法給出一個確切的答案,加之其技術的復雜性,讓任何國家的法律都難以面面俱到。現階段對于人工智能的解讀,往往帶有一定的主觀色彩,或許在其發展的下一階段會轉移我們討論的方向也未可知。盡管如此,學界對于人工智能的關注是必要的,這讓法律與人工智能的聯系更加緊密,讓法律保持活力,能夠既關注國際大事也關注身邊之事,既關注社會變革也關注科技要聞。同時,正是因為有了法律的介入,人工智能才能夠更加蓬勃發展,一方面給人類的生活帶來巨變,另一方面彰顯人類道德與智慧的光輝。
(作者單位:華東政法大學法律學院)