謝 月
澳門科技大學,澳門 999078
人工智能是近幾年人類頂尖科學技術發展的集合體代表,它主要是通過計算機技術的高速發展而衍生的一個新興產物。人工智能本質上是機器數據自主思維處理方式的一種,人工智能一般由半導體結構,機器驅動和云計算組成,表現為不僅直接執行指定命令計劃,而且可以依據已有的基礎性物質、數據、邏輯、分析進行自主學習、自主升級從外界獲取的新知識從而不斷地增強其判斷能力和決策能力?,F在高級人工智能區別于之前的簡單集成電路反應體,最主要的特征表現為高度的"智能化"和"類人化",即人工智能和人類日常行為表現相似,有獨立的推理判斷邏輯能力,有自己的思維和意識。人工智能拆分來看,關鍵詞是"人工"和"智能",簡單的定義來講,"人工"與"自然"相區分,是以人力能制造生產達到的地步,"智能"是與"非智能"相區分,按照目前的定義來講,就是具有相對獨立的推理判斷邏輯能力,有自己的思維和意識,能夠表現出和人類較為接近的思維和行為模式。簡而言之,人工智能就是人工實現的智能化產物。
人工智能發展是由低級到高級的,在研究的初期階段,人工智能并不是今日人們所理解的這么智能化的產物,大多數是一定算法編程并以集成電路的簡單循環路徑,只能執行一些命令和任務,在算法控制下模仿人類的行為和思考模式,這種人工智能稱之為“初級人工智能”。所謂初級人工智能指其智能和行為是人類提前設定的,不存在意志和主觀判斷,只受指令和程序影響做一些機械性往復運動罷了。初級人工智最明顯的特征就是沒有自主的邏輯能力,思維能力,判斷能力,不能在已有的基礎上學習升級。然而,高級人工智能通過合適的程序設計,便可以有自主感知能力、自主思維能力和自主行動能力,從這個角度來說,高級人工智能具備自己的意志和思考方式,擁有高度“類人化的能力”,相信在不遠的將來,人類與高級人工智能的思維意識模式差距會逐漸縮小,以日常的行為表現難以直接區分兩者的不同,高級人工智能會逐漸融入人類的社會生活,改變人類現有的生活方式。所以,以一種簡單的方式來劃分目前的人工智能,主要包括低級人工智能和高級人工智能。由于低級人工智能的弱“弱智能化”,我認為不存在討論其法律人格的必要,因為其本質上只是人類工具的一種,不具備討論的意義,因此我們主要研究高級人工智能。
目前業界流行的三種理論,無法律人格,有限法律人格和完全法律人格學說,針對高級人工智能的發展狀況,我們應該采取哪一種學說呢?如果人工智能不能獲得法律擬制人格,即采用“無法律人格”學說,那么人工智能沒有法律人格,就不會有自己的權利義務內容,也不能獨立擔責,也沒有研究的必要了。討論人工智能法律人格問題的最終是為了構建合理合法的人工智能管理應用體系,通過法律手段保障人工智能和諧有序發展,對人類帶來益處,同時防范人工智能可能帶來的危險。當前人工智能,特別是高級人工智能,已經能夠獨立作出一定的決策,有自己的意思觀念和價值判斷。在社會生活中可以代替人類做一些簡單的法律交易行為,產生法律后果,尤其是在知識產權領域,且不論人工智能自己衍生的作品歸屬權問題,但這種權利肯定是受法律保護的。盡管目前技術上能滿足法律人格的人工智能還未出現,但是就已經出現的現象來看,高級人工智能成為法律主體的必須性和可能性已經成立了。由于技術的限制,人工智能法律擬制獲得法律人格并不是完整的,必須存在一定限制的,定義為“限制法律人格”。有限法律人格理論認為,高級人工智能作為具有理性認識并能作出獨立意思表示的特殊法律主體,但是這種法律人格是存在局限性的。從人工智能的表現來看,以及具有獨立自主意識和一定的思維能力了,可以在一定程度內享受民事權利承擔民事責任,但是在部分領域存在限制。綜上所述,依據斯通納對于法律權利條件的理解,人工智能具有法律保護的意義和效果,所以高級人工智能應該滿足獲得法律權利的條件,也意味著人工智能是可以取得法律人格的。但是畢竟人工智能還處于發展之中,即使目前種種表現出來的高度擬人化,也不能認定人工智能能夠完全取得法律上的人格,特別是在侵權救濟問題上,大多數人工智能是沒有自己獨立的財產的,因此為了保護相對人和第三人的利益,高級人工智能的法律擬制人格必須受到一定的限制,所以筆者更傾向于“有限法律人格”學說。
第一在權利方面,按照權利理論劃分,權利包括政治權利,經濟權利,社會權利和其他權利,在有限法律人格規制下,我們主要考慮政治權利的局限性。由于政治權利的全系社會、國家和民族的發展,其本身的特殊性要求,所以,高級人工智能在政治權利方面享有的權利必須得到限制,不然會引發一系列道德和安全危機。在民事方面的權利也要得到一定的限制,按照目前的發展技術,高級人工智能的婚姻家庭權,繼承權沒有實現的可能性和必要性。從總體來說,關于高級人工智能的權利在法律上應該予以肯定,但是高級人工智能的權利并不是完整的,應當受到一定程度的限制,不能完完全全的享有和人類一樣的權利,考慮到道德和倫理的限制,高級人工智能的權利的范圍也確定了下來。
第二是高級人工智能的行為能力和意思表示能力有限。行為能力指的是法律主體是否能夠獨立作出一定的意思表示,產生相應的法律后果的能力。行為能力以法律所認可的權利能力為前提,公民具有行為能力,意味著他對自己的行為及可能產生的后果獨立地承擔法律責任,是否有正常的理智以及是否達到一定年齡就成為確定公民有何種行為能力的依據。高級人工智能盡管在形式上有自己的思維和意識,能夠作出一定程度的意思表示行為,產生對應的法律后果,但是這種行為能力是存在限度的,為了保護對方和第三人的安全和利益,我們認為高級人工智能的行為能力和意思表示能力有限,類似于人類公民當中的“限制民事行為能力人”。因為從理論上講,人工智能在一開始已經被人類預設一定的指令和算法,在一定范圍內執行命令。例如保姆機器人,可以在日常生活中代替主人進行一定的簡單交易行為,比如買菜,收快遞等等,這些簡單的意思表示行為仍然在其預設的指令程序范圍之內,為了促進交易的簡便性和有效性,我們應該承認高級人工智能享有的這一部分的法律意識表示能力,承認這一部分合同的有效性,整體上來看和“代理人制度”相似,限制高級人工智能的行為能力和意思表示能力,我們并不是否認高級人工智能的自主意識能力,而更多的是保護交易方的安全,如果人工智能的這項權利不受限制,它們做出的意思表示行為遠遠超過其“代理人”授予的權限,給“被代理人”和交易方帶來了不可逆轉的損失,如果簡單的歸責會導致一方的不公,所以,高級人工智能的行為能力和意識表示能力必須受到一定的限制,其限制的范圍應該依據交易的大小,重要性以及授權范圍來綜合考慮。
第三是高級人工智能責任能力有限。責任能力,是指權利主體以自己的行為履行法律義務和接受不履行義務時的懲治性法律后果的資格。在民事法律關系方面,有經濟能力的無行為能力人或限制行為能力人,因為自己的行為造成他人財產損失,要以行為人自已的財產進行賠償。對犯罪行為承擔刑事責任的能力:凡達到刑事責任年齡,精神和智力正常的人,即具有刑事責任能力。無責任能力的人,對自己的行為不承擔刑事責任。但其對自身行為所產生的后果并不能完全承擔責任。責任能力與行為能力緊密相連,簡單來說就是該法律主體能否承擔自己行為導致的法律后果的能力。雖然高級人工智能在實踐中表現的行為獨立越來越明顯,但其在造成侵權后對侵權責任的承擔較自然人等法律主體來說仍顯不足,特別是在當前的技術水平還難以完全實現強人工智能的意識能力的情況下,我們不能直接用規制人類的法律手段來要求高級人工智能承擔自己的行為后果。比如,高級人工智能實施危害一定法益的行為,依法應負刑事責任時,其是否能作為犯罪主體承擔相應后果值得質疑。這種質疑主要體現在高級人工智能承擔刑事責任所帶來的效果難以能達到刑罰的真正目的,難以使受害者獲得權利的救濟和心靈的慰藉。另外,在民事責任方面,我們之前談到了高級人工智能的有限行為能力和意識表現能力,讓其行為在一定界限范圍內運轉??墒侨绻坏┌l生了超越授予權限的法律事實,那么該法律后果應該怎么承擔呢?民事上一旦侵權責任發生,大多數依據填平規則,將被侵權人所受損失填平,而且大多數是以金錢給付的方式,可是按照目前的人工智能發展狀況,一般的人工智能沒有自己獨立的財產,所以我們應當重新考慮責任的承擔。高級人工智能的法律人格獲得方式與公司的法人人格擬制極為相像,因此,我們可以考慮引入公司法上的“法人人格否認制度”,在重大侵權事故或者責任以后,綜合利益的考慮,我們應該否認人工智能的法律人格,“刺穿其面紗”找到人工智能背后的所有者和實際掌控者,讓人工智能的所有者來實際承擔侵權責任;或者我們可以引進“第三方強制責任險”,損害發生以后,依據法定程序讓保險公司來承擔相應的侵權責任。從這個角度來講,為了保護其他的合法權益,高級人工智能的責任能力也是受到限制的,其責任能力的大小應該依據范圍當時的具體侵害和損失情況來確定。
由于目前人類科學技術日新月異,人工智能的發展更是以我們不能預測的速度進行。針對越來越多涉及高級人工智能法律人格問題的客觀事實,然而法律上卻難以找到確切的依據和標準。一個國家社會應有的是“立法先行”模式,但是針對人工智能法律人格問題相關立法進展緩慢,從而來帶來了一些的相關問題。首先是人工智能的法律人格界定不明,導致其法律地位無法確定。目前的人工智能依據具有了自己的思維和意識,到底這種程度的自主意識滿不滿足獲得法律擬制人格的要件?相關立法應該給出具體的法律答案和認定標準,以此來解決這個初步問題。其次是關于關于人工智能的法律擬制人格是界限問題,因為這個關系到人類現有社會的道德倫理觀念和合法權利保護,如果不明確具體界定出人工智能的法律人格界限,限制其一定的法律權利,行為權利和責任能力,那么對現有的法律體系邏輯乃至人類賴以生存的倫理社會體系產生巨大沖擊和破壞。最后就是重視理論建設,“百家爭鳴”對學術的發展有很大的好處,但是也不能一直放任其自由發展,學術界對人工智能的理論越來越多,不排除很多學者會為了某種經濟和社會利益,提出一些不負責的理論,我們應該重視這個問題的理論研究,提出相對合理正確的看法,從而達到“謠言止于智者”的效果。
人工智能的規范和調整以及人工智能的發展邊界問題,必須引起我們的重視,不論人工智能的法律人格是否能夠在法律上最終獲得承認,人工智能發展邊界和限制問題也是我們應該首先考慮的。在前文考慮三種不同學說時候我們就提到了法律人格應該受到限制,相應的其權利能力,行為能力和責任能力也具有相應的界限。對于人工智能在不同領取的限制,如果用一一列舉的方式是肯定不現實的,但我們可以以提綱挈領的方式說出主要的指導思想,筆者認為解決人工智能發展的邊界問題主要依據三個原則。第一就是尊重現有的道德和倫理觀原則。道德和倫理規范則不受生產力發展水平的限制,其可以超前于經濟基礎的發展而預先設立。在人工智能的迅速發展過程中,風險總是伴隨著便利,為了防止人工智能給人類社會造成更多的風險,建立健全人工智能的倫理體系勢在必行。人類社會現有的道德倫理觀念,是千百年來逐漸發展建立起來的,人工智能的發展必定會對其帶來沖擊,但是一定要時刻懷有敬畏之心,尊重和遵守人類社會的道德和倫理規范。二是保障人類的安全和自由。安全是首要問題,如果人類社會的安全不能保障,反過來人工智能的發展也會受到顛覆性的革命。自由也是人類最高目的性追求,人工智能的發展必須保障人類的安全與自由,這是最低限度的要求。如何保障人類的安全和自由,主要體現在以下兩個方面:第一是人工智能的發展不能對人類的安全產生威脅。人工智能不論發展到什么階段都應將“為人類服務”作為初衷,而不能違背初衷,對人類造成傷害尤其是在當前相關的法律法規缺位的情況下,更應該保證人工智能的研究在不會對人類安全產生負面的情況下進行。第二是絕對不能觸犯人類的主體地位和權利。人類的對人工智能的絕對管理,是人的尊嚴的象征,更是人類賴以生存的基礎。人工智能的發展不能影響人類這項權力,總而言之促進人類與人工智能共同和諧發展的基礎,就是要堅持處理好人類的管理和人工智能的自由和社會安全原則。三是要堅持以人類政府監管為主導。建立健全人工智能的倫理規范體系,還需要政府的介入和監管。法律法規的制定與完善必須緊跟科學技術的發展步伐,在相關法律法規暫時缺位的情況下,政府的監管至關重要。若此時政府監管不力,則極有可能導致人工智能等新型事物處于無法可依的狀態,由此會嚴重影響人們對于人工智能的看法,產生各種矛盾。另外,即使在發展的將來,人類制定出了一套嚴密的人工智能管理法律制度,但是仍然少不了相關政府機構的監管實施,人類政府的管控十分重要,對于之前的社會倫理道德和人類的自由安全,是最有效、切實可行的辦法,因此我們必須要堅持以人類政府監管為主導,科學健康的發展人工智能。