蘇芳蕊
(130021 吉林大學 吉林 長春)
人工智能作為新時代的科技發展方向,越來越多的進入人們的視野當中,也越來越多的在社會生活中承擔更多的重要的角色。人工智能可以說是社會科技發展進步的偉大發明,但也面臨著巨大的社會管理與倫理風險。它的“技術經濟”決策的風險,也可能受科學技術規律對文明本身風險的保護,社會風險具有共生、時代和全球的特征。同時,智能革命對當前的法律規則和法律秩序帶來了前所未有的挑戰,在民事主體法、版權法、侵權責任法、人格權法、交通法、勞動法等許多方面與現行法律體系形成沖突,凸顯了產品供給法律制度的缺陷。至于人工智能對現代性的負面影響,有必要采取預防措施和應對系統等風險措施。對于未來的調整規范時代,應以發展人工智能和調控為主題,形成一個系統,在法治社會治理體系下,包括以安全為核心的價值目標,以道德為準則社會規范監管體系的先行者和技術主導,法律風險控制機制。
法治首先需要法律的基礎。如果沒有人工智能的相關法律監督,就會產生嚴重的分歧。隨著法律法規的建立與調整,我們可以保證社會秩序的穩定,為法律公平、正義實施提供保障。中國到目前為止尚未出臺有關人工智能的法律法規。但是從一些人工智能機器人活動致人損害的案件里不難看出,規范人工智能的法律法規的出臺已迫在眉睫。從另一方面來說,由于人工智能是一個引起全國關注的新興行業,立法的日子也不會太遠,對于人工智能產業的立法,兩者都需要有一個比較完整的體系和“人工智能”結構,當然,更重要的是還需要有不同的法律領域進行合作和補充,而人工智能到國家戰略層面,毫無疑問該立法將有助于邁出重要的一步。我們的法律是跟上泰晤士報的步伐,我們需要盡快改進它,目前人工智能已經明顯地影響了我們在自動駕駛和服務機器人方面的生活方式。應當優先考慮人們生活已經受到影響的方面,因此,在自動駕駛和服務機器人領域,應當啟動立法程序,以解決目前在司法實踐當中的遇見的相關問題。
民法角度的思考而言,第一個也是最重要的問題是,人工智能是“人”嗎?從傳統的角度來看,民事主體的定義已經解決。換句話說,民事主體是指可以參與民事法律關系,享有民事權利和承擔民事義務的當事人。我國的法律制度主要包括自然人與法人兩種類型。
一方面,我們在討論問題之前必須首先看到人工智能的工具屬性,它是由研究人員為了更好地服務于人類而開發的,這是一個普遍條件,這是工具屬性決定。就目前的技術而言,人工智能技術(AI)是一套集聲音數據,影響分析和大數據應用于一體的人機交互系統。本發明的目的在于減少人在某個方向上的強度和難度。
另一方面,從我國目前的法律規定來看,人工智能載體不屬于法律主體的范圍。如果按照我國“產品質量法”第43條規定,人工智能就屬于產品和工具的范疇,而不屬于主體的范疇。合理預期,它沒有民事主體資格,自然也不涉及婚姻家庭事務問題。很多人在電影中看到,機器人愛上了人類,反之亦然,我們在可預見的未來看不到這種情況。至少在我國目前的民法規定中,絕無可能。
人工智能是機器還是人?涉及到主體和客體的二分說。在大陸法系中,主體(人)與客體(客體)是民法通則的兩大基本制度。主客體,人與客體之間有著嚴格的區分。一個不屬于精神或意義的生物是權利的對象。主體和客體之間的不可逾越的鴻溝正在搖擺不定。從基因時代到智慧時代,一個重要的變化就是傳統的民法的對象框架已經被打破,人們的遺傳物質已經不能簡單地作為客體,而沒有生命且人工智能的機器人很有可能被賦予合法的民事法律資格。通過將機器人視為“人”并給予相應的主體資格,在現有的民事法理學中很難得到合理的解釋。民法意義上的人必須具有獨立人格(權力能力),其中包括自然人(自然人)和法人(法人)。“人格權能力法”,關于人或法人的規定,“展現了抽象人格抽象層次的方法”。法律人格概念的意義在于揭示民事主體的內在統一性和本質性,界定主體與客體之間的關系。“民事能力概念的含義是揭示民事主體的差異,具體描繪民事主體存在和活動的狀態和特征?!睆姆杉夹g性的角度來看,德國民法典以權力核心以概念為中心,進行主體性的制度設計。在產權領域,這個框架內的邏輯關系是“經濟人——法人”。在自然人格中,“法人”的建立是建立在道德價值和道德價值的基礎上。而在企業人格之際,由于有正確的發揮“人格”作用的能力,從而形成了“群體—權力—法人”的邏輯關系,從而使法人與人一樣自然人作為“法人”在某種程度上享有人格利益。
但是,我們還是應當看到人工智能與一般生產工具的巨大區別。其有獨立思考的能力,且這種思考分析能力能幫助其作出判斷,這一點類似于人類的“意識”。在具體的生產操作中,擁有一定獨立意識的人工智能機器人一旦傷害人類或者其他機器人又當如何解釋?
人工智能的侵權行為造成的傷害案件不斷發生。在法理上人工智能致人損害大多有兩種情況:首先是侵權人對損害造成的智能系統的非法控制。黑客、病毒和其他人為因素,例如互聯網,然后控制人類家庭托兒機器人,幫助機器人、護士、機器人或其他智能系統,從而危害人類的后果。在這種情況下,黑客或傳播病毒的肇事者應承擔法律責任,其次是智能系統本身的缺陷產品造成的損害。
如何定義和確定人工智能的侵權?確定智能系統對人身損害的責任有兩種責任類型:一種是由于行為人的疏忽而產生的產品責任。在侵權責任法中,產品責任是指生產者、銷售者、瑕疵產品的生產者和銷售者造成他人遭受人身傷害,財產損失或造成他人遭受人身或財產損害的特殊侵權責任。造成損害的產品必須有缺陷,包括制造缺陷、設計缺陷、警告缺陷、跟蹤缺陷亦或是功能缺陷等。該技術不適用于“技術豁免”原則,該技術是侵犯特定技術的主要商業用途或其他非法行為。在這種情況下,適用替代責任是適當的。替代責任被稱為替代責任,首先出現在代理關系和雇傭關系中,即代理人本人,以獲得委托人“授權”或“批準”的侵權責任;雇主在“就業”期間對其雇員實施侵權責任應說“替代責任”,機器人沒有任何缺陷,符合技術中立原則的要求,但所有者或用戶的機器人,或者不是善意的管理員的義務,或者讓機器人侵權行為,不是以中立豁免責任的技術原則。
人工智能機器是不同于生活中出現的一般意義上的工具,因為其有一套幾乎媲美人類的信息處理能力,所以其在工作中可能會自主產生問題處理方案,來解決問題。其方案的選擇是否恰當等問題。所以,在立法上應當注意緊貼時代的腳步,在人工智能發展的同時進行上層制度的設計,已解決人工智能在實際應用中的包括諸如主體定性、侵權問題等實踐問題。
人工智能在多個行業內的運用都有非常出色的表現,綜合運用大數據等技術手段,使人們得到更好的工具等。就目前的實際情況和科技發展水平來看,人工智能還不能在生物學和生理學上稱之為“人”。但是,在不遠的將來這種情況是否會隨著科技的進步而改變?我們面對未來時還是要考慮到人工智能是否可以完全不利于人類而產生獨立的思維?這不僅僅是技術革命,更將帶來法學理論的革命性變化。科技的發展總是推動法律的發展,從“自然人”衍生出來解決商事經營的“法人”概念,到如今討論是否可以將“人工智能”歸結為民事主體的問題。其實就是法律隨著社會文明的進步而逐步發展,未來是否真的會出現完全與“自然人”相同的人工智能?本文認為,這些是完全可以預料得到的。能夠做到適應時代的發展,在法律制度上未雨綢繆也是我們法律人應當有的思考與擔當。