劉思雨
摘 要:隨著人工智能技術在我國的飛速發展,對人們的日常生產生活產生越來越重要的影響。而人工智能新技術的應用,也產生了些新鮮的話題,帶來些新的挑戰和法律問題。機器人是人還是機器,它到底是一種什么樣的身份?發展人工智能,存不存在安全隱患?人工智能侵權后法律責任如何劃分?如何看待這些問題,如何解答這些課題,本文將給予一些看法和觀點。
關鍵詞:機器人;人工智能;法律責任;新課題
近年來,隨著計算機技術的不斷發展和人們對高水平生活的追求,人工智能快速發展。AI人像模式拍照、虛擬個人助理、在線客服、智能家居設備、人工智能個性化喜好推薦等已經在多個方面為我們的生活提供了便利。隨著人口老齡化問題不斷加劇,還出現了一些智能陪伴機器人,協助老人養老,執行協助行走,衛生清理,聊天等任務。人工智能的應用給人們生產生活帶來極大便利,但同時,人工智能也產生一些安全問題。對人工智能進行風險防控和法律應對,已成為當務之急。
一、人工智能機器人法律主體問題辨析
探討法律問題的前提首先是,機器人到底是人還是機器?在人工智能2.0時代,機器已經可以“深度學習”,可以變得社會性,可以參與一些社會活動和工作,那么這就產生了人工智能能否具有公民權的問題。當前,很多機器人被應用于完成危險任務,被要求以犧牲保護人類的生命財產安全。如果機器人被賦予人格,那這無疑是侵犯了機器人權利。在美國一部短劇中,曾描述過一藍領機器人從事危險、無聊而絕望的工作場景,有人將這一場景與曾經人剝削人的歷史相聯系,認為這也是剝奪機器人權利的一種行為。馬克思理論認為價值是凝結在商品中的無差別人類勞動,而機器人勞動所產生的價值歸屬權目前無法判斷屬于其自身還是它的擁有者。例如目前已出現能作曲的人工智能,那么它所創作的作品著作權是屬于擁有者,還是人工智能自身?如果人工智能自身享有著作權,那么它所獲得的這部分利益如何處理?
但大多數觀點認為,人工智能不具備法律人格,它不應成為人工智能作品的權利主體。人工智能創作的作品,所生成的內容或創造物,是具有著作權法意義上的作品,它是由人工智能創造者或所有者所主導產生的,因此,人工智能作品的著作權應該賦予人工智能的創作者或所有者。將人工智能作品的著作權歸屬于人工智能創造者或所有者,這對激勵他們創新和改進人工智能,促進人工智能作品流通,推動人工智能產業快速發展,都具有積極的促進作用。
二、人工智能安全風險問題辨析
在確認主體問題之后,我們再來看人工智能存在的安全風險,有可能對公民造成的傷害。這就產生一系列對于人工智能侵權及責任的思考。2016年11月,在深圳舉辦的中國際高新技術成果交易會上,一名叫小胖的機器人發生失控,破壞了展廳玻璃,造成人員受傷。歷史數據表明,機器大失控時,可能會導致被侵權人死亡。1979年一美國人曾被重型機械臂擊中頭部身亡;1981年,一工程師曾在修復機械臂時被活活卡死在房屋柱子上。隨著人工智能在社會各個領域大規模應用,人工智能也會產生一系列安全風險。
人工智能發展是一把雙刃劍,它在給人類帶來好處的同時,也帶來諸多隱患和風險。一是人類安全風險。人工智能技術在軍事和戰爭中使用,會有智能性自主武器生產,這些武器如果被不當使用,人類失去對智能系統的控制,就會給人類帶來毀滅性災難。二是社會安全風險。一方面是社會性失業風險,人工智能的生產效率遠高于人類,人類許多工作就會被人工智能取代,引發大量人員失業,給社會帶來不穩定因素;另方面是社會倫理安全風險,人類與機器的根本區別是意志和情感,隨著人工智能技術的發展,人工智能也可能會擁有情感,這就使人際關系更加復雜化和多樣化,對人類社會的倫理安全產生風險。三是個人安全風險。一方面是人身損害風險,人工智能在應用過程中,有可能會發生人身威脅和財產侵害的安全事故,成為人工智能不可忽視的安全風險;另方面是數據信息泄漏和隱私權安全風險,人工智能催生了大數據時代,產生了海量數據資源,這些數據一旦泄漏,就會對個人隱私安全造成極大威脅。
三、人工智能法律責任問題辨析
人工智能侵犯他人權利后,產生安全風險后,應由誰來承擔責任?是人工智能開發設計者,還是參與生產的生產者,亦或是其擁有者?目前爭論最大的就是正蓬勃發展的人工智能無人駕駛。對此德國在2017年提出一部草案,其中規定司機可在自動駕駛系統啟動后轉移注意力,但需要保持足夠警覺,以便在系統發出請求時恢復人工控制。如果自動駕駛模式正在運行過程中發生事故,責任在于汽車制造商,但如果自動駕駛系統已發出人工控制信號,責任便轉移至汽車駕駛者。這是對人工智能發生事故較合理的規定,對于其他人工智能機器人所造成的侵權事件,也應當制定可執行的標準進行衡量,判定責任。
對于人工智能,我們既要順應時代科技潮流,又要對可能產生的風險采取規避措施。首先,樹立風險社會的法律理念和安全觀念。世界上沒有絕對安全,對于人工智能安全風險,要建立起科學的風險意識,辯證看待人工智能安全問題,消除不安和恐慌情緒。其次,開展人工智能安全評估和管理。因人工智能存在一定安全風險,要確定風險管制原則和管理體系,對有可能發生的風險進行評估,對安全風險進行最大程度的防控。再者,明確人工智能致損的責任分擔機制。如果人工智能在應用過程中發生損害事故,就要明確事故發生的原因,確定事故的責任方,看事故責任是屬于開發者、所有者、還是銷售者或使用者,建立起人工智能產品的保險制度。最后,建立人工智能法律法規制度。要及時制定有關人工智能的法律法規,促進人工智能立法,增強人工智能安全風險管控能力,建立多元互動的安全風險規制體系。
參考文獻:
[1]馬中英.關于人工智能潛在風險引發的法理思考[J].山西省政法管理干部學院學報,2018(4):100-102
[2]黃博,劉麗榮.人工智能的法律人格[J].法制博覽,2018(32):78-80
[3]汪婧.發展人工智能須把好法律關[J].人民論壇,2018(29):100-101