司源
摘要:人工智能從1956年的達茅斯會議提出,到現在已有61年的歷史。經過了60多年的演變,人工智能的發展進入了新階段并逐漸成為國際競爭的新焦點、經濟發展的新引擎。人工智能為社會建設帶來新機遇,將深刻地改變人類社會生活、改變世界。但人工智能發展的不確定性也會帶來諸多挑戰。所以在大力發展的同時,必須高度重視可能帶來的風險。
關鍵詞:人工智能;機遇;挑戰;立法
1.前言
人工智能(Artificial Intelligence),英文縮寫為AI。它是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。對于大多數人而言,他們簡單地認為的人工智能就是機器人,其實機器人只是人工智能的一部分。近幾年有關人工智能的新聞層出不窮,人們在為人工智能的強大能力感到驚嘆。2017年4月27日,英國著名科學家史蒂芬.霍金就通過視頻發表演講,再一次提及了他對人工智能的擔憂。盡管我對人類一貫持有樂觀的態度,其他人也認為,人類可以在相當長時間里控制技術的發展,這樣我們就能看到人工智能解決世界上大部分問題的潛力。
人工智能時代已從幕后走向臺前。從阿爾法狗大戰李在石、微軟公司在推特社交平臺上發布了名為Tay的人工智能聊天機器人到IBM研發出世界上第一位人工智能律師Ross。人工智能已走向大眾生活,改變了傳統認知。但在實踐中,人工智能所引發的問題也是層出不窮。如何對人工智能的發展作出妥善地法律制度安排,在技術的發展過程中,對人工智能的法律地位、法律責任、權利義務如何安排,以引導實踐的發展,是當代法學家應該思考的問題。雖然現在人工智能還處于前期階段,我們對這些可能出現的問題還未有系統性的認識,但可做一些前瞻性的研究,以避免出現問題而束手無措。本文就人工智能對當代法律制度的沖擊分析如下。
2.人工智能對民事法律關系的挑戰
2.1人工智能的民事法律地位的界定
人工智能的發展,首先引發一個最重要的法律問題。即機器人究竟是人還是機器,在法律上是否具有主體地位,能否獨立享受權利和承擔義務。對于人工智能的性質,學界一直爭論不休。比較普遍的說法有工具說、電子奴隸說、代理說等等。而現行體系下,人工智能是否具有法律人格地位并不清晰,是造成了現如今適用困境的主要原因。雖然現在機器人在法律的獨立主體地位并沒有獲得普遍認可,但按照目前的趨勢發展,擴大機器人在法律上的權利和義務,在智能技術快速發展的今天,并不是沒有可能。到那個時候,我們傳統的民法體系就會被動搖。
2.2人工智能致人損害的侵權問題
人工智能是通過計算機的程序設定來進行工作,與人類協作,所以出現失誤在所難免。在實踐中,就已經出現過機器人致人損害事件。在深圳舉辦的第十八屆中國國際高新技術成果交易會上,有一臺機器人突然發生故障,在沒有指令的前提下打砸展臺玻璃,導致部分展臺破壞,同時有路人受傷。根據美國職業安全健康管理局的統計數據,因為機器人產業目前還沒有具體的安全標準,在過去30年間發生了大約30起與機器人相關的死亡事件。那么,對于機器人造成的人員傷亡,他們應該承擔怎樣的責任呢。按照當前的法律來看,機器人屬于電子產品,誰制造誰生產誰負責,似乎沒有爭議。但現實是,未來機器人與人類一樣,他們有“自我意識”,可以用腦子進行思考抉擇,哪些事情應該做哪些事情應該盡力避免。那么,機器人的行為就可能會超出了人類所能控制的范圍。如果一味讓生產者為機器人的行為買單,似乎有點不符合情理。
2.3人工智能侵犯知識產權的問題
現在的制造者往往會在機器人的程序輸入大量他人的作品或著作,以達到幫助機器人完成自我使命以及產生自我意識。在一些地方計算機幫助人進行原來只屬于人類的工作,智能機器人可能把大量的信息復制并儲存下來,而按照一些國家的規定,存儲信息本身就構成對他人著作權的侵害。
2.4人工智能與隱私權的保護
隱私權是指自然人享有的私人生活安寧與私人信息秘密依法受到保護,不被他人非法侵擾、知悉、收集、利用和公開的一種人格權。個人信息屬于當事人隱秘的不愿被他們知曉的信息,包括家庭住址、信用和財產狀況、健康狀況等等。但在互聯網四通八達的大數據時代,這些零散和廣泛的數據都可能被收集起來,容易被他人操控并作為違法行為的工具。個人信息泄露并非只發生在我國。在互聯網的發展過程中,我們需要以傳統法律為基礎,針對互聯網的特點制定出一些專門規則來引導其健康有序發展。例如早在1986年美國就頒布了《電子通訊隱私法案》。大數據的到來也同時強化了人工智能開發者的責任。即在收集和使用數據的過程中,還要遵守相應的安全保障原則,采取適當有效的方法避免數據的泄露,防止未經授權隨意披露使用篡改。隨著人工智能技術的不斷深入發展,更是不斷強化立法保護的過程。
2.5人工智能生成作品的著作權問題
在現實生活中,人工智能創作的文學作品早已經投入實踐。微軟機器人“小冰”還會唱歌,還會寫歌詞和財經評論。但是這些作品背后的著作權,到底歸誰所有?該行為是否能構成知識產權法上的"智力成果"和"獨創性"的要求。關于人工智能的生成作品。知識產權法需要解決的問題是,機器人是否能稱成為著作權的主體?有專家說,雖然機器人的著作創造是在開發者輸入的模版個固定格式上進行的,但仍可以視為著作權法意義上的作品。也就是說,如果作品是由機器人獨立創作的,那么就可以視為著作權法上的主體。但在現實中,因為機器人表達自我意識的有限性,他并不能像人類一樣去行使權利和履行義務。所以,可參照職務作品或雇傭作品的規定,由機器人得開發者或創造者享有或使用。那么,具體該如何操作,就需要法律出面規制,法律應從何種角度來保護機器人創作的作品,由自身享有還是由機器開發者或創作者所有。
3.人工智能對刑事法律關系的挑戰
3.1無人駕駛與交通肇事犯罪
李彥宏在位置講解,而主駕位置雖然坐了司機,但雙手已經離開方向盤。通過這個新聞,我們雖不能對百度自動駕駛的發展全盤否認,但從整個世界的大環境看,發展自動駕駛是大勢所趨。那么,這里面便會涉及到無人駕駛與交通肇事犯罪之間的聯系。首先,在無人駕駛中,法律上具有主體地位的“人”并沒有參與其中,使得刑事責任主體無處可尋,即沒有犯罪主體也就沒有對象可處罰。再是,刑法上的構成犯罪須符合主客觀相統一原則。而對于無人駕駛的主觀意圖我們無法查證,也就無法定罪。一般情況下,要分清人為操作不當還是人工智能的缺陷病沒有那么容易,舉證上尤為困難。然而,并非無人駕駛只要發生交通事故,用戶受到損害都要歸責于人工智能。如果一律的追究技術開發者的責任,在有些情況下可能有違公理。當然,有些學者認為,在刑法對待無人駕駛的法律地位上,應與公司的法律地位無異。即按照“刺破人工智能面紗”的規則原則來確定責任主體,由人工智能的實際控制人或責任人承擔責任是合理的。但將來人工智能在一定程度上可能會擁有自我意識,而實際的設計者或制造者都沒有辦法完全控制或人工智能已超出原有程序行事,還一味讓他們承擔刑事責任,這樣合理嗎?
3.2人工智能與醫療事故犯罪
去年8月,老牌人工智能產品IBM Watson分析了數千個基因突變,最終確診一位60歲的日本女性,患有一種非常罕見的白血病,并提供了適當的治療方案,而幾個月前她曾被醫院誤診。Watson的整個診斷過程不到10分鐘,如果換做人類醫生,這個診斷需要耗時數周才能做到。這些科研人員表示,該技術未來也可以用于診斷其他疾病。對于過失犯罪的責任主體可能就不單純是傳統意義上的醫務人員,還擴大智能技術或智能機器人。在醫療領域,隨著技術的進一步發展,他們的適用范圍會越來越廣泛,可替代性越來越強。而他們的特殊身份能否被法律所認可,他們從事醫療服務是否應該取得相應的執照,以及出現醫療事故的責任承擔,都是法律應該考慮的問題。
4.人工智能對司法實踐的影響
司法實踐中通常法官按照自己的理解解讀法條,律師總是按照對當事人有利的方式解讀法律。因此,人工智能運用于司法實踐活動中,一定程度上能夠促進司法公正。首先,它的記憶和檢索的功能非常強大,能夠為司法審判提供相對統一的推理和評價標準,從而輔助法官做出具有一貫性的判決。其次,人工智能運用于司法實踐活動中,能夠提高司法審判的工作效率。在司法人員的職業生涯中,難免要完成大量重復的機械工作,此時人工智能可以代替司法人員解決這些工作,從而極大地縮短其工作時間和壓力。當然,隨著人工智能法律技術的強大,司法人員是否面臨被全面取代的危機也是值得思考的一個問題。
最后,對于人工智能的快速發展,我們還忽略了一個特殊群體,即未成年人。人工智能的發展衍生出很多電子產品并快遞融入我們的生活。比如手機(軟件開發商推出了很多APP)、iPad、電腦中就充斥著各種智能技術帶來的內容沖擊。而生活在電子時代的小朋友們,對于這些其實并不陌生。之后,亞馬遜個人助手通過算法進行識別,竟然認為小孩子想聽色情內容并開始播放。無獨有偶,一名小女孩在和Econ內置的人工智能助手Alexa聊天時,訂下了價值170美元的玩具,等家長發現并取消訂單,已經為時已晚。從這些事例我們可以看到,由于人工智能技術的發展并不完全成熟,未成年在過早接觸到這項技術會帶來很多問題,對他們的成長也可能會帶來負面影響。而對于人工智能的開發者或創造者,他們應該預料到未成年人接觸到這項產品的可能性,并應該采取相應的保護措施。在法律方面,也應該考慮到人工智能廣泛運用后對未成年可能造成的影響而加強立法保護。
總之,當前人工智能對法律的挑戰主要集中在一下幾個方面:缺乏法律價值引導、法律主體地位和法律人格不明、缺乏具體規則標準、責任劃分等問題。而對于人工智能的立法問題,縱觀全球,都屬于世界新課題。在立法方面,國外已作出一定的嘗試,我們可以在參考域外經驗上,根據本國具體的發展情況作出適當調整。在人工智能法律和倫理研究方面,以UN和IEEE最為突出。2016年8月,UN下屬COMEST(科學知識和科技倫理世界委員會)發布《機器人倫理初步報告草案》,認為機器人不僅需要尊重人類社會的倫理規范,而且需要將特定倫理準則編寫進機器人中。[1]2016年5月,法律事務委員會發布《就機器人民事法律規則向歐盟委員會提出立法建議的報告草案》(Draft Report with Recommendation to the Commission on Civil Law Rules on Robotics,簡稱《報告草案》);同年10月,發布研究成果《歐盟機器人民事法律規則》(European Civil Law Rules in Robotics).在國內,雖然近幾年政府一直在大力推動人工智能的發展,鼓勵搶占科技的制高點,但重心仍停留在研發階段。而對于人工智能可能帶來的社會和經濟轉型,在監管和法律方面還缺乏系統認識和積極部署。換言之,政府還未意識到應該以何種方式參與到這場科技革命中。試想,如果沒有相應的法律法規與現行的人工智能發展想適應,勢必會影響人工智能的進一步發展。在人工智能出現這樣或那樣的弊端,并與社會發展相悖時,而沒有法律法規的引導和合理的規避,就會給社會發展帶來負面效應。
5.結語
我們如今生活在高科技時代,享受著人工智能為我們描繪出的美好愿景。但科技的發展是一把雙刃劍,人工智能在我們生活帶來便捷的同時,也同樣會顛覆很多傳統的行業。按照哲學的觀點,對于人工智能的發展我們應該從辯證法的角度來分析。出現了問題,不能一味的否定。用吳漢東教授的話來講,我們相信,人類既然有智慧創造出人工智能,也就有能力和職責來控制人工智能。因此,最好是期待是人類的聰明才智,而非低估它。最好是承認風險的存在,而非否認它。我們應當思考的不是消滅客觀危險,而是在這些潛在的威脅和挑戰面前,增強風險認為你是能力,提高制度風險意識,通過法律和其他社會規范來規避風險,引導和規范人工智能技術健康發展,這即是法學家、法律家的任務。
參考文獻
[1] 劉憲權.涉人工智能犯罪中的歸因與歸責標準探析[J/OL].東方法學:1-13[2020-04-29].https://doi.org/10.19404/j.cnki.dffx.20200429.005.
[2] 劉夢杰.人工智能的發展進程及現狀[J].科技創新與應用,2020(12):55-56+59.
[3] 陳勁.高度智能化的市場還有戲劇性嗎?[J/OL].人民論壇·學術前沿:1-9[2020-04-29].https://doi.org/10.16619/j.cnki.rmltxsqy.2020.30.006.