摘 要:人工智能作為一門研究、開發智能理論、技術、方法與應用的新興科學。隨著人工智能應用規模、范圍的不斷拓展,人工智能在社會應用中法律問題愈發明顯,如個體數據隱私保護、侵權責任承擔等成為人們關注與研究的重點。基于此,本文聯系實際就人工智能在社會應用中存在的法律問題進行了分析,以期基于問題分析,探尋問題改善策略,促進人工智能的推廣應用,為社會現代化建設與智能化發展奠定良好基礎。
關鍵詞:人工智能;社會應用;法律問題
一、引言
“人工智能”這一概念最早提出于1956年的美國,并隨著計算機技術、互聯網技術、生物科學技術等的創新與應用得到進一步與發展,成為新時期社會信息化建設所關注的重點內容之一。據McKinsey Global Banking Report(麥肯錫全球銀行業報告)顯示,人工智能已經成為新時期智能互聯網時代發展的核心技術,并在社會醫療、電子通信、金融支付、社會交通等眾多領域中得到廣泛應用,截至2016年關于人工智能應用上的投資,則超過了260億美元,預計2025年將超過1270億美元。而隨著人工智能的應用與發展,由人工智能所引發的法律倫理問題日漸凸顯,成為人工智能推廣應用所關注的重點。基于此,有必要加強人工智能在社會應用中法律問題的研究。
二、法律問題之“個體數據隱私保護”
在網絡智能化發展時代背景下,人工智能在社會中的應用多側重于數據的采集、處理、分析與挖掘,便于企業利用數據信息進行決策、經營與管理。而在開放性的網絡環境下,如何保護個人數據隱私,避免個人隱私泄露問題的產生成為人們關注的重點,也是人工智能應用所需面對的重要法律問題。例如,在生物醫學領域,人工智能應用所涉及的個人信息相對較多,包括姓名、姓名、年齡、聯系方式、家庭住址等基本信息以及身體情況、過往病史、病癥診斷情況等特殊信息,而這些信息的泄露所帶來的影響無疑是巨大的[1]。目前,我國《民法總則》《網絡安全法》雖然針對個人信息保護、網絡運營者信息管理責任進行了明確,但是人工智能在社會中的應用,其個人數據的獲取與管理有別于網絡運營者,且數據與個體的界限相對模糊,在個人數據處理、數據泄露懲罰中缺乏規范性保護條例,有待進一步完善。
三、法律問題之“侵權責任劃分”
由1978年“機械人殺人事件”、2016年“無人駕駛車禍事件”可知,隨著人工智能應用的規模化、多元化發展,侵權責任劃分問題將成為人工智能在社會應用中所需面對主要問題。就無人駕駛車禍事故而言,由誰來承當事故責任,是無人駕駛系統開發商?汽車制造者?還是使用者?是一個值得思考的問題。目前,由《產品質量法》有關規定可知,因產品缺陷而出現損害事實,則產品生產者或銷售者應付主要責任,向被侵權者提供賠償,但被侵權者需提供有力的產品缺陷證明,以及產品缺陷與損害事實之間所具有的因果關系。但是,由于人工智能存在一定的復雜性,應用傳統法律制度獲取損失事實賠償的困難性較大,需制定完善技術標準與生產、使用規范,作為法律依據,進行侵權責任的科學劃分。
四、法律問題之“倫理問題”
人工智能的應用雖然有效降低了勞動者勞動壓力,提升生產質量與效率。但是不可避免的降低了勞動力利用率,出現勞動力失業率上升的倫理問題。與此同時,人工智能在醫療衛生領域中的應用,也存在一定的醫學倫理問題。由《科學技術進步法》《藥品臨床實驗管理規范》等相關法律法規可知:“禁止尾號國家安全、損害社會公共利益、違法倫理道德科學技術研究活動的組織開展”;“藥品臨床試驗需遵循道德原則,以人為對象的研究需符合人體神武醫學研究有關規定與沿著,避免對受試者在成傷害”這在一定程度上對人工智能的推廣與應用提出了更高的要求,使其在應用中需注重傳統法律基本原則與規定的遵守[2]。與此同時,也需注重由自身特殊性引發的倫理問題,如應用人工智能進行人體基因數據讀取,進行的人體試驗、生化武器研究。對此,需制定健全、科學的人工智能倫理準則,對其研發與使用行為給予明確的倫理界限。
五、法律問題之“法律主體資格”
人工智能以其可連續重復作業、自動化管控等優勢,在快遞分揀、工業零件加等傳統行業中得到廣泛應用,并成為工作崗位的“主體”。隨著人工智能技術的不斷創新,人工智能在工作中的獨立性研發明顯。基于此,人工智能是否具備主體資格、擁有主體所具有的法律權利成為人們思考的重點。《就機器人民事法律規則向歐盟委員會提出立法建議的報告草案》的提出,賦予了“機器人”特殊與的義務與權力,這在一定程度對傳統法律帶來巨大的影響。而以傳統法律理念進行主體資格分析,人工智能的“法律主體資格”需在長期發展中隨著技術與道德倫理的改變來確定。
六、結論與建議
總而言之,人工智能是構建智能型社會,推動各領域各行業現代化建設與發展的重要手段。人工智能的應用存在一定的必要性與重要性。而針對人工智能在社會應用中存在的法律問題,如個人數據隱私保護問題、侵權責任劃分問題、勞動者失業問題等,應堅持慎審慎管理原則,構建科學完善的技術標準與法律規制,進行人工智能應用行為的監督與管控;并從立法與管理等層面出發,加強個人隱私信息保護,明確侵權責任主體職責;通過完善應急預案,建立預警機制進行風險預防與突發事件處理,以提升人工智能應用安全性、穩定性,推動人工智能與文明建設的有機結合。
參考文獻:
[1]倪楠.人工智能發展過程中的法律規制問題研究[J].人文雜志,2018(04):122-128.
[2]左衛民.關于法律人工智能在中國運用前景的若干思考[J].清華法學,2018,12(02):108-124.
作者簡介:
劉健東(1996.09~ ),男,黑龍江黑河人,蒙古族,大學本科在讀,研究方向:法律研究。