劉健東
(100000 中央民族大學法學院 北京)
“人工智能”這一概念最早提出于1956年的美國,并隨著計算機技術、互聯(lián)網技術、生物科學技術等的創(chuàng)新與應用得到進一步與發(fā)展,成為新時期社會信息化建設所關注的重點內容之一。據(jù)McKinsey Global Banking Report(麥肯錫全球銀行業(yè)報告)顯示,人工智能已經成為新時期智能互聯(lián)網時代發(fā)展的核心技術,并在社會醫(yī)療、電子通信、金融支付、社會交通等眾多領域中得到廣泛應用,截至2016年關于人工智能應用上的投資,則超過了260億美元,預計2025年將超過1270億美元。而隨著人工智能的應用與發(fā)展,由人工智能所引發(fā)的法律倫理問題日漸凸顯,成為人工智能推廣應用所關注的重點?;诖耍斜匾訌娙斯ぶ悄茉谏鐣弥蟹蓡栴}的研究。
在網絡智能化發(fā)展時代背景下,人工智能在社會中的應用多側重于數(shù)據(jù)的采集、處理、分析與挖掘,便于企業(yè)利用數(shù)據(jù)信息進行決策、經營與管理。而在開放性的網絡環(huán)境下,如何保護個人數(shù)據(jù)隱私,避免個人隱私泄露問題的產生成為人們關注的重點,也是人工智能應用所需面對的重要法律問題。例如,在生物醫(yī)學領域,人工智能應用所涉及的個人信息相對較多,包括姓名、姓名、年齡、聯(lián)系方式、家庭住址等基本信息以及身體情況、過往病史、病癥診斷情況等特殊信息,而這些信息的泄露所帶來的影響無疑是巨大的[1]。目前,我國《民法總則》《網絡安全法》雖然針對個人信息保護、網絡運營者信息管理責任進行了明確,但是人工智能在社會中的應用,其個人數(shù)據(jù)的獲取與管理有別于網絡運營者,且數(shù)據(jù)與個體的界限相對模糊,在個人數(shù)據(jù)處理、數(shù)據(jù)泄露懲罰中缺乏規(guī)范性保護條例,有待進一步完善。
由1978年“機械人殺人事件”、2016年“無人駕駛車禍事件”可知,隨著人工智能應用的規(guī)模化、多元化發(fā)展,侵權責任劃分問題將成為人工智能在社會應用中所需面對主要問題。就無人駕駛車禍事故而言,由誰來承當事故責任,是無人駕駛系統(tǒng)開發(fā)商?汽車制造者?還是使用者?是一個值得思考的問題。目前,由《產品質量法》有關規(guī)定可知,因產品缺陷而出現(xiàn)損害事實,則產品生產者或銷售者應付主要責任,向被侵權者提供賠償,但被侵權者需提供有力的產品缺陷證明,以及產品缺陷與損害事實之間所具有的因果關系。但是,由于人工智能存在一定的復雜性,應用傳統(tǒng)法律制度獲取損失事實賠償?shù)睦щy性較大,需制定完善技術標準與生產、使用規(guī)范,作為法律依據(jù),進行侵權責任的科學劃分。
人工智能的應用雖然有效降低了勞動者勞動壓力,提升生產質量與效率。但是不可避免的降低了勞動力利用率,出現(xiàn)勞動力失業(yè)率上升的倫理問題。與此同時,人工智能在醫(yī)療衛(wèi)生領域中的應用,也存在一定的醫(yī)學倫理問題。由《科學技術進步法》《藥品臨床實驗管理規(guī)范》等相關法律法規(guī)可知:“禁止尾號國家安全、損害社會公共利益、違法倫理道德科學技術研究活動的組織開展”;“藥品臨床試驗需遵循道德原則,以人為對象的研究需符合人體神武醫(yī)學研究有關規(guī)定與沿著,避免對受試者在成傷害”這在一定程度上對人工智能的推廣與應用提出了更高的要求,使其在應用中需注重傳統(tǒng)法律基本原則與規(guī)定的遵守[2]。與此同時,也需注重由自身特殊性引發(fā)的倫理問題,如應用人工智能進行人體基因數(shù)據(jù)讀取,進行的人體試驗、生化武器研究。對此,需制定健全、科學的人工智能倫理準則,對其研發(fā)與使用行為給予明確的倫理界限。
人工智能以其可連續(xù)重復作業(yè)、自動化管控等優(yōu)勢,在快遞分揀、工業(yè)零件加等傳統(tǒng)行業(yè)中得到廣泛應用,并成為工作崗位的“主體”。隨著人工智能技術的不斷創(chuàng)新,人工智能在工作中的獨立性研發(fā)明顯?;诖耍斯ぶ悄苁欠窬邆渲黧w資格、擁有主體所具有的法律權利成為人們思考的重點?!毒蜋C器人民事法律規(guī)則向歐盟委員會提出立法建議的報告草案》的提出,賦予了“機器人”特殊與的義務與權力,這在一定程度對傳統(tǒng)法律帶來巨大的影響。而以傳統(tǒng)法律理念進行主體資格分析,人工智能的“法律主體資格”需在長期發(fā)展中隨著技術與道德倫理的改變來確定。
總而言之,人工智能是構建智能型社會,推動各領域各行業(yè)現(xiàn)代化建設與發(fā)展的重要手段。人工智能的應用存在一定的必要性與重要性。而針對人工智能在社會應用中存在的法律問題,如個人數(shù)據(jù)隱私保護問題、侵權責任劃分問題、勞動者失業(yè)問題等,應堅持慎審慎管理原則,構建科學完善的技術標準與法律規(guī)制,進行人工智能應用行為的監(jiān)督與管控;并從立法與管理等層面出發(fā),加強個人隱私信息保護,明確侵權責任主體職責;通過完善應急預案,建立預警機制進行風險預防與突發(fā)事件處理,以提升人工智能應用安全性、穩(wěn)定性,推動人工智能與文明建設的有機結合。