楊博文?伊彤?江光華
摘? 要:人工智能、基因重組、干細胞移植等新興技術逐漸被應用到經濟社會的發展中。然而,新技術如同“雙刃劍”,可能引發道德倫理等問題,因此需要加強對新興技術倫理治理的研究。文章聚焦人工智能,分析新興技術發展可能帶來的倫理挑戰及倫理治理存在的問題,結合當前國內外人工智能倫理治理實踐,提出中國人工智能倫理治理的對策建議,以期促進人工智能在發展中規范、在規范中發展。
關鍵詞:人工智能;倫理挑戰;倫理治理
中圖分類號:B82-057;TP18文獻標識碼:A
Abstract:Artificial intelligence,gene recombination,stem cell transplantation and other emerging technologies are gradually applied to the development of economy and society.However,new technologies are like“double-edged sword”,which may lead to moral and ethical problems.Therefore,it is necessary to strengthen the research on ethical governance of emerging technologies.Taking artificial intelligence as an example,this paper focuses on artificial intelligence, analyzing the ethical challenges and problems that may be brought by the development of emerging technologies, and puts forward suggestions for ethical governance of artificial intelligence in China based on the current practice of ethical governance of artificial intelligence at home and abroad, so as to promote the standardization and development of artificial intelligence in the process of development.
Key words:Artificial intelligence;Ethical challenges; Ethical governance
現代科技發展具備的不確定性、高風險性等特點決定了科技倫理問題的產生具有必然性。如果把科學技術視為一輛正在行駛的列車,科技倫理就是指引列車前行,用以保證科技研發與應用的方向正確的路標。對新興技術倫理的研究,一方面要對新技術的發展應用予以規范,另一方面又要保護和促進“負責任的研究”。筆者以人工智能技術的發展為例,研究新興技術倫理治理的對策。
一、人工智能發展帶來的倫理挑戰
人工智能是引領新一輪科技革命和產業變革的戰略性技術,不僅能替代人類的體力勞動,更幾乎可以完全替代人類的腦力勞動[1]。人工智能更像是智慧載體,它可以通過深度學習不斷進化,它的顛覆性、復雜性以及社會關聯性等特性所引發的倫理挑戰和風險日趨凸顯,如何應對人工智能等新技術引發的倫理挑戰已經是相關研究人員所要面對的重要課題。
(一)存在性風險對人類主體地位的挑戰
隨著信息技術、生物技術的發展,人機互動、人機協同甚至人機一體都成為人工智能發展的趨勢。盡管現階段對人工智能技術的開發、測試、應用等都還在一個基本可控的倫理框架內,但隨著人工智技術的能進一步發展,當具備無自主意識的人工智能做出超出科研人員預期的行為并產生相應的倫理影響時,現有的倫理框架及人類的思維本質將因此面臨極大的挑戰。如果技術的發展推動智能機器人越來越像人類,這將會對目前社會的人際關系、家庭結構產生重大影響,甚至顛覆人類在人類活動中的主體地位。機器人是否應享有人類的基本權利?是否應建立新的人機關系甚至人際關系的價值原則?人類的唯一主體地位或將因此受到挑戰[2]。隨著人工智能的強智能化發展,人類有可能逐漸難以參與智能生產的過程,甚至最終成為智能機器的零件,人與機器的關系可能發生扭轉,人工智能由此引發對人類傳統倫理道德判斷的顛覆,人類將第一次真正面對存在性風險。
(二)數據泄露和信息泛濫帶來的挑戰
人工智能技術的基礎是基于海量數據的算法設計和深度學習,而數據的采集和使用若管理不到位會導致數據安全問題。當前互聯網應用軟件采集的個人信息維度多樣,社交通信、移動支付、網絡購物、衛星導航、智能手環等智能工具采集了用戶多方面的數據,將一個人的喜好、行蹤、受教育程度、職業、財富、健康等多種信息整合歸納,多維度的數據軌跡足以為個人畫像。這些信息如果被非法利用就會構成對他人隱私權的侵犯。2019年8月,一款名為“ZAO”的AI換臉社交軟件在年輕人中流行開來,用戶只需提供一張正面照就能將其他視頻中人物的臉換為自己的臉。但該軟件的用戶隱私協議沒有對用戶闡明數據泄露的風險,甚至認為該軟件對使用者的肖像權具有“全球范圍內免費、不可撤、永久可轉授權”,而如果侵權了明星肖像,最后責任都在用戶。此外,當前的監控設備也因其便捷性被廣泛使用,商場、醫院、學校甚至快遞收取點都有監控系統。這些設施在便利工作生活、輔助安全保障的同時,收集并存儲的信息并沒有被合理監管,導致公民的個人隱私也存在隱患。
(三)權利與責任認定問題帶來的挑戰
人類對人工智能的擔憂之一,就是它的高度智能化系統如果被不正當利用或者失控可能會對人類社會產生威脅,隨之而來的必定是技術研究與應用引發的責任歸屬問題。目前已經有一些醫院采用算法讀取患者影像,凡是機器判斷為陽性的片子,醫生再通過人工診斷進行復核,診斷出來是陰性的,醫生不再檢查。一旦因算法出錯導致誤診,特別是出現假陰性誤診,誰應該簽字承擔責任?再如,隨著谷歌、特斯拉和Uber等智能無人駕駛致人死亡事件的相繼發生,關于機器和人誰應當對此負責的倫理爭論愈演愈烈。麻省理工學院進行的“道德機器”測試曾提出無人駕駛的倫理困境:通過模擬行駛中不常見的一些情景,大量采集公眾選擇的數據樣本,“訓練”一輛無人駕駛汽車的人工智能系統對這些情景作出判斷。這些判斷是基于公眾的意見,簡單來看是由公眾對這些情景進行了判斷,這些判斷沒有正確答案,但形成了無人駕駛汽車行動的依據,而由此產生的責任劃分則難以明確。因此,如果事先沒有適當的權責劃分,容易導致人工智能產品脫離社會倫理、法律規范,其可能擾亂經濟社會秩序,造成更大危害。
(四)人工智能的崗位替代帶來的挑戰
人工智能以其智能化、高效化,成為提高社會工作效率、提升經濟效益的重要方式,實現對產業結構和社會分工模式的重構,有可能造成大量人員的結構性失業,從而影響社會公平。當前,許多領域的工作崗位已經逐漸嘗試應用人工智能技術。例如,制造大廠富士康在多個工廠和多條生產線已經實現了自動化,實現了24小時的無人工廠,僅在昆山工廠就減員6萬人。麻省理工學院發布研究報告稱,過去20年,美國有36萬—67萬工作崗位被機器人奪走,未來10年,還將有350萬個崗位被人工智能替代[3]。雖然這并非人類開發者刻意為之,但是人工智能技術的應用對人類就業和財富分配觀念帶來的影響,對社會公平可能帶來的損害,都引發了潛在的倫理風險。
二、中國人工智能倫理治理的實踐探索
為促進人工智能的健康發展,中國一直以來都很重視對人工智能的倫理、法律、社會影響等問題的研究,積極研究制定相關政策法規,以全球化的視角推動人工智能治理。但隨著人工智能技術的快速應用與發展,與之匹配的倫理治理體系還未建立,相關政策還需不斷完善,科研人員的倫理自覺還有待提升,社會影響的應對方式還需探索。
(一)主要進展
1.建立人工智能治理委員會
為推進人工智能發展,保持中國在人工智能等新技術革命中的后發優勢,從2015年開始,國家通過頂層設計,有力地保障了人工智能的快速發展。2019年,中國成立了由科學技術部、國家發展和改革委員會、工業和信息化部、中國科學院、中國工程院、中國共產黨中央軍事委員會科學技術委員會、中國科學技術協會等15個部門構成的新一代人工智能發展規劃推進辦公室,隨后成立了國家新一代人工智能治理專業委員會,加強了對人工智能領域科技倫理的監督。
2.發布相關治理原則和規范
《國務院關于印發新一代人工智能發展規劃的通知》中提出,要形成我國人工智能法律法規、倫理規范和政策體系。國家標準化管理委員會發布《人工智能標準化白皮書(2018版)》,從國家層面明確了中國人工智能為人類服務原則和責任原則[4]。2019年6月,新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》。由于人工智能技術正處于快速發展期,過早地從法制角度進行強制性約束可能會影響技術的發展和應用[5],因此這些政策僅是原則性意見或通知,尚無具體管理制度。中國人工智能學會倫理道德專業委員會正在計劃針對不同行業的人工智能設立和制定種種倫理規范,如智能駕駛規范、數據倫理規范、智慧醫療倫理規范、智能制造規范、助老機器人規范等[6]。
針對一些具體技術應用領域,國家也出臺了相關管理規范。2019年11月底,國家互聯網信息辦公室、文化和旅游部、國家廣播電視總局聯合印發了《網絡音視頻信息服務管理規定》,明確提出“利用基于深度學習、虛擬現實等的虛假圖像、音視頻生成技術制作、發布、傳播謠言的,應當及時采取相應的辟謠措施,并將相關信息報網信、文化和旅游、廣播電視等部門備案”等規定,加強對數據隱私的管理。2018年4月,工業和信息化部、公安部和交通運輸部等三部門發布了《智能網聯汽車道路測試管理規范(試行)》,對測試主體、測試駕駛人、交通違法和事故處理等內容進行了明確規定,各省、市級政府相關主管部門可以組織開展智能網聯汽車道路測試工作。
3.推動人工智能科研界建立共識
2019年5月25日,北京智源人工智能研究院正式成立了人工智能倫理與安全研究中心。北京智源人工智能研究院與北京大學、清華大學、中國科學院自動化研究所、中國科學院計算技術研究所等單位共同發布了《人工智能北京共識》。該文件提出,在人工智能的研發、使用、治理等方面應遵循有益于人類命運共同體構建和社會發展的15條原則。2020年9月14日,北京智源人工智能研究院發布了中國首個針對兒童的人工智能發展原則《面向兒童的人工智能北京共識》,作為《人工智能北京共識》針對兒童群體的實施細則,提出包括“以兒童為中心”“保護兒童權利”“承擔責任”“多方治理”4大主題的19條細化原則。
(二)存在的問題
1.人工智能倫理治理體系亟待建立
在人工智能領域,技術飛速發展,但與其相匹配的管理、運行、保障、監督機制仍顯滯后和發展緩慢,政府對人工智能倫理監管的頂層設計尚處于起步階段。與人工智能類似的大數據領域已基本完成制度建設,在全國形成了協同共治的大數據管理機制,各省、自治區、直轄市都設置了由中央統一領導的大數據政務服務管理局。而在人工智能領域,目前國家新一代人工智能治理專業委員會正逐步探索構建治理體系,政府對于技術倫理的治理仍處于探索階段,治理組織體系、監管機制、治理方案等都還不夠成熟。
2.相關政策法規不健全
人工智能相關技術發展及迭代迅速,政府難以明確監管對象和監管范圍。且由于技術應用分布廣泛,技術發展、產業發展、社會發展等各類政策都可能涉及倫理問題。目前,相應的法律、道德規范尚未出臺,這導致倫理道德風險防范在人工智能一環的體制缺失[7]。現有涉及人工智能的政策法規主要以原則性共識為主,隨著新技術的應用,中國政府逐步在無人駕駛、數據隱私等方面制定了相應規定以指導相關技術發展,但關于人工智能領域倫理治理的系統性政策法規體系尚未建立。
3.科研人員的科技倫理自覺有待提升
近年曝出的科技倫理熱點事件反映出中國存在科研人員在科研工作中不太重視科技倫理,對倫理知識掌握不足,缺少對新技術開發應用可能產生倫理問題的實質性探討,不能自覺用倫理道德規范科研工作等問題。據中國科學技術協會2018年發布的一項有關科技工作者科技倫理的調查報告顯示,自認為對科研誠信之外的科技倫理規范了解較多的科技工作者僅占總體的5%。以人工智能技術的發展為例,如果缺乏對技術倫理的重視,缺少有效措施的推進,不能讓倫理成為保障人工智能有序發展的規則,則有可能引發人工智能廣泛應用帶來的負面效應,發生嚴重的社會倫理事件。
4.缺乏有效的社會公眾溝通機制
隨著新技術的研發開始觸及人類自身能力的改變,并且影響人類的社會生活,公眾的社會倫理意識正在覺醒。公眾出于樸素的社會倫理道德觀念會對新興技術產生懷疑和恐懼,甚至反對新技術的應用。2020年9月,在加拿大安大略省北部的人行橫道上,波士頓動力公司生產的機器狗在半夜肆無忌憚地亂跑,路人紛紛拍下視頻上傳到Twitter之后,眾多網友表示很擔心這種機器人會被用作不良用途。任何一項科學技術研究都不能獨立于社會監督。2020年6月,IBM出于對種族歧視、隱私安全等敏感社會倫理問題的考慮,宣布放棄人臉識別相關技術與產品,同時IBM也提出應開展全國性對話,討論美國執法部門是否應該和如何部署人臉識別技術。
三、人工智能倫理治理的國際經驗
人工智能正在深刻改變人類社會生活、改變世界,世界各國都非常重視對相關技術的倫理研究,探索科技倫理治理方式。歐洲各國重視科技倫理對技術開發應用的規范,積極發布相關倫理道德準則;美國主要以企業自律自治為主,政府為相關研究機構提供了較為寬松的環境。
(一)推動形成全球化的人工智能倫理準則
人工智能可能帶來的倫理挑戰是全球性的,是各國共同面臨的問題,世界各國都需要負起責任。2019年5月,OECD成員國批準了人工智能原則即《負責任地管理可信賴的AI的原則》,提出了包容性增長、可持續發展和福祉、以人為本的價值和公平等倫理原則[8]。在此基礎上,2019年6月,G20通過了聯合聲明以及《G20人工智能原則》,這是第一個由各國政府簽署的人工智能原則,各國政府由此形成了基本共識,即研發或使用人工智能“應該尊重法律、人權和民主價值觀”。
(二)制定法律法規引導和規范技術發展
各國通過研究制定與人工智能治理相關的法律法規,逐步對技術倫理進行規范引導。例如,2016年美國在《為人工智能的未來做好準備》中提出對人工智能技術的監管原則和監管重點等內容,強調推動技術創新、保持國家核心競爭力是發展重點。英國一直重視科技倫理治理,在《人工智能:未來決策制定的機遇與影響》中,強調人工智能發展的法律和倫理風險,政府強調公民權利的保護,堅持在技術無害的前提下開發和應用,并制定了企業問責機制[9];2018年,發布《數字憲章》,提出要尊重并妥善使用個人數據,特別要保護兒童的線上安全、線下權利。歐盟2019年發布的《人工智能道德準則》指出應發展“可信賴AI”,提出了人類監督、隱私和數據管理等具體政策,可操作性較強。日本AI學會的倫理委員會在2016年發布人工智能研究人員應該遵守的倫理指標草案,引導和規范科研人員正確處理人工智能進一步發展導致的倫理道德、安全問題[10]。
(三)通過建立共識機制,加強科研界自律
美國在研究制定人工智能相關法案的同時,主要通過科研界自身的共識機制來加強對人工智能科技倫理的監管。美國智庫未來生命研究院在2017年召開的人工智能專題會議上提出了“阿西洛馬人工智能原則”,呼吁全世界發展人工智能時要確保AI有益于人類社會的安全發展。電氣電子工程師協會(IEEE)2017年發布的《人工智能設計的倫理準則(第二版)》,對價值嵌入、研究和設計等倫理事項提出了具體的建議,如提出當前技術發展還不足以賦予人工智能法律地位。這些原則的提出是人工智能領域科研人員達成的共識,通過加強技術倫理的規范為后續標準制定等工作提供參考。
(四)實行企業自我約束的治理方式
美國人工智能技術全球領先,但是對人工智能相關的倫理治理謹慎立法和監管,主要通過企業自我約束,探索對人工智能倫理挑戰的監管。IBM、微軟、谷歌、亞馬遜等高科技公司發出倡議,提出確保“負責任地使用AI”。這些具有代表性的大公司還發起成立各類組織,研究人工智能發展應用的治理手段。例如,由亞馬遜、微軟、臉書、谷歌DeepMind以及IBM聯合成立非營利組織人工智能合作組織(The Partnership on AI,簡稱PAI),推進公眾對人工智能技術的理解;領英聯合創始人Reid Hoffman與Omidyar Network 聯合成立人工智能倫理與治理基金,研究人工智能治理方法[10];谷歌公司成立“全球技術顧問委員會”,請外部專家監督公司在應用人工智能等新技術時遵循倫理準則的依從性。
四、對策建議
中國在人工智能領域已進入領跑者行列,要發展負責任的人工智能,中國政府應發揮更多的引導作用,在多個方面形成人工智能倫理治理機制,必須系統構建人工智能倫理治理體系。加強對人工智能社會影響、倫理問題等的研究,促進多主體協同互動,參與全球合作的人工智能倫理治理。