魏光禧
(重慶警察學院 重慶國家安全與社會治理研究院,重慶 401331)
人工智能是模擬、延伸和擴展人類智能的理論、方法、技術。人工智能的發展跌宕起伏,先后經歷了三次浪潮。第一次浪潮是1956年到20世紀70年代初,人工智能從理論走向實用,人們看到了人工智能與具體應用相結合的巨大魅力,主要標志性成果是專家系統。第二次浪潮出現在20世紀80年代初到90年代初,其特點是對分門別類的大量知識的多種處理方法,標志是日本政府推出的“第五代機”項目。第三次浪潮出現在21世紀,其主要原因是深度學習技術的出現,解決了“梯度消失”“梯度爆炸”和自動提取并表征復雜的特征等問題。特別是在2016年3月,基于搜索技術和深度學習方法的人工智能圍棋系統AlphaGo戰勝了世界圍棋冠軍李世乭,人工智能引起了全世界的廣泛關注。
烏爾里希·貝克指出,科學技術不僅是解決問題的源泉,也是制造新的問題的原因,甚至科學技術的安全風險會以更高的比例增長[1]。近年來,此起彼伏的人工智能傷人事件也拷問著人們,這個技術是給人類帶來福祉,還是反過來破壞原有的生存和安全體系。人工智能對人類的安全帶來嚴峻挑戰,也使人與機器、人與人、人與自然之間的倫理關系變得更加復雜。這正如尼克·博斯特羅姆所言:人工智能不僅是一項顛覆性技術,也是人類目前遇到的最具破壞性的技術[2]。
人工智能作為一種新技術,既有安全賦能效應,也具有安全問題伴生效用。所謂安全賦能效應,就是提升安全領域的勢能:一方面是賦能攻擊,讓安全問題變得更加嚴峻;另一方面是賦能防御,通過新技術解決安全問題。所謂安全伴生效應,就是新技術的出現往往伴生著新的安全問題:一方面,新技術的脆弱性導致新技術系統自身出現安全問題,稱之為“內生安全”;另一方面,新技術的脆弱性被攻擊者利用從而引發其他領域的安全問題,稱之為“衍生安全”。根據引發安全問題的內因,可以將人工智能安全分為三類:人工智能助力安全(Artificial Intelligence for Security)、人工智能內生安全(Artificial Intelligence Security)和人工智能衍生安全(Artificial Intelligence Safety)[3]。人工智能助力安全主要是指利用人工智能技術突破其原有攻擊能力而引發的安全問題;人工智能內生安全是指人工智能的脆弱性導致的自身受損的安全問題;人工智能衍生安全是指人工智能的脆弱性導致的危害其它領域的安全問題。人工智能助力安全體現的是人工智能技術的賦能效應,而人工智能內生安全和人工智能衍生安全都是人工智能技術的伴生效應引起的。從賦能攻擊的角度看,違法犯罪分子可能利用人工智能提升原有的破壞力,帶來更多的安全隱患和災難。例如,可能實施自動挖掘漏洞、生成高仿假視頻、生成智能惡意代碼、在神經網絡模型植入后門、大面積投放釣魚郵件等行為。人工智能在框架和組件、算法、數據、模型等方面就存在一些脆弱性、不可靠的問題。例如,深度學習難以確保算法的正確性,無人駕駛汽車的很多安全事故就是不正確的算法所造成的。而數據的丟失、變形以及噪音數據,都可能影響人工智能生成正確的推理判斷。同樣,模型也難以保證不被盜竊或者污染。人工智能的一些脆弱性并不影響自身的安全,但是可能被違法犯罪分子利用,引發其他領域的安全問題。例如,無人駕駛汽車的智能化判斷高度依賴輸入數據,這種脆弱性并不影響汽車本身的運行,但違法犯罪分子可能利用這種脆弱性對傳感設備進行干擾,從而制造交通事故。讓科學家和倫理學家最為擔憂的是,人工智能具有自主學習和自我進化的能力,當發展到強人工智能時代時,人工智能行為體可能會脫離人類的控制,甚至可能會傷害人類,這也是人工智能衍生的安全問題。
作為人工智能安全風險的回應,倫理規制這一路徑引起廣泛關注。正如格倫瓦爾德所言:當科學技術的開發應用帶來規范標準的不確定性問題時,就有倫理反思的必要[4]。科學技術是人類認識和改造客觀物質世界的產物,因此從最開始其就內就嵌著人類倫理道德的基因。在持續不斷的倫理反思中,科技倫理與科技進步實現矛盾的統一,在防范和控制科技安全風險上發揮著道德的導向和約束作用。即使是那些主張科技與倫理無涉論的學者,也并不否認科技工作者的職業道德和科技應用中的道德性[5]。人工智能的倫理是人類倫理體系下的具象化的科技倫理,包括實現人與機器、人與人、人與自然和諧發展的,與人工智能活動相關的觀念、情感、意志、信念、原則、規范、范疇以及價值判斷標準[6]。人工智能不僅能代人勞動、代人思考和記憶,甚至能夠代人決策。在深度參與人類社會實踐活動時,會深刻影響人與機器、人與人、人與自然的倫理關系。特別是在人工智能的研發和應用中,用途和目的往往導致了規范標準的不確定性和道德爭議,還會產生不確定的倫理負效應,例如倫理關系失調、社會失序、機制失控、行為失范等。這就是弗洛里迪所描述的,人類希望人工智能提高人類的能力、幫助人類實現自我,讓人工智能代理自己,但同時也隱藏著侵蝕人類自決能力、失控、責任缺失、鴻溝加劇等風險[7]。人工智能倫理的表現形式取決于技術條件及其與人類社會的結合程度。因此,人工智能安全的倫理規制需要從人工智能技術和社會制度的具體環境中,去考察倫理規制與其他規制路徑的互動關系。本文將著眼于人工智能產業發展的現實和未來,聚焦人工智能安全的倫理議題,闡述人工智能安全倫理規制的主體、準則和機制,進而在元規制模式下探索人工智能安全倫理規制的優化路徑。
近代以來,科學技術的革命性突破引發了大量安全風險,促使人們以倫理為主題發展出一套自我規制的治理架構。法律的確認,使之前自愿性質的治理架構在一定程度上被強制化,這稱之為“倫理規制”[8]。對人工智能行為進行倫理規制,發揮道德的導向和約束作用,是防范和控制人工智能安全風險的重要手段。
無論是采用強力法還是訓練法,現有的人工智能技術都是在封閉性的應用場景實施的,因此與人工智能安全相關的規制主體是人類,而人工智能尚不具備道德地位,也不具有規制的主體地位。但與其它技術不同的是,人工智能具有高度的自主性,有自我學習、自我約束的能力。因此,將倫理價值和倫理準則嵌入到人工智能技術中,讓人工智能自主或者半自主地實現規制目標,也是人工智能安全倫理規制的重要途徑[9]。例如,在人工智能的設計中嵌入“切斷開關”,當存在危害人類的重大風險時由系統自動決策來關閉該系統,防止發生不可逆的嚴重后果。總之,只要將倫理規范具體化為封閉性條件的一部分,那么,在該場景中,人工智能就能夠自主地執行這些倫理規范。對于未來可能出現的非封閉性的場景,則不能依靠人工智能的自主性,必須堅持人類的介入。人,作為責任主體,永遠都不能放棄自己的規制責任。
具體到實踐中,人工智能安全倫理規制的主體主要是社會主體,包括行業協會、社會團體、研究機關、企業、科學家、公眾等。人工智能安全的倫理規制,更多是依靠行業和技術的力量。據初步統計,全球范圍內的企業、社會組織、國際組織、學術團體等利益相關者,已經制定了160多個原則或者倡議,構成了人工智能安全倫理規制的“軟法體系”[10]。建立行業、企業的人工智能安全倫理審查組織,制定行業、企業倫理規范,是保證人工智能產業健康發展的必要條件。倫理規范一般都是軟措施,缺少國家強制力的保障,需要各個主體的共同參與,形成倫理共識,并作為共同的行為規范。
早在1950年,阿西莫夫就在其科幻小說中提出了著名的“機器人學三大法則”,即機器人不得傷害人類、機器人必須服從人類的命令以及在不違背前兩條法則的情況下機器人必須保護自己。之后,各國以及有關組織都在積極發展人工智能技術的同時,不斷探索人工智能倫理建設。筆者對主要組織和國家制定的倫理準則進行了梳理(見表1)。

表1 主要國家及組織人工智能安全倫理準則

續表1
可以看到,各國及有關組織在人工智能安全倫理準則上的要求基本一致,已經初步達成了共識。有學者將主要國家及組織的人工智能安全倫理準則進行了對比研究,按照出現頻率排序分別是透明、公正、不傷害、責任、隱私、有益、自由與自主、信任、可持續、尊嚴[11]。總體來講,人工智能安全倫理準則主要包括三個方面:一是人類根本利益原則,即人工智能應以實現人類的福祉為終極追求。人工智能應促進人類向善,避免人工智能軍備競賽。在算法上要保障人的基本權利和自由,并加強對數據的控制。二是風險原則,即盡可能降低人工智能的安全風險。對人工智能始終保持審慎的原則,只有在封閉性應用場景中才能開展研發和應用。要體現人類的知情權和控制權,當人工智能系統給人類造成損害時,可追溯查實并及時補救的。三是責任原則,即人類要對人工智能負責任并且可以問責。人工智能的設計者、使用者和相關利益者都要對人工智能行為產生的損害負責,并有責任去消除這些負面影響。
規制機制就是要選擇合適的規制工具,并根據實施效果來不斷調整[12]。學界對人工智能倫理準則的討論較多,但對人工智能倫理規制機制的探索才剛剛起步[13]。倫理準則不可能自我實施,只有借助于規制工具才能得到落實。這如同法律條文一樣,如果缺乏實施的機制,制訂得再好也沒有任何意義。人工智能的應用非常廣泛,不同的場景,有不同的倫理準則和相應的規制機制。例如,無人駕駛汽車和醫療機器人的情況就各不相同。但總體來講,有這些規制工具可供選擇:一是嵌入設計。將倫理準則嵌入到人工智能算法中,實現技術層面的倫理規制。例如,哥倫比亞大學開發的DEEPXPLORE系統就具有“糾錯”的功能,當數據出現偏離有關倫理準則的情況時,嵌入神經網絡的誘導系統能夠夠讓這些缺陷暴露出來,并自動進行掃描和糾錯[14]。二是技術標準。將倫理準則融入技術標準,來規范人工智能的研究和開發。研發人員在適用這些技術標準時,自動遵守了倫理準則。例如,電氣和電子工程師協會就在P7000系列技術標準中體現了可解釋性等大量倫理準則。三是倫理審查。國家、組織和企業等各個層面設置人工智能安全的倫理審查委員會,在研發計劃、研發過程和產品上市等各個環節進行倫理審查,對不符合倫理準則的人工智能采取取消投入、禁止研發、不予批準上市等措施。四是第三方認證。由獨立的第三方進行人工智能的倫理認證,符合相關倫理準則的才能頒發許可證,不符合的則不能頒發。沒有獲得倫理認證的產品則難以進入有關市場領域,或者難以取得保險公司的投保。五是輿論約束。通過教育和社會輿論進行引導,宣揚人工智能安全道德規范,形成人工智能安全文化。吸納公眾參與,對違反人工智能安全倫理準則的行為進行監督。完善人工智能安全社會評價機制,使具有更高安全可靠性的人工智能產品獲得更多的認可和更高的聲譽。
如上所述,人工智能安全的倫理規制是一種自我規制,依賴行業協會、社會團體、研究機關、企業、科學家、公眾等社會主體對自身施加約束。在通常情況下,規制主體與被規制者為同一主體或者有緊密關系,而且倫理準則又缺乏強制執行力的保障,因此人工智能安全的倫理規制只是一種“軟約束”。隨著人工智能安全風險日益嚴峻,國家政府也開始釋放出強化規制的信號。但考慮到人工智能安全倫理問題的復雜性,以及人工智能技術創新的自由空間的需要,行政規制介入的程度和方式還需要深入分析探討。
1.從內源性邏輯看,倫理準則多為原則性、抽象性的規定,操作性不足。原則性、抽象性的規定不夠清晰明確,難以形成應對各種具體情形的規范體系。實踐中必須根據經驗和專業素養進行主觀判斷,容易陷入“各執一詞”的分歧。以《新一代人工智能倫理規范》為例,該倫理準則首先在第三條提出了“增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養”6條原則。之后,分別從管理規范、研發規范、供應規范和使用規范三個方面,提出了若干原則,缺乏明確的責任義務規定。其中,第十二條是“增強安全透明”的原則,規定“在算法設計、實現、應用等環節,提升透明性、可解釋性、可理解性、可靠性、可控性”,“逐步實現可驗證、可審核、可監督、可追溯、可預測、可信賴”。這些寬泛的概念都缺乏明確的定義,留給規制者的自由裁量空間過大。
2.從功能性邏輯看,倫理準則缺少強制力的保障,執行力不足。倫理準則大多是軟法,其執行主要依靠內部力量。而且在實踐中,有些行業組織、企業成立了倫理審查委員會,但審查的對象是同行或者同事,很難保證能夠中立且嚴格地執行審查程序。現實經驗也表明,倫理審查大概率都是順利通過,很多是做做樣子、走走形式。
3.從現實性邏輯看,倫理規制與經濟利益之間存在沖突。對人工智能的研發提出倫理的要求,往往意味著企業需要投入大量的財力和人力進行試驗或者尋找替代方案,這就必然導致經濟成本的增加。企業也會傾向于將倫理審查簡單化,盡可能地節約成本。而且,倫理規制也可能與科學研究之間產生沖突,減緩技術開發的進度,影響技術進入市場的時間。特別是人工智能是新興產業,不確定性很多,有些領域還存在叢林法則,嚴格進行自我規制的企業反而會因為成本的增加而在競爭中處于不利地位,出現“劣幣驅逐良幣”的情況,因而企業主動進行倫理規制的意愿有限。
如上所述,人工智能安全倫理規制的“軟約束”存在失靈的問題,行政規制的介入非常有必要。簡單來講,行政規制一般是指政府為了保護公共利益的需要,在市場失靈的情況下,而實施對市場行為的干預。行政規制有國家資源和強制力作為保障,規制的力度大、效率高[15]。政府多采用一些命令控制型規制工具,被規制者必須服從,能夠談判的空間很小。行政規制的后果包括消極的,例如刑事處罰、吊銷許可證、罰金、警告等;也包括積極的,例如政府補貼、政府獎勵等。無論是被處罰,還是相比競爭對手而言失去了獎勵的機會,都對被規制者有重大的影響。因此,行政規制的威懾很大,約束力很強。
但是,人工智能安全行政規制的“硬約束”也面臨失靈的問題。一方面,倫理規制針對未來可能發生的風險,而行政規制主要是基于既定的制度和社會實踐,政府的過度干預可能會遏制人工智能的發展。人工智能倫理是基于一定的價值觀念,但在多元化的社會,價值觀念很難統一。而且,隨著人工智能技術的發展,人與機器、人與人、人與自然之間的關系總在不斷演變。在此背景下,政府過度強化某一種倫理主張,反而會引起社會的分裂,也無法及時回應人工智能倫理的變遷,影響人工智能技術的創新。另一方面,人工智能具有技術鴻溝,政府獲取信息的成本過高。行政規制要求規制者獲取并理解人工智能安全的信息,這個需要消耗大量的成本。特別是有些人工智能算法具有不可解釋性,不具有很強技術背景的政府工作人員很難理解。因此,完全從外部監管人工智能安全存在信息成本過高的問題,影響了人工智能安全行政規制的效益。
如上所述,倫理規制的“軟約束”和行政規制的“硬約束”都存在失靈的問題。因此,不應該簡單地在自由和控制兩個極端中選擇,要么把自由裁量權完全交給社會主體任由其自我規制;要么剝奪社會主體的自由裁量權來實施威懾性的命令控制。而應該建立一種合作規制架構,使政府和社會主體能夠持續的交換資源、相互溝通,發揮規制空間的系統性作用。元規制模式為人工智能安全倫理規制的優化提供了進路。
元規制是指外部規制者根據公共規制目標,促使被規制者自身針對公共問題,作出內部的、自我規制性質的回應[16]。外部規制者是根據公共規制目標有意而為,包括對不采取自我規制的被規制者給予處罰,或者對采取自我規制的被規制者給予獎勵。因此,元規制也經常被稱之為“約束性自我規制”。元規制的特點是外部規制與內部規制的結合,被規制者自身可以構成規制自身活動的來源。一般來講,政府發現某一公共問題時,命令相關被規制者自己制定方案來解決問題,在被規制者作出回應后,政府對這個過程進行規制,也可以說元規制是對自我規制的再規制。在人工智能安全的倫理規制中,元規制可以發揮它的優勢,表現為:
1.將倫理規制納入法治化軌道。基于元規制,政府對社會主體的地位及其制定的倫理準則進行行政確認,而社會主體將自己定位為公共事務規制者角色,履行相應的行政法責任。這種行政確認將倫理規制納入法治化規定,賦予其公法的效力和權威。
2.確保倫理規制符合公共利益。在元規制模式下,政府承擔公共利益的擔保責任[17]。一方面,政府制定確保社會主體履行公共事務的法律制度,通過框架設定、引導、監督等擔保責任實現方式,保障人工智能安全倫理規制的質量和效果;另一方面,在社會主體的倫理規制失靈并危害公共利益時,由政府承擔接管責任。
3.成本最低。元規制模式給予人工智能行業組織、企業、科研人員等相當大的自由裁量空間,以便于回應人工智能技術和倫理觀念的變化,畢竟他們對市場和技術的發展最為敏感。這種對倫理規制的吸納的益處在于,社會主體掌握更多的信息,更有可能找到以最低的成本實現最有效規制的方案。而且,相對于硬性的強制性命令,社會主體更加有積極性遵守自己制定的倫理準則,進一步減少了對立沖突的成本。
基于元規制理論,人工智能安全倫理規制需要在合作規制框架下,合理分配行政規制和倫理規制的權力和責任。行政規制重點關注對人類發展和社會公眾人身安全有實質性影響的重大倫理議題,而一般的倫理問題則充分依賴自我規制。從國家層面進行合作規制的框架性立法,將倫理規制納入法治化軌道。行政規制介入的范圍、程度和方式都需要慎重考慮,如果干預過多,不僅擠占了自我規制的空間,而且執法成本也過高。社會主體可以有充分的自由裁量權,根據實際情況將規制程序和要求具體化。
在合作規制框架中,承擔人工智能安全倫理規制這個公共事務的主體,是分散的、多中心的任務實現結構,既包括政府,也包括社會主體,例如行業組織、企業、科研院所、公眾等。無論是政府,還是社會主體,只要承擔維護人工智能安全的公共任務,都具有公法主體地位和權力。社會主體的這一主體地位和權力,不是來自于行政組織法上的授權或者委托,而是基于元規制精神。政府應當尊重社會主體在人工智能安全倫理規制中的優先規制和平等主體地位,讓社會主體分享合作規制權力、承擔合作規制義務,并在此基礎上,重新定位政府的角色——不僅是人工智能安全倫理規制的合作者,還需扮演框架設計者、監督者、評估者等角色,承擔擔保責任。
1.政府對倫理規制活動的監管是合作規制的關鍵,它是外部規制與內部規制兩個系統之間建立耦合關系的聯結點。通過監管制度的設計,行政規制的目標被輸送到倫理規制系統中,與自我規制形成共振。它通過對自我規制的引導、監督,確保倫理規制能夠實現人工智能安全的公共利益。政府的監管活動具有“四兩撥千斤”的作用,既達到了規制目標,也節約了大量的行政成本。當然,政府必須履行最后的擔保責任,當自我規制存在徇私舞弊,或者出現規制漏洞時,必須走上前臺接管規制活動并修正自我規制行為,這也稱之為“后設規制”[18]。例如,在人工智能產業聯盟中,大企業往往掌握著倫理準則的制定權。因此,可能會忽視小企業的利益,甚至可能借助倫理準則來打壓競爭對手,這就需要政府的介入。后設規制既包括對自我規制的規制程序的監督,也包括對作為規制者的社會主體的監督,使其具有可問責性。雖然政府可以通過強制措施、行政處罰等命令控制型手段來維護人工智能安全的倫理底線,但也需要更多地利用激勵措施來引導倫理秩序和倫理文化。例如,可以給予建立了完善的倫理審查機構和倫理審查程序的企業更多的財政資金支持,在項目評審上予以政策性傾斜,這將極大激發企業進行倫理規制的主動性。政府還要幫助社會主體規制者完善自我規制程序,并為利益相關者設計抗辯、糾紛解決機制。總之,在人工智能安全的倫理規制中,社會主體必須意識到,在自己的規制不合法時,就會面臨行政規制的接管。
2.人工智能安全的倫理規制不僅要有合法性的監管,也要有合理性的考量,這就是對倫理規制效果的評估,目標是追求“更好的規制”。“更好的規制”涉及不同利益和社會性目標之間的權衡和取舍。對于人工智能安全倫理規制的評估,不同的視角,會有不同的評估基準。一般而言,主要包括:是否有清晰的安全目標,并能夠有效實現這個目標;是否有堅實的倫理基礎;考慮到人工智能產業的發展,所產生的的收益是否大于所付出的成本;盡量減少對人工智能科學研究的限制;通過市場激勵和基于安全的進路促進創新;是否透明公正;人工智能的用戶是否能夠理解這樣的倫理準則并充分表達意見。很清楚的一點就是,以成本最低、干預程度最低的方式實現所規定的安全目標。典型的倫理規制效果的評估程序包括評判倫理準則選擇的影響,擬定的規制方案的風險、收益和成本,以及被規制者如何實現合規、被規制者的意見等。倫理規制效果的評估不是“一次性”的靜態評價,而是要促進形成一種漸進式的規制進路,允許不同主體相互協商,并調整不同規制者的作用。這種反思性、動態性進路,使得能夠根據人工智能技術的發展和安全偏好的變化,對安全倫理準則進行不斷的修正和調適。
之前已經論證,人工智能安全的倫理準則作為軟法,其約束力有限。因此,應當在合作規制框架下,將倫理準則與法律法規相銜接,保持軟法與硬法的平衡和一致,實現軟硬并舉。可以通過立法技術推動軟法的硬法化,使倫理準則能夠產生硬法上的效力,打通倫理規制與行政規制之間的通道。我國法律一定程度上注意到了倫理規制的重要性,但難以直接適用。例如,我國《民法典》第1008條、第1009條規定了在有關醫學和科研活動中開展倫理規制的要求,《科學技術進步法》第29條規定“國家禁止違反倫理道德的科學技術研究開發活動”。可以看出,法律是宣示性地要求有關活動要遵守倫理準則,但是沒有明確要遵守哪些倫理準則以及違法這些倫理準則的不利后果。法律應該采用“轉介條款”“引致條款”等銜接法律規則與倫理準則的立法技術。通過“轉介條款”“引致條款”,指向具體的倫理準則,并從法律上賦予該倫理準則以法律效力,明確相關的權利義務和責任。進行個案的裁決時,先引用“轉介條款”“引致條款”,再按圖索驥找到具體的倫理準則來進行判斷。這樣既保障了倫理準則的法律效力,又保留了其靈活性。
我國目前人工智能安全的倫理規制還處于線形規制狀態,規制主體與被規制者是單一的、單向的線形關系,規制主體之間也是缺少合作和互相監督的平行線關系。根據元規制原則,應當形成所有主體共同參與的規制空間。在該規制空間中,政府、行業組織、企業、科研院所、公眾等不同主體各占據一個節點,共同織成一張人工智能安全倫理規制的網絡。每個節點根據其掌握的規制資源,分配相應的規制權力和責任。每個節點都有自身的利益訴求,但相互作用之下的共同目標是實現公共利益的最大化。因此,還應當設計相關的機制,使他們之間能夠互相監督。例如,可以要求充分的信息披露,說明倫理審查的程序、依據和結論,并接受同行互查和第三方獨立機構的復審。另外,還需要制定程序規定來規范規制行為,使政府和社會主體能夠持續的交換資源、相互溝通,發揮規制空間的系統性作用。