程方正 彭飛榮
摘 要:人工智能的發展和進一步應用,已經成為不可逆的趨勢。人工智能帶來福利的同時,也帶來一定的風險。通過可信人工智能標準體系構建的方法,可降低人工智能所帶來的風險。可信人工智能要求人工智能系統具備可解釋性、無歧視性和數據安全性。域外可信人工智能標準體系建設主要存在倫理概念標準建設和技術標準建設兩種途徑,并已經有相關的可信人工智能標準體系建設總綱。我國可以參照域外的經驗,建設可信人工智能標準體系總綱,加強人工智能倫理標準體系建設和技術標準體系建設,確保人工智能系統的可信性。
關鍵詞:可信人工智能,標準體系建設,人工智能倫理
DOI編碼:10.3969/j.issn.1674-5698.2023.09.004
1 可信人工智能標準體系建設的必要性
人工智能的進一步發展,已經成為了不可逆的趨勢。近年來,歐洲、美國、日本等國家及地區持續加大投入關于人工智能基礎理論和應用的研究,以此保持在此領域的技術領先地位。我國政府也在2017年發布了《新一代人工智能發展規劃》,將人工智能正式列入國家發展戰略。根據中國互聯網協會所發布的《中國互聯網發展報告(2021)》顯示,我國的人工智能產業,市場規模已經達到3031億元。
人工智能的發展雖促進了社會生產力、經濟的發展,但也產生了新的問題。近年來,例如:特斯拉的自動駕駛事故、數據泄漏等事件的發生,社會各方開始重點關注人工智能系統的安全性問題。習近平總書記在2018年10月主持政治局第九次集體學習時就強調,“要加強人工智能發展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控”。隨后,我國在G20峰會上,首次提出可信人工智能概念,強調發展以人為本的可信人工智能,并得到國際社會的普遍認同[1]。
將可信人工智能的要求落實到具體的實踐中去,是目前人工智能產業發展亟需要解決的問題。2021年7月,中國信息通信研究院和京東探索研究院聯合制作了《可信人工智能白皮書》,分析并發掘如何實現可信人工智能的路徑。《白皮書》指出,“可信人工智能不僅僅是企業單方面的實踐和努力,需要多方協調參與,形成一個相互影響、相互支持、相互依賴的良性生態。這個生態主要包括標準體系、評估驗證、合作交流。”[2]誠如《白皮書》中所言,政策和法律只能規定原則,具體的落地措施還需要依靠標準來實現。我國目前雖然已經有關于可信人工智能的相關標準,如:2021年4月出臺的《信息安全技術人臉識別數據安全要求》和2021年9月25日出臺的《新一代人工智能倫理規范》,以及國家標準化管理委員會等五部門在2020年7月27日所印發的《國家新一代人工智能標準體系建設指南》。上述的文件都有回應有關可信人工智能建設的問題,但其內容多半為原則性概念,且內容較為宏觀,難以稱為一套完整的標準體系。本文將通過論述可信人工智能標準的基本要求,并參照域外經驗后,為我國可信人工智能標準體系的建設提供一些建議。
2 可信人工智能標準體系的基本要求
可信人工智能標準體系的設立目的為將可信人工智能倫理準則規范化、實踐化,因此,在構建可信人工智能標準之前,需了解可信人工智能的基本要求。目前,人工智能的倫理原則的內容并不存在統一的標準,但可解釋性、公平與偏見、安全和隱私和可問責性這4個方面為業界和學界較為公認的4個重要原則[3]。由于可問責性原則的實現,主要依賴于法律、行政法規等規范性文件,與標準內容并無過大的關聯,因此,本文將不做詳細的介紹。下文將從可解釋性、公平與偏見和安全與隱私這3個維度展開,進一步介紹人工智能的基本要求。
2.1 可解釋性
在過去的幾年,人工智能的不透明,也就是所謂的“算法黑箱”已經成為熱點問題。透明度為數據保護的一般原則,但人工智能由于其特性的限制,使得透明度的具體標準難以被制定。
人工智能存在技術壁壘、因果關系難以解釋和高度動態性的問題,使得外部觀察者對于系統本身造成認知約束。因此,有關人工智能透明度的問題,不應當側重于獲取有關人工智能系統盡可能詳細的信息,而是側重于人工智能系統的可解釋性,故應當引入可解釋概念,解決此類問題。有學者也曾提出過透明性(transparency)的概念,即要求產品方將人工智能的算法進行公開或者部分公開,以此解決“算法黑箱”的問題。但對于人工智能產品來說,采用可解釋性的要求明顯優于透明性。這是因為,就像對于人類有關行為的解釋,并不需要了解其體內的神經元信號如何流通一樣,對于人工智能有關行動的解釋,也不必去了解人工智能系統的比特流。
人工智能的可解釋性的概念與內涵,取決于不同領域和不同利益相關者,目前主要基于3個角度,即方法層面、用戶需求角度和應用研究方面。方法層面主要側重于算法模型的解釋。用戶需求層面,則期望A I決策能夠透明化,熟悉其決策規則。AI決策在應用層面研究較為廣泛,也較為深遠,例如:智能醫療、無人駕駛甚至智能司法。因此,根據人工智能可解釋性的要求,產品方應當提高有關算法的功能和缺陷的解釋、AI決策化的流程圖和決策規則以及所銷售人工智能產品的潛在風險(與普通同種類產品有所不同的風險)。
2.2 無歧視性
無歧視的社會是我們向往追求的,歧視往往來源于主觀偏見,并依據主觀偏見做出了帶有歧視性的決策。機器依據純粹的事實和設定的規則做出決策,因此,機器所作出的決策應當避免歧視性結果的發生。然而,事實并非如此,大量的證據證明,人工智能系統所作出的決策,仍可能具有歧視性。
人工智能系統的歧視性來源,可以分為3類,分別為有缺陷的數據收集、有缺陷的數據聚合和規范的無響應[4]。缺陷的數據收集是導致人工智能系統生成歧視性結果的一種常見原因,即數據輸入偏差導致數據輸出偏差。輸入偏差的原因通常是因為數據的代表性不足。有缺陷的數據聚合是指原始的訓練數據不存在偏差,但在之后的數據處理過程之中發生了偏差。此類問題的產生原因主要為數據標準前后不一致,從而影響后續人工智能的決策行為。
相較于有缺陷的數據收集、有缺陷的數據聚合,規范的無響應性的問題較為復雜且更加難以解決。規范無響應性是指,即使通過相應的規范構建防止此類歧視行為的發生,依舊可能發生歧視性的決策。人工智能的決策行為基于以往的統計數據所產生,也就是說,人工智能只能通過對過去事實的觀察,以此預測未來的發生,但規范往往是“反事實”行為,目的在于調整現狀,這二者間相互獨立,因此在某些情況下可能會發生沖突。例如:根據數據統計表明,女性的平均壽命要高于男性,因此,保險公司有理由基于此數據,區別設置男性和女性的保險費。但這涉及性別歧視,違反公序良俗原則,因此需設立相關規定,禁止將性別作為決策的參考因素。然而,這時就可能發生規范的無響應性,即使設立相關規定,禁止保險公司將性別作為決策的參考因素,其性別歧視的行為依舊存在。這是因為人工智能系統即使不將性別作為決策的參考因素,但也可以通過其他數據的測量和評算,預測出具體客戶的“性別”,并以此做出決策,從而使得“性別平等”的規范在實踐中無效化。
人工智能的歧視治理并不能采用單一化的方式,應當通過多個層面進行治理,例如:通過“檢查訓練數據的公平性、檢查模型輸出的公平性和填寫數據卡和模型卡”[5]的方式,并制定出相應的技術標準,提前預防歧視性行為的發生。
2.3 數據安全性
C h a t G P T的概念剛產生不久,有關的人工智能的數據安全和網絡安全問題就已經浮出水面,根據Fortinet北亞區首席技術顧問譚杰表示,ChatGPT等AI技術對網絡和數據安全的威脅已經發生[6]。
目前,人工智能數據安全風險主要來自于數據投毒、數據深度偽造、數據過度采集、數據濫用分析等方面[7]。隨著人工智能在各個領域的發展,數據資源得到更廣泛的使用,但數據風險安全問題也愈發突出。數據安全問題不僅涉及到用戶的隱私權益,也涉及到行業的運行規制,甚至關乎國家的安全問題。我國關于數據安全問題已經出臺了一系列法律法規,例如:《個人信息保護法》《數據安全法》,但人工智能技術具有一定的特殊性,需要制定特別的規范,以此確保其數據安全性。
數據安全的問題應當從兩種路徑進行解決,第一種為制定相關的技術標準,從技術層面化解數據安全風險;第二種為制定相應的規范性文件,落實相關人員的責任,合理彌補受害者的損失。前一種規范為事前規范,可以最大程度減少數據安全風險,使得社會資源得到最大的利用。后一種規范為事后規范,事后規范并不能有效預防危險的發生,但由于在現實層面中,不可能從技術方面完全杜絕數據安全風險的發生。通過事后規范,可以從最大程度上填平損失,使得人工智能產業穩定、健康發展。
3 可信人工智能體系標準建設的域外情況
國外的人工智能技術和產業的發展起步較早,并在人工智能倫理和可行性方面已經有了較為豐富的研究,對于我國可信人工智能標準體系建設具有重要參考價值。
國際上有關人工智能標準建設的研究和發展,大致遵循兩種路徑,第一種路徑為側重建立人工智能倫理基礎原則(以下簡稱“倫理原則路徑”),例如:ISO/IEC JTC 1/SC 42/WG 3、IEC/SEG 10、IEEE-GIEAIS。另一種路徑則試圖通過對人工智能技術的規制(以下簡稱“技術路徑”),從而確保人工智能的可信性,此種路徑的標準代表有ISO/IEC JTC1/SC42/WG3、IEEE P7000TM[8]。
倫理原則路徑的標準體系建設,主要通過提出一系列的概念,并要求人工智能產品必須具備各個概念中的相應標準。例如:SC42/WG3提出問責制、責任性、可解性、魯棒性等一系列概念,總結出人權、勞動實踐、自然環境等一系列影響核心社會責任議題。側重于人工智能倫理基礎原則的標準體系建設,其功能在于,為可信人工智能標準體系建設的發展方向提供具體要求,使得人工智能的可信度可以被評價。
人工智能可信性標準的落地,需要依賴具體的技術得以實現,只依靠評價體系建設,并不能從根源上解決人工智能可信性的問題,因此,需要從技術角度設立相關的標準。然而,由于人工智能相關技術存在復雜性和多樣性的特點,國際標準化組織在該領域的技術類標準的研究,均處于研究階段,并未完全成型。但也產生一些成果,對于我國的相關領域的建設,具有參考價值,例如:上文所列的IEEE P7000TM。
建設倫理原則的路徑和建設技術標準的路徑并非相互矛盾,恰恰相反,二者互為手段和目的。因此,歐盟的相關委員會嘗試將兩種路徑進行統籌,構建出一套系統性的人工智能可信性指南。2018年12月,歐盟委員會的人工智能高級專家組發布了《可信人工智能倫理指南草案》,該指南提出一個可信人工智能框架,強調倫理規范性和技術性,并提出總計10項可信人工智能的要求和12項用于實現可信人工智能的技術和非技術性方法,同時設計出一套評估清單,便于企業和監管方進行對照。隨后,ISO(國際標準化組織)和IEC(國際電工委員會)在2020年出臺ISO/IEC TR 24028《可信人工智能標準概述》,其目的在于分析可能影響人工智能系統可信度的一些關鍵因素,以此協助標準界確定AI領域的具體標準化差距。上述指南的提出,標志著可信人工智能的標準建設已經進入到結構性、體系性階段。
4 我國可信人工智能標準體系建設的建議
我國已有大量關于人工智能技術的標準,但是缺乏關于人工智能可信性的相關標準。2020年國家標準化管理委員會、中央網信辦、國家發展改革委、科技部、工業和信息化部印發的《國家新一代人工智能標準體系建設指南》中第八項,提到了人工智能的安全/倫理標準,并在文中提出,需從8個方向進行標準體系的建設,但未提出具體的標準構建。現行的GB/T 41867-2022標準中,提出了有關人工智能倫理的相關概念,除此之外,并無任何與可信人工智能相關的標準。本文將結合人工智能的基本原則和部分域外標準規范,提出幾點關于構建可信人工智能標準的建議。
4.1 設立人工智能可信性指南,構建可信人工智能標準框架
人工智能進一步的發展可能受制于用戶群體對人工智能系統可靠性、有效性和公平性的質疑,若不能系統性解決社會層面對于人工智能的擔憂,則會削弱市場對于人工智能的投入,從而影響人工智能產業的長遠發展。
我國的可信人工智能標準體系,并不是將可信人工智能相關標準機械相加。標準體系是一定范圍內的標準按其內在聯系形成的科學有機整體,具有目的性、層次性。可信人工智能標準體系內的標準應當相互協調、相輔相成,絕不是孤立的、彼此之間毫無關聯的。人工智能可信性指南的設立,是將關于可信人工智能標準規范有機結合,構建可信人工智能標準體系框架的基礎條件。
本文認為,可以參考域外的經驗,即參照ISO/IEC TR 24028標準,設立符合我國國情的可信人工智能標準指南。指南的內容不宜設立得過于具體,但要將人工智能系統可能存在的風險和現存的評價體系,盡可能羅列出來,例如:ISO/IEC TR24028中第八節的內容,將人工智能可能存在的威脅性風險全部羅列出來,并在第九章中羅列出相關的解決途徑。
4.2 建設人工智能倫理原則標準,設立人工智能風險分類分級制度
目前,國際上許多關于人工智能倫理的研究活動側重于建立人工智能倫理基礎原則,形成非技術性指導文件。我國即將推行的GB/T 5271.31-20 06標準包含描述人工智能可信性的概念,但相比于國外的部分標準,例如:與SC42/WG3中所提出的概念相比,還是顯得有些不足。
我國也可以效仿IEC/SEG 10標準體系,建立人工智能系統評級和人工智能使用等級標準。在I EC/SEG 10標準體系中,通過透明性、魯棒性等特征,將人工智能系統進行分級分類,并從控制程度、糾正程度進行使用等級分類。人工智能目前仍處于發展階段,若實施較為嚴格的標準,不利于人工智能產業的發展。況且不同種類的人工智能系統,所帶來的風險程度和風險可能性都不相同。目前,我國并未有系統性、全面性和可操作性的人工智能系統分級分類標準,因此需加快此類標準建設進度。
4.3 加強可信人工智能技術標準建設,構建場景化人工智能技術標準
基于技術標準的建設路徑,是實現可信人工智能落地化的必然途徑。可信人工智能的實現,僅憑概念化的標準建設,例如:提出魯棒性、可解釋性的概念,是完全不夠的。人工智能系統應當屬于產品的一種,而產品的完全性、可信性,關鍵在于技術手段是否應用合理。只有通過對產品的技術手段進行規制,才能從源頭上保障產品的質量安全。而設立人工智能技術標準,就是一種較為科學的規制方式。
目前,人工智能產業發展迅速,不同領域內所應用的技術截然不同。若標準要約束和指導人工智能可信化的落地和實施,則必須進一步類型化、具體化和場景化。我國可信人工智能的技術標準目前集中于產品端,例如:智能工廠、智能制造,但缺少有關人工智能技術層面的規制,也缺少具體化和場景化的技術標準。2021年4月出臺的《信息安全技術人臉識別數據安全要求》雖然彌補了這一方面的缺失,但距離可信人工智能標準體系的總目標,仍有很大的差距。
4.4 著重關注算法治理,規制機器學習技術
可信人工智能的治理關鍵在于算法規制,可信人工智能標準體系的基本要求,即可解釋性、安全與隱私和公平與偏見都與人工智能系統的應用算法有關。人工智能系統的安全與隱私問題、公平與偏見問題,可能來源于系統訓練時采用的數據存在瑕疵,也可能來源于對數據初次篩選時具有偏見,但最主要也是最復雜的源頭,就是算法應用存在不合理之處。
機器學習是人工智能所采用的主要手段,我國尚未設立機器學習的相關技術標準。目前,ISO/IEC 23053-2022和ISO/IEC TS 4213-2022兩個標準中,已經著手機器學習的性能和相關技術評估,在此方面,我國可以借鑒上述兩項標準,構建符合我國國情的機器學習相關技術標準。
參考文獻
何積豐. 安全可信人工智能[J]. 信息安全與通信保密, 2019(10):5-8.
中國信息通信研究院&京東探索研究院.可信人工智能白皮書[R/OL],[2023.4.14],http://www.caict.ac.cn/kxyj/qwfb/bps/202107/P020210709319866413974.pdf .
孔祥維,王子明,王明征, 等. 人工智能使能系統的可信決策:進展與挑戰[J]. 管理工程學報, 2022,36(06):1-14.
托馬斯·威斯邁德,編. 人工智能與法律的對話[M].韓旭至,譯. 上海: 上海人民出版社, 2020:116.
朱悅. AI如何理解AI治理:一名研究者與ChatGPT的問答[EB/OL].[2023.4.14]. https://redian.news/wxnews/166774.
樊雪寒. ChatGPT威脅數據安全是杞人憂天嗎?企業聞風而動[N]. 第一財經日報, 2023-2-26.
林偉. 人工智能數據安全風險及應對[J]. 情報雜志,2022,41(10):105-111+88.
孫寧. 人工智能倫理與社會關注國際標準研究[J]. 信息技術與標準化, 2020(Z1):27-29+34.