陶大程
人工智能并不是一個新的概念,從1950 年的圖靈之問開始,到今天產業的蓬勃發展。隨著人工智能廣泛的產業落地帶來的諸多問題,AI 面臨越來越多的可信挑戰,例如AI 系統的不確定性導致潛在的安全問題;可解釋性的缺乏限制了AI 更廣泛的應用與賦能;AI 系統如何在使用數據的同時保護用戶隱私等。構筑可信 AI 已成為全球共識,2016 年歐盟頒布了《通用數據保護條例(GDPR)》;2017 年 12 月,IEEE 提出了《人工智能的倫理設計準則》,之后澳洲、美國、新加坡等都提出了相關的政策、指南或白皮書。國內,何積豐院士于2017 年 11 月香山科學會議上首次提出了“可信人工智能”的概念。2017 年 12 月,工業和信息化部發布了《促進新一代人工智能產業發展三年行動計劃》。在此之后,中國的科技公司紛紛提出了可信人工智能發展規劃。2019 年10 月,京東集團就首次在烏鎮世界互聯網大會上提出京東踐行“可信賴AI”的六大維度;京東探索研究院在2021 年4 月已將“可信人工智能”正式列為主要研究方向之一,并于同年7 月聯合中國信通院完成撰寫、發布國內首本《可信人工智能白皮書》。
可信AI 的研究涉及方方面面,為實現可信AI,首要任務是找到合適的方法來定量分析、量化人工智能算法、模型、系統的穩定性、可解釋性、隱私保護能力及公平性。如果人工智能在以上四個方面的“可信”度量上都達到很高的共識水平,就有更好的機會做到明確責任、透明可信,并且推動人工智能在產業的進一步落地。
可信AI-穩定性:人工智能系統抵抗惡意攻擊或者環境噪聲并且能夠做出正確決策的能力。高性能AI系統,能在保障用戶安全的同時更好地服務社會。可以通過攻擊算法的攻擊成功率等方式來度量穩定性能。現有穩定性技術的提升方法包括對抗訓練、樣本檢測等。
可信AI-可解釋性:指人工智能系統所做出的決策需要讓人能夠理解。可解釋性的提升,不僅有助于構建更高性能的AI 系統,更能促進AI 技術在更廣泛行業的賦能與落地。可解釋性的度量除了模型可解釋性之外,還包含訓練樣本的可解釋性、測試樣本的可解釋性等。其研究內容包括有效性分析、樣本檢測、顯著性分析等方面。
可信AI-隱私保護:指人工智能系統不能把個人的隱私信息或者群體的隱私信息進行泄露。AI 系統在為用戶提供精準服務的同時,也要注重保護用戶的隱私。隱私保護非常重要,衡量隱私保護可以使用差分隱私、隱私攻擊等多種方式。我們可以通過聯邦學習、多方計算、同態加密等手段來提升用戶的隱私保護。
可信AI-公平性:指人工智能系統需要公平地對待所有用戶。公平的AI 系統能包容人與人之間的差異,為不同的用戶提供相同質量的服務。目前可以使用個體公平性和群體公平性等進行公平性度量。公平性保障算法包括預處理方法、處理中方法、后處理方法等。
關于可信AI 穩定性、可解釋性、隱私保護能力及公平性的度量及技術的提升還有待進一步研究。此外,可信AI 研究的方方面面亦互相聯系,并不孤立,因此還需要從整體出發來開展可信AI 研究。要想實現最終的可信人工智能,需要找到統一的綜合治理框架,即要構建可信AI 的一體化理論,然后來幫助我們實現有效的可信治理。可信AI 一體化研究將是未來的重要趨勢。可信能力評測將是未來人工智能產業落地中非常重要的一個環節,從理論和實踐的層面持續開展可信AI 研究,將推動人工智能產業進入一個新的浪潮。