■ 山東 劉勝軍 趙長林
隨著人工智能技術的高速發展,基于人工智能技術的解決方案正在被各大企業部署應用,影響著我們生活的方方面面。人工智能所做出的決策是否值得信賴,如何保證合規性?人工智能的一個新興分支出現了。
可解釋的人工智能正在引起人們的注意,它可以幫助企業解決由各種法規帶來的監管問題。但可解釋性并不僅僅是合規問題。可解釋性對于改進決策者和一線專家提出的人工智能模型的采用也很重要。可解釋性可以使相關人員確認和解決機器學習模型中的盲點。
如果我們開發了一個人們不愿意購買的系統,這就是一個大問題。例如,工程師們開發了一個人工智能工具,它可以改進保險業或貸款審批等領域的決策。此工具的一個主要目標就是準確性。但是,能夠向用戶們解釋正在發生什么和讓用戶撤銷一個毫無意義的建議非常重要。
專家們相信構建一個健壯的人員全面參與的人工智能系統是可靠選擇。例如,一個團隊可以用離線數據著手構建機器學習模型。然后,將此模型投入到“預生產”中,給用戶們一個從預測和解釋的角度理解模型如何工作的機會。用戶們還需要擁有接受決策或退回再重來的能力。
有的模型看起來很棒,但是從另一方面看其中是否存在偏見呢? 如果模型無法得到解釋,就只能放棄。專業人員往往要求咨詢客戶為什么某個變量要存在于一個特定的模型中。這是在深度學習啟動之前,專家們在創建財務模式時需要考慮的數據知識。無需很多監管或指導就理解大型的復雜數據集是深度學習的優點之一,但是這種方法將數據專家與理解數據隔離開來。如果我們要說服客戶相信我們正在做的事情,這就是一個需要經歷的練習。
在人工智能方面的一個怪象是企業為可解釋性而犧牲準確性。然而,如果開發者和數據專家能夠正確地構建機器學習模型,可解釋性就可以融入到深度學習等現代的人工智能技術中。
尋求實現模型的完全精確必然要犧牲可解釋性。要容易看出人工智能模型中出現什么問題,并且知道如何應對這些問題,通過這種方法來實施人工智能算法,這是一個更好的目標。理解模型的缺點并管理這些缺點對于某些企業來說至關重要。企業可以構建可解釋的復雜模型。
有很多問題可以影響到可解釋的人工智能。例如,監管就是一個因素,還有企業還需要考慮做出可能影響到客戶的決策。
另外,考慮模型的相關性也很重要。例如,用秋季數據創建的模型可能運行良好,但是在其它季節,其準確性就低了。專家可以憑借經驗來理解這些趨勢,可以查看模型,并且看出模型中的某個變量的影響是否重要,是否存在弱點,可以知道如何解決這個問題。
很多情況下,我們會發現用樣本數據可以很好地運行一個模型時,在生產中卻發生故障。例如,我們可以發現一個以前被忽視的卻需要進一步探索的關聯,通過進一步的分析,卻發現這僅僅是一個數據問題。只有在模型是可解釋的并且我們能夠看出問題出自哪里時,這種類型的數據問題才如此明顯。
我們應對的是大型的數據集,而且有時也不知道數據是否干凈。因而,可解釋的人工智能不僅僅是關于構建更好的模型問題,而且還要確認所收集的數據集的問題。
舉例說明,如果消費者想要借錢,公平的借貸法律都要求債權人向消費者提供資金或以易于理解的方式解釋其選擇不貸款的理由。其中的目的是保證公平,但這也使消費者有機會對債權人的決定提出異議。
債權人使用人工智能模型做出批準貸款的決定往往基于一種結果的概率。如果某些因素低于一個臨界值,貸款申請將被拒絕。然后,債權人需要看一下為什么拒絕。可解釋性要求關注影響這個決定的因素。實際上,即使監管機構沒有要求這樣做,這種透明性仍非常重要。
可解釋的人工智能和可解釋性是相關的觀念,但并不完全是同義詞。前者與變量變化時對即將發生事情的預測能力有關。可解釋性描述的是借助用戶語言表示一個模型底層機制的能力。
對于人工智能而言,可解釋性有著不同的層次,而不同的應用需要不同程度的可解釋性,這種程度的具體依據是這個解釋針對哪類用戶。
消費者希望知道其財務行為的哪些方面影響到了貸款決策。向消費者解釋基本貸款決策的一種方法可能是關注模型中最關鍵的相關性,對貸款決策影響最大的相關性。例如,消費者不能夠及早還款可能是影響拒絕貸款的最大因素。
另一種水平的可解釋性在于說服公司的董事會采用新模型。事實上,從高管已經同意的事情開始是很有用的。 例如,在美國的信貸行業,高管們習慣將FICO信用評分與貸款風險聯系起來。在一個人的信用評分降至720以下之前,這個分數都可以進行很好的預測。當然,信貸公司還可以使用其他變量來提高預測此類客戶貸款風險的準確性。展示這些更復雜的模型在與傳統模型對比時的表現,可以更容易地向財務主管解釋更好的模型如何影響業務。當然,在更高層面上,數據專家在決定一個新模型的價值時,需要考慮更細微的差別。
總體而言,可解釋的人工智能在除合規之外的很多方面都可帶來益處。