999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

揭開“算法的面紗”:關(guān)于構(gòu)建算法解釋框架的思考

2023-11-16 10:49:34
關(guān)鍵詞:用戶模型

劉 燁

(同濟(jì)大學(xué) 法學(xué)院,上海 200092)

0 引言

在人工智能領(lǐng)域,算法得以持續(xù)運作、生成決策的前提在于算法可解釋。可解釋性是保障算法可被信賴的安全特征,連通著算法自動化決策與法律規(guī)制。近年來,算法模型復(fù)雜度的大幅提升,算法使用者與決策最終受眾之間的“解釋鴻溝”也隨之?dāng)U大。而就算法這種尚未能夠為人們所充分理解與把握的事物而言,出于對法律規(guī)范的可預(yù)測性和可接受性的考量,立法者需要謹(jǐn)慎考慮是否作出法律上的要求或安排。因此,如何有效解釋算法,成為解決治理問題的重要環(huán)節(jié)。

在如何更好地解釋算法本身及其自動化決策,尤其在如何讓用戶有效理解算法的基本原理和運行機(jī)制方面仍待進(jìn)一步完善。基于此,本文試圖以“場景化分析”為切入口,梳理算法可解釋性在算法治理中的現(xiàn)實困境,思考在具體場景之下的優(yōu)化方案。

1 “可解釋性”的提出

關(guān)于算法“可解釋性”的準(zhǔn)確內(nèi)涵,迄今人們尚未達(dá)成統(tǒng)一認(rèn)識,一度產(chǎn)生“可解釋性”(Explainability)和“可詮釋性”(Interpretability)混用的局面。學(xué)界主流觀點分析認(rèn)為,“可詮釋性”被定義為解釋能力,即算法供以可理解的術(shù)語向人類闡釋其決策意義的能力;而 “可解釋性”重在對“解釋”概念的理解,“解釋”作為人類和算法之間的一個連接點,既是對算法決策的準(zhǔn)確概述,同時又能夠為人類所理解(comprehensible)[1-2]。本文重點圍繞“可解釋性”展開討論。

在“可解釋性”的法律規(guī)制上,當(dāng)前立法尚處在初步探索階段,立法者通常以算法使用者的解釋義務(wù)或其他任意性規(guī)定來解決算法不可解釋的問題。《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第12條鼓勵算法推薦服務(wù)提供者優(yōu)化算法規(guī)則的透明度和可解釋性,避免對用戶產(chǎn)生不良影響,預(yù)防和減少爭議糾紛,然未創(chuàng)設(shè)法定義務(wù)。《禁止網(wǎng)絡(luò)不正當(dāng)競爭行為規(guī)定(公開征求意見稿)》第13條更是明確禁止經(jīng)營者利用算法“影響用戶選擇”,而 “影響”概念之寬泛與模糊,經(jīng)營者即使履行其充分解釋義務(wù),還是可能被錯誤認(rèn)定為侵犯用戶依據(jù)主觀意愿自主選擇商品的權(quán)利。因此,是否履行充分解釋義務(wù)的認(rèn)定標(biāo)準(zhǔn)尚需厘定。比較法層面,歐盟在《人工智能道德準(zhǔn)則》(AI Ethics Guidelines)構(gòu)建的實現(xiàn)可信賴人工智能全生命周期框架中提出發(fā)展“可信賴 AI” (Trustworthy AI)在可解釋方面的要求,還在《關(guān)于人工智能道德原則的立法倡議》(Framework of ethical aspects of artificial intelligence,robotics and related technologies)中明確要求算法應(yīng)當(dāng)具有“可解釋性、可詮釋性、透明度和可識別性等安全特征”,以確保算法決策安全且可以為人類所信賴。

以上規(guī)定均未明確義務(wù)履行內(nèi)容以及相關(guān)主體不作解釋或者解釋不全面、不充分、不真實的法律后果及責(zé)任。對此,立法也在試圖回應(yīng)。美國《過濾氣泡透明度法案》(Filter Bubble Transparency Act)規(guī)定:數(shù)字科技企業(yè)應(yīng)當(dāng)允許用戶訪問其不受算法影響的平臺版本,換言之,讓用戶有權(quán)選擇打開或者關(guān)閉被算法秘密操縱的功能,從而揭開“無知之幕”。我國《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第8條明確要求“算法推薦服務(wù)提供者應(yīng)當(dāng)定期審核、評估、驗證算法機(jī)理、模型、數(shù)據(jù)和應(yīng)用結(jié)果”。近期公布的《生成式人工智能服務(wù)管理暫行辦法》第7條也進(jìn)一步規(guī)定了算法服務(wù)提供者的法律責(zé)任。問責(zé)的核心在于解釋與溝通。至此,唯有先反思算法解釋困境的形成原因,才能突破自動化決策的局限性,明晰相關(guān)主體的法律責(zé)任。

2 算法解釋困境的原因探求

如今的算法決策依賴的不單是對規(guī)則的簡單推理,而是算法模型通過深度學(xué)習(xí)訓(xùn)練而產(chǎn)生近乎人類直覺的智能[3]。而一個真正達(dá)到人類水平的算法難免會面臨更多且更進(jìn)階的問題。正如人類直覺往往難以言表,算法決策常常令人捉摸不透。從算法運行起始的數(shù)據(jù)識別、決策形成過程中依據(jù)的缺失到事后決策應(yīng)用的慣性,無不存在算法不透明的風(fēng)險。

2.1 決策依據(jù):數(shù)據(jù)識別的失衡

算法模型運作程序的在先步驟是數(shù)據(jù)識別。算法模型首先需要自動識別數(shù)據(jù),搭建數(shù)據(jù)庫,然后根據(jù)預(yù)先設(shè)定的參數(shù),就數(shù)據(jù)庫中的信息進(jìn)行判斷,最終作出決策。算法并非萬能,而是有其局限性,其對數(shù)據(jù)質(zhì)量有著高度的依賴性,數(shù)據(jù)本身一旦出現(xiàn)問題,意味著決策結(jié)果有所偏頗。而數(shù)據(jù)本身包含各種復(fù)雜性因素,隱含著社會偏見、現(xiàn)實狀況、民眾心理等事實,看似合理的數(shù)據(jù)疊加,也并不排除“算法失準(zhǔn)”的存在可能,因為目前算法尚不具備“數(shù)據(jù)修正”的功能特性。因此,不排除算法的運行會重演甚至強(qiáng)化這些“數(shù)據(jù)鴻溝”,同時造成決策失衡。在美國,一些警務(wù)預(yù)測系統(tǒng)基于數(shù)據(jù)分析結(jié)果,高頻次向相關(guān)部門建議往少數(shù)族裔聚居的社區(qū)增派警力;執(zhí)法部門還基于面部識別技術(shù)構(gòu)建算法模型來預(yù)測警務(wù),結(jié)果由于犯罪數(shù)據(jù)庫本身不完整,存在缺漏,致使算法決策放大了對非裔美國人的固有偏見,而算法關(guān)聯(lián)進(jìn)而影響保險公司的評估決策,致使針對非裔美國人的保險費率存在價格歧視,這明顯違反了平等保護(hù)原則。可見,很多算法模型之所以出現(xiàn)決策偏差,問題出在推演數(shù)據(jù)本身的不完善,進(jìn)而產(chǎn)生差異性結(jié)果的質(zhì)疑和挑戰(zhàn)。

2.2 決策形成:證明依據(jù)的不足

一個決定的作出需要有依據(jù)和論證,包括理論和實踐經(jīng)驗的支撐。受害方若要主張行為人構(gòu)成侵權(quán),須提供證據(jù)證明,且達(dá)到證明標(biāo)準(zhǔn),法院方才可能支持其訴求。但在算法自動化決策場景下,目前缺乏明顯的證據(jù)理論來解釋和論證算法決策行為的合理性[4]。對于搜索結(jié)果排序,百度公司特別建立了一套復(fù)雜的動態(tài)算法,不斷自檢產(chǎn)品算法并進(jìn)行技術(shù)迭代,但搜索結(jié)果排序所依據(jù)的參考因素包括網(wǎng)站的質(zhì)量、網(wǎng)站的瀏覽量、網(wǎng)站擁有的友鏈數(shù)量、網(wǎng)站內(nèi)容是否屬于專一領(lǐng)域等能否均作為決策形成的有效依據(jù)有待考量。算法失誤往往隱秘而隨機(jī),即便是專業(yè)人士亦難以保證及時發(fā)現(xiàn)算法失誤并修正。而且這些算法漏洞往往還被第三方不當(dāng)利用。換言之,針對算法決策、行為及最終結(jié)論,目前缺乏專門的理由或證據(jù)來完整有效地解釋,“算法直覺”更無法作為支撐其決策的理由,因為算法并沒有人類的“關(guān)聯(lián)感”。

2.3 決策應(yīng)用:損害結(jié)果的泛化

從風(fēng)險預(yù)測、貸款評估到醫(yī)療診斷、司法審判,多種事項都成為算法決策應(yīng)用的對象。相對于人的主觀決策,算法的自動化決策具有相對客觀、公正、高效等特點[5]。但需要警覺的是,每一項技術(shù)自有其“陰暗的背面”。帶有缺陷的算法模型一旦被泛化使用,給社會公眾帶來的危害不容小覷。比如,澳大利亞實行的“機(jī)器債” 計劃(Robodebt)中,自動追債系統(tǒng)通過數(shù)據(jù)匹配算法,旨在幫助政府追蹤社會福利欺詐者。但該系統(tǒng)自動生成的債務(wù)賬單中20%都是基于錯誤信息。盡管事后查明,該算法基于稅務(wù)局(ATO)的年度收入數(shù)據(jù)與澳洲福利局(Centrelink)發(fā)放的福利補(bǔ)助進(jìn)行交叉比對,是不充分的,存在系統(tǒng)性缺陷,但這些系統(tǒng)性缺陷和計算錯誤最終導(dǎo)致2 030人在收到自動債務(wù)賬單后由于心理健康壓力而選擇自殺[6]。而這絕非個例。遺憾的是,對于這些“糟糕決定”的成因,目前尚且沒有研發(fā)出一種完美的理論框架用來解釋,更不必說快速糾正錯誤。因此,實踐中,當(dāng)算法一開始出現(xiàn)偏差時,即使初始結(jié)果的用戶發(fā)現(xiàn)并及時反饋,由于決策涉及的海量內(nèi)容信息,往往也難以迅速被修正,因此造成登記信息錯誤、駕駛執(zhí)照被吊銷、用人單位解雇等不同程度上的消極后果。

3 體系思維在算法解釋中的價值

由于實踐中尚未形成統(tǒng)一規(guī)范和評價標(biāo)準(zhǔn),解釋主體作出的回應(yīng)與用戶的解釋需求之間存在偏差,其解釋內(nèi)容的完整度、有效性仍待提升,因而需要以體系思維完善算法可解釋性,將算法解釋的對象、方法、標(biāo)準(zhǔn)整合到算法解釋體系之中。

3.1 解釋需求的差異

現(xiàn)今,人工智能通過深度學(xué)習(xí)和算法訓(xùn)練提高了表示能力,但與此同時算法模型的復(fù)雜度也在不斷加碼,即使作為專業(yè)人士的研發(fā)者、使用者得以破解,但承受算法決策結(jié)果的用戶往往“一臉茫然”。另一方面,不同領(lǐng)域的用戶基于不同的分析視角,對算法決策的解讀各有側(cè)重,由此產(chǎn)生在解釋內(nèi)容方面的需求差異。技術(shù)工作者往往關(guān)注不同的深度神經(jīng)網(wǎng)絡(luò)的解釋理論和方法;信息工程研究者著眼于提供可解釋的深度模型內(nèi)容以及預(yù)測結(jié)果的決策依據(jù)[7];生物學(xué)家則傾向于為生物體的不同內(nèi)部結(jié)構(gòu)構(gòu)建算法模型,以解讀不同種類的動物行為、身體的發(fā)育、生物進(jìn)化和生命的本質(zhì)[3]。而從法教義學(xué)視角,算法決策的公平性是重點,可解釋的算法模型則是保證決策公平性必不可少的一部分。近年來,將公平性納入決策受到極大的關(guān)注。因此,在解決“算法黑箱”問題過程中,首先需要明確“對誰解釋”,即目標(biāo)對象的劃分與選擇,然后才是“怎么解釋”,即解釋方法與解釋標(biāo)準(zhǔn)。

3.2 各種解釋方法之間缺乏統(tǒng)一評估指標(biāo)

面對一個亟待被解釋的算法決策,存在哪些解釋方法可供選擇、何種解釋方法更能深入解釋問題本質(zhì)以及不同解釋方法的同時適用會否導(dǎo)致結(jié)論不同甚至觀點沖突,這都需要根據(jù)具體場域進(jìn)行判斷。但就各種解釋方法的評判、取舍,由于解釋方法的邏輯原理、解釋范疇的差異性,難以達(dá)成評估指標(biāo)的統(tǒng)一。問題的關(guān)鍵在于,一個非常成功的算法可能并不適合讓其他人工智能程序“借用”[3]。部分解釋方法盡管運行原理簡單,易于實現(xiàn)可解釋目標(biāo),但適用場域十分有限;另有一些解釋方法即使結(jié)構(gòu)復(fù)雜,可解釋實現(xiàn)難度大,但這類解釋方法泛化能力較強(qiáng),可供多場域廣泛適用。有學(xué)者試圖從自解釋模型、特定模型解釋、不可知模型解釋、因果可解釋性四個方面對解釋方法進(jìn)行分類[8]。還有學(xué)者基于解釋“算法黑盒”模型的原理,將解釋方法大致分為模型內(nèi)部可視化、特征統(tǒng)計分析、本質(zhì)上可解釋模型[7]。但學(xué)界目前尚無統(tǒng)一評估依據(jù)。就此問題,本文認(rèn)為,解釋方法之間并無優(yōu)劣,解釋主體在解釋算法模型本身或決策結(jié)果時,不妨有效結(jié)合多種解釋方法,充分發(fā)揮其各自優(yōu)勢,至于具體方法的選取,則取決于具體的應(yīng)用場域。

3.3 解釋標(biāo)準(zhǔn)尚未明晰

算法無法完全像人一樣針對各類情況進(jìn)行靈活應(yīng)對,如果算法設(shè)定向嚴(yán),會導(dǎo)致用戶無法獲取真正有價值的內(nèi)容,如果算法設(shè)定向松,則無法發(fā)揮應(yīng)有的作用。因此,需要根據(jù)不同的意涵,設(shè)定不同程度的算法解釋,通過對解釋內(nèi)容的準(zhǔn)確把握,促使算法模型從不可解釋狀態(tài)向具備可解釋性特征的方向轉(zhuǎn)化。解釋標(biāo)準(zhǔn)的確定往往出于對特定算法透明化程度的慎重考量,這也是對比例原則、公平性原則的貫徹。在法律規(guī)制上,現(xiàn)行法律呈現(xiàn)多元化、開放性的基本取向,比如《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第12條雖明確了算法透明度和可解釋性的要求及目標(biāo)對象,但未規(guī)定二者異同,留下了多種解釋方法和標(biāo)準(zhǔn)的空間。一個能夠具象化的預(yù)設(shè)標(biāo)準(zhǔn)至關(guān)重要。羅馬法中的“善良家父”便是構(gòu)建標(biāo)準(zhǔn)的典型。發(fā)展至今,私法中的理性人標(biāo)準(zhǔn)以一個人格化的形象作為參照,個案評判中需要將理性人標(biāo)準(zhǔn)具象化,從而合理解決主體間利益沖突[9]。得鑒于此,有學(xué)者根據(jù)算法透明化程度,將解釋內(nèi)容區(qū)分為算法運用的告知義務(wù)、算法參數(shù)報備、算法參數(shù)公開以及源代碼公開[10]。還有學(xué)者依據(jù)解釋內(nèi)容的層次性,提出通常情況下默認(rèn)應(yīng)達(dá)到適當(dāng)解釋的水平,初步解釋與充分解釋均作為特殊情況下的例外[11]。

綜上分析,依據(jù)體系思維解決算法可解釋性問題不僅可能而且可行,只是需要深度探尋各種典型場域下算法可解釋性的實現(xiàn)路徑,在探索過程中,構(gòu)建算法解釋分析框架以指導(dǎo)相關(guān)主體對可解釋性問題的解決,具備現(xiàn)實意義。

4 算法解釋框架的制度構(gòu)想

針對個性化、多樣化的算法模型,仍應(yīng)結(jié)合算法模型的應(yīng)用場域考慮其透明化程度。以體系思維為分析視角,基于“場景公正”理念構(gòu)建算法解釋框架,針對不同業(yè)務(wù)、不同場域中的算法決策,在此框架中選取適宜的解釋方法并適用特定解釋標(biāo)準(zhǔn)進(jìn)行論證分析(如圖1所示)。

圖1 算法解釋框架制度的構(gòu)建思路

4.1 解釋對象的確定:明確解釋方法的前提

算法解釋的目標(biāo)對象大致包括受算法自動化決策結(jié)果影響的特定主體、一般性社會公眾以及政府機(jī)構(gòu),本文依此將解釋方法劃分為“定向告知”模式、“公開披露”模式和“行政報備”模式。

4.1.1 “定向告知”模式

“定向告知”模式僅限于可能受到算法決策影響的特定用戶或特定群體,例如,美國《公平信用報告法》(Fair Credit Reporting Act)和《信用機(jī)會平等法》(Equal Credit Opportunity Act)均規(guī)定“不利行動告知”(adverse action notice)條款,要求貸款方或授信人必須就不利的算法評分向消費者或申請人進(jìn)行解釋,并且消費者或申請人有權(quán)就此問題進(jìn)一步提問。歐盟《通用數(shù)據(jù)保護(hù)條例》賦予數(shù)據(jù)主體以“算法解釋權(quán)”,在算法決策得出的結(jié)果與自己預(yù)期不相符合的情形下,數(shù)據(jù)主體有權(quán)要求算法使用者對算法模型設(shè)計以及運行過程(即數(shù)據(jù)的分析處理)進(jìn)行解釋。 不同于“公開披露”模式下算法使用者向不特定對象作出泛化解釋,“定向告知”模式的特殊之處在于:(1)注重個人信息保護(hù)和隱私安全,尤其是高風(fēng)險算法,這類算法運行過程中不可避免涉及敏感數(shù)據(jù)信息的處理。在解釋該處理和最終結(jié)論得出時,特別需要預(yù)防敏感數(shù)據(jù)信息被不可控地大規(guī)模擴(kuò)散。(2)能夠面向目標(biāo)用戶作出精細(xì)化解釋,有的放矢,更有利于彌補(bǔ)“解釋鴻溝”,并進(jìn)一步建立解釋不準(zhǔn)確或不充分時特定主體的救濟(jì)權(quán)利。(3)一定程度上節(jié)約公示成本,算法使用者可以選擇以合同條款形式履行告知提示義務(wù)。

4.1.2 “公開披露”模式

該模式將解釋對象聚焦于“一個具有平均水準(zhǔn)的知情度、注意力、明智性的普通用戶”,不拘泥于個案中具體用戶的特殊情況,“公開披露”模式的典型適用便是“電商平臺二選一”場景,平臺經(jīng)營者通過調(diào)整算法權(quán)重,對不接受“二選一”的平臺內(nèi)經(jīng)營者徑直采取搜索降序、屏蔽店鋪、干擾排名等措施,就此,《電子商務(wù)法》明確了平臺經(jīng)營者的公開公示義務(wù),禁止其利用包括算法在內(nèi)的技術(shù)手段和優(yōu)勢實施不公平交易行為,以滿足一般公眾的普遍期待。類似地,歐盟《平臺和商戶間公平性和透明度法》要求平臺向公眾披露對算法決策起決定性的主要參數(shù)及其采納理由,并說明影響。最具爭議的便是強(qiáng)制要求經(jīng)營者公開算法模型采用的源代碼。考慮到政府機(jī)構(gòu)逐漸傾向采購經(jīng)營者研發(fā)的算法產(chǎn)品和服務(wù),2016年美國紐約州便嘗試通過算法立法要求政府公布其適用算法產(chǎn)品的源代碼,該法案從動議提出到最終通過遭到多方強(qiáng)烈反對,尤其是算法產(chǎn)品相關(guān)服務(wù)商。在此延申到“公開披露”模式存在的問題:(1)一旦被披露的源代碼被不法利用,其后果難以預(yù)料,尤其是對公共安全的損害修復(fù)存在不確定性。(2)立足于保護(hù)公眾知情權(quán)的社會本位,立法者就商品或服務(wù)的垂直檢索算法,對平臺經(jīng)營者課以最低程度的公開義務(wù),類似于證券法上的上市公司信息披露義務(wù),二者同樣存在的現(xiàn)實問題是,公開披露的內(nèi)容能否有效回應(yīng)公眾疑問和不滿,這些內(nèi)容是否真正觸及爭議的實質(zhì)。實際上,平臺經(jīng)營者往往只是初步披露其使用算法技術(shù)的客觀事實,沒有正面解答算法模型的運行機(jī)制本身,最終導(dǎo)致各方在算法解釋上的爭議并未得到實質(zhì)性解決。

4.1.3 “行政報備”模式

相較于“公開披露”模式,“行政報備”模式下行政機(jī)關(guān)作為中立第三方,更能平衡商業(yè)利益和社會公共利益,一方面是考慮到對經(jīng)營者經(jīng)營自主權(quán)和商業(yè)秘密的保護(hù),另一方面,在事關(guān)市場環(huán)境、社會秩序、公民福利等關(guān)鍵領(lǐng)域和行業(yè),需要公權(quán)力的適當(dāng)介入。金融領(lǐng)域,《關(guān)于規(guī)范金融機(jī)構(gòu)資產(chǎn)管理業(yè)務(wù)的指導(dǎo)意見》(銀發(fā)〔2018〕106號 )明確規(guī)定金融機(jī)構(gòu)如果使用算法技術(shù)開展資產(chǎn)管理業(yè)務(wù),應(yīng)當(dāng)向金融監(jiān)督管理部門報備算法模型的主要參數(shù)和邏輯。算法自動化決策不單純是技術(shù)運行是否公平、邏輯是否合理的問題,還涉及法律后果和社會效果。因此,為確保算法決策的公平性,在決策結(jié)果出來之前,算法模型的設(shè)計、部署和運行機(jī)制應(yīng)當(dāng)向行政主管機(jī)關(guān)提前報備,以便事后爭議產(chǎn)生時進(jìn)行人工審查。

當(dāng)然,上述模式在實踐中完全可以結(jié)合應(yīng)用,前述《關(guān)于規(guī)范金融機(jī)構(gòu)資產(chǎn)管理業(yè)務(wù)的指導(dǎo)意見》針對金融機(jī)構(gòu)不僅規(guī)定了算法模型主要參數(shù)的報備義務(wù),同時要求其向投資者充分提示算法的固有缺陷和使用風(fēng)險。

4.2 解釋方法的場景化應(yīng)用

不同場域中,解釋需求和解釋目的也會發(fā)生相應(yīng)變化。在金融風(fēng)控領(lǐng)域,產(chǎn)品推薦系統(tǒng)根據(jù)市場波動、政策導(dǎo)向,能夠幫助投資者更好作出理性選擇,目的在于風(fēng)險預(yù)測與防控。醫(yī)療場域下,智能診斷系統(tǒng)可以基于醫(yī)療圖像特征和診斷標(biāo)準(zhǔn)進(jìn)行推理,在醫(yī)生之間的診斷結(jié)果不一致時提供參考性意見,目的在于避免主觀錯誤。在司法審判領(lǐng)域,算法賦能智慧量刑輔助,針對特定案件提供量刑建議,目的在于促進(jìn)司法量刑統(tǒng)一,限制主觀裁判的濫用;算法更進(jìn)一步賦能特定類型案件的自動化處理,并非僅是對法官的裁判輔助,對于部分類型固定、法律關(guān)系簡單、爭議點明確的案件,完全能夠交由以規(guī)則驅(qū)動邏輯的算法模型處理,從而解決“案多人少”的問題。而在信息推薦場景中,算法推薦服務(wù)提供者應(yīng)當(dāng)生成并提供量化影響分析報告,以便相關(guān)用戶知曉算法推薦的基本原理和運行邏輯,目的在于維護(hù)公平競爭環(huán)境以及消費者權(quán)益保障。據(jù)此,根據(jù)不同解釋需求和目的,在具體解釋方法選取上,也應(yīng)有所側(cè)重,本文以金融、醫(yī)療、司法、信息檢索及推薦等實踐中算法高頻應(yīng)用的場域為例進(jìn)行逐一分析。

金融風(fēng)控場域下,算法運行的核心在于評估潛在交易的風(fēng)險回報率,算法的區(qū)別在于研發(fā)者對市場理解不同、采用的算法模型不同,本質(zhì)上都是圍繞技術(shù)分析規(guī)則、統(tǒng)計方法和機(jī)器學(xué)習(xí)技術(shù),研究最優(yōu)的交易策略。因此,算法的中立性和客觀性往往并非解釋重點,應(yīng)當(dāng)更加側(cè)重數(shù)據(jù)抓取的合理性、市場和公司數(shù)據(jù)的可用性、預(yù)測結(jié)果的準(zhǔn)確性。鑒于市場波動預(yù)測的實效性,解釋金融算法多數(shù)情況下屬于事前解釋,即圍繞風(fēng)險告知義務(wù)展開。

醫(yī)療保健場域下,解釋思路的重點在于相關(guān)算法的采用和運行能否輔助醫(yī)生為患者選擇適合的治療方案,能否有效提高病患的治愈率、提高護(hù)理質(zhì)量。由于患者群體不特定,容易出現(xiàn)算法偏差,因此醫(yī)療算法的預(yù)測結(jié)果可能無法一概適用。據(jù)此,就醫(yī)療場域,個性化、精準(zhǔn)化的解釋方法更為適宜。同時,考慮到治療結(jié)果的不可逆性,解釋醫(yī)療算法也屬于事前解釋,即“知情-同意”原則:臨床醫(yī)生告知患者積極治療方案并披露相應(yīng)風(fēng)險,同時告知采取保守治療甚至放棄治療的風(fēng)險和好處,以獲得患者同意,免受追責(zé)。此外,患者還應(yīng)當(dāng)被告知算法可能出現(xiàn)的診斷失誤,包括過度診斷和技術(shù)誤診。

司法審判場域下,算法決策的公平非歧視性是關(guān)鍵。司法實踐中,算法模型的應(yīng)用并不十分深入,多集中于刑事案件的審理和執(zhí)行,輔助法官更合理地對保釋金額、判刑等做出決策。美國判刑委員會(USSC)利用人工智能來制定和實施判刑指南,幫助法官確定對不同罪行的公平一致的懲罰;新西蘭利用算法可解釋性,研發(fā)量刑預(yù)測人工智能算法應(yīng)用,一方面幫助法官理解其量刑決定,另一方面能夠就有爭議的裁判決定為司法透明度創(chuàng)造條件[10]。由此產(chǎn)生的算法解釋爭議多集中于刑事犯罪風(fēng)險預(yù)測。美國法院借用COMPAS算法來評估罪犯再犯風(fēng)險,由于訓(xùn)練和測試模型時所用樣本不足或是無關(guān)統(tǒng)計相關(guān)等原因,該算法模型存在潛在的人種偏見、性別歧視,或是其他各種主觀偏見,從而引發(fā)大量爭議。有鑒于此,解決司法審判算法的可解釋性問題,重點在于解決可能產(chǎn)生的法律效果和社會影響,其中不乏倫理和道德因素,因此,可以考慮“社會技術(shù)”的解釋方法來減輕可能具有的算法偏見、算法歧視,分析算法運行機(jī)制的公平性、可靠性。

而在信息檢索、信息推薦場域下,智能推薦算法的邏輯本質(zhì)是在用戶逐漸減少的主動行為中尋找可能的關(guān)聯(lián)關(guān)系。推薦算法模型在擬合準(zhǔn)確用戶行為的基礎(chǔ)上,通過用戶目標(biāo)的權(quán)重的控制,達(dá)到多推A類信息而少推B類信息,抑或是C類商品排名優(yōu)先的目的。平臺經(jīng)營者希望以此提供個性化服務(wù),提高用戶體驗,更高效地觸達(dá)潛在受眾,從而增加用戶粘性,有利于平臺持續(xù)良好運營。普通用戶則期待借此快速找到目標(biāo)商品或信息,提高信息過濾效率。算法推薦的精準(zhǔn)度尤為重要,不排除用戶偏好和推薦結(jié)果存在誤差,結(jié)果不足以滿足用戶需求,甚至讓用戶產(chǎn)生消極的體驗感。因此,對于算法推薦得到的排名結(jié)果,算法推薦服務(wù)提供者應(yīng)當(dāng)解釋算法運行過程中主要參考因素,并且關(guān)于這些參考因素的說明應(yīng)該保持更新。解釋方式的選取上,關(guān)鍵要看能否讓用戶更好了解算法排名機(jī)制,從而比較算法推薦服務(wù)提供者之間的排名方式,同時不損害排名機(jī)制的正當(dāng)運行,在不影響排名機(jī)制的情況下幫助商業(yè)用戶更好理解商品排名結(jié)果。

可見,實現(xiàn)算法的可解釋,并非只有完全打開“算法黑箱”這一種可能對策,在多數(shù)使用場域中要求算法使用者達(dá)到“打開黑箱式的全局解釋”完全沒有必要[11]。事實上,只有特定使用者要求掌握算法決策程序中的全部運行機(jī)理,這主要集中于軍工、國防領(lǐng)域,比如美國國防高級研究計劃局(Defense Advanced Research Projects Agency)曾提出“可解釋的人工智能計劃”(XAI),試圖構(gòu)建或完善形成一個具備高度可解釋性、更易讓人理解的算法模型[12]。

4.3 解釋標(biāo)準(zhǔn)具化:基于算法透明化程度的考量

技術(shù)層面,針對算法可解釋性問題,由于算法模型的種類、復(fù)雜程度、運行機(jī)制各不相同,解釋方法的選擇及解釋程度也需要作出相應(yīng)調(diào)整。倘若涉及算法模型整體搭建的系統(tǒng)性問題,需要同時適用多種解釋方法進(jìn)行深度剖析,讓用戶更好明確算法模型的知識邊界,了解算法模型在哪些情形下能夠得出理想決策,從而對該算法賦予恰當(dāng)信任并進(jìn)行合理使用。但若只是針對其中部分決策內(nèi)容,相關(guān)用戶產(chǎn)生困惑,解釋主體不妨采用簡單且直觀的方式(例如線性回歸、決策樹)進(jìn)行解釋,需要注意解釋的精確度。

事實上,部分國家標(biāo)準(zhǔn)和行業(yè)標(biāo)準(zhǔn)已經(jīng)試圖針對不同業(yè)務(wù)和場景區(qū)分可解釋性程度,并以此為基礎(chǔ)提出具體要求,這是適度干預(yù)原則的體現(xiàn)。《人工智能算法金融應(yīng)用評價規(guī)范》(JR/T 0221—2021)作為人工智能領(lǐng)域的行業(yè)標(biāo)準(zhǔn),對“可解釋性評價”要求區(qū)分資金類場景和非資金類場景,資金類場景中的解釋標(biāo)準(zhǔn)遠(yuǎn)高于非資金類場景中的解釋標(biāo)準(zhǔn)。也有學(xué)者提出圍繞算法邏輯維度和數(shù)據(jù)維度構(gòu)建解釋標(biāo)準(zhǔn)[13],認(rèn)為解釋主體不僅需要滿足證明算法模型與運行邏輯、對公平競爭秩序可能產(chǎn)生的影響等基本解釋要求,還應(yīng)當(dāng)進(jìn)一步解釋算法運行的市場透明度、數(shù)據(jù)信息的處理過程以及數(shù)據(jù)與決策的關(guān)聯(lián)性、決策的合法合規(guī)性等。

以解釋推薦算法或搜索算法中的排名機(jī)制為例,對于算法決策所適用的排名機(jī)制,其解釋內(nèi)容主要圍繞排名依據(jù)的主要參考因素,應(yīng)遵循一定的邏輯順序,解釋主體不能夠?qū)⑿畔⒑鷣y堆給用戶,擺出“任君挑選”的消極姿態(tài)。通過考察歐盟《提高商業(yè)用戶使用線上中介服務(wù)的公平性和透明度的第2019/1150條例》的規(guī)定,本文認(rèn)為,解釋內(nèi)容大體上可以包括以下幾點:第一,解釋主體應(yīng)當(dāng)在其統(tǒng)一制定的相關(guān)規(guī)則中事先公示檢索排名的主要考慮因素,并評估這些因素對人們的潛在影響。同時,說明算法分析的內(nèi)在機(jī)理,具體包括推薦決策的判斷標(biāo)準(zhǔn)、各標(biāo)準(zhǔn)的權(quán)重大小等內(nèi)容。鑒于算法模型驚人的迭代速度,前述參考因素及其說明應(yīng)當(dāng)實時更新改進(jìn),與實際使用情形相同步,也即“事后的更新解釋”。第二,前述考慮范圍中的一個關(guān)鍵因素是,商品經(jīng)營者或信息提供者是否為了取得優(yōu)先排名推薦而支付一定的費用,這關(guān)系到排名結(jié)果是否與客觀事實(即未經(jīng)算法排名機(jī)制而客觀形成的優(yōu)先級順序)相符。如果支付費用確定會影響排名,則支付金額的多少、支付方式(包括直接或間接支付)以及該筆費用對排名的影響程度也應(yīng)納入解釋范疇。同時,鑒于該類排名結(jié)果面向的是不特定群體,解釋主體應(yīng)當(dāng)適用“公開披露”模式對相關(guān)事實予以明確。第三,倘若排名機(jī)制在特定情形下發(fā)生變化,解釋主體應(yīng)告知用戶具體變動內(nèi)容及其理由。第四,前述解釋內(nèi)容均應(yīng)達(dá)到讓用戶足夠理解排名結(jié)果如何作出的程度,解釋過程中需要注意排序?qū)ο蟮奶卣鳎缟唐贩N類或服務(wù)特點,以及這些特征與用戶的相關(guān)程度。第五,對于排名結(jié)果的分析,解釋主體也要注意第三方惡意干擾或者操縱排名的情形。“萬詞霸屏”案中,閃速推公司利用百度公司算法漏洞,故意破壞百度搜索引擎正常的關(guān)鍵詞收錄和排名秩序,生成大量關(guān)鍵詞和非人工編寫的“垃圾頁面”并與業(yè)內(nèi)搜索關(guān)鍵詞關(guān)聯(lián),產(chǎn)生相關(guān)頁面占據(jù)搜索結(jié)果首頁的效果。結(jié)合技術(shù)進(jìn)步、公共服務(wù)以及市場效率等綜合性判斷因素,該行為屬于惡意干擾、操縱搜索引擎搜索結(jié)果排名,構(gòu)成不正當(dāng)競爭。

5 結(jié)束語

盡管有學(xué)者對算法可解釋性的未來持悲觀看法,一度將此視為一個“注定是人類不切實際的夢想”[14]。在這種理念的影響下,人們更愿意相信“算法黑箱”如同自然界的力量一樣不可避免,至多被馴服,無法被控制。然而,隨著算法學(xué)習(xí)模型的拆解、透明度規(guī)則的優(yōu)化以及學(xué)科間壁壘被弱化并逐步被擊破,可以想見,未來的算法決策可解釋性將是完整的,通過多學(xué)科協(xié)作等方式,最終將實現(xiàn)為其用戶建立完整且清晰的解釋框架,并增強(qiáng)用戶對其輸出的信任感。至此,相比于“算法黑箱”的隱喻,借用“算法面紗”來形容算法可解釋性問題或許更為貼切,二者的不同之處在于通過解釋可以隨時揭開算法神秘的面紗,露出其自動化決策背后的客觀真實與價值判斷。

猜你喜歡
用戶模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
關(guān)注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
3D打印中的模型分割與打包
關(guān)注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關(guān)注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
Camera360:拍出5億用戶
100萬用戶
主站蜘蛛池模板: 粗大猛烈进出高潮视频无码| 97人妻精品专区久久久久| 久久精品人人做人人爽电影蜜月| 国产尤物在线播放| 日韩免费毛片| 亚洲一区二区约美女探花| 丰满人妻中出白浆| 亚洲欧美日韩精品专区| 亚洲中文字幕久久精品无码一区 | 黄色一及毛片| 国产视频a| 麻豆精品视频在线原创| 潮喷在线无码白浆| 欧美性猛交xxxx乱大交极品| 亚洲首页在线观看| 狠狠综合久久久久综| 美女视频黄频a免费高清不卡| 午夜影院a级片| 亚洲色精品国产一区二区三区| 欧美一区二区三区国产精品| 在线观看国产黄色| 国产麻豆永久视频| 伊大人香蕉久久网欧美| 久久动漫精品| 91蜜芽尤物福利在线观看| 久久国产成人精品国产成人亚洲| 国产精品九九视频| 亚洲精品国产精品乱码不卞| 人妻91无码色偷偷色噜噜噜| 99热这里只有精品2| 国产精品免费p区| 91午夜福利在线观看| 伊人福利视频| www欧美在线观看| 免费观看成人久久网免费观看| 国产va在线观看| 国产噜噜在线视频观看| 夜夜操天天摸| 亚洲欧州色色免费AV| 久久亚洲国产视频| 女人av社区男人的天堂| 日本尹人综合香蕉在线观看 | 伊人久久久久久久久久| AV色爱天堂网| 久久久久人妻一区精品色奶水 | 国产剧情一区二区| 日韩AV手机在线观看蜜芽| 日韩经典精品无码一区二区| 专干老肥熟女视频网站| 精品国产自在在线在线观看| 真人免费一级毛片一区二区| 亚洲国产午夜精华无码福利| 手机成人午夜在线视频| 国产三级a| 国产精品熟女亚洲AV麻豆| 中文字幕有乳无码| 国产在线专区| 国产精鲁鲁网在线视频| 久久成人国产精品免费软件 | 毛片a级毛片免费观看免下载| 欧美亚洲国产视频| 国产99在线观看| 人妻夜夜爽天天爽| 欧美日韩在线第一页| 午夜爽爽视频| 国产网站黄| 国产在线欧美| 婷婷99视频精品全部在线观看 | 欧美亚洲另类在线观看| 久久国产精品娇妻素人| 亚洲欧美日韩精品专区| 亚洲国产精品成人久久综合影院| 亚洲va欧美ⅴa国产va影院| 在线观看免费国产| 无码福利日韩神码福利片| 91久久国产热精品免费| 一本色道久久88| 亚洲日本www| 伊人91视频| 精品国产一区二区三区在线观看| 欧美亚洲国产精品久久蜜芽| 青青国产成人免费精品视频|