劉琳
關(guān)鍵詞:算法解釋權(quán);商業(yè)秘密;算法權(quán)力;算法歧視;算法黑箱
一、問題的提出
人類社會已然步人算法時代。算法技術(shù)對人類生活產(chǎn)生廣泛而普遍的影響,甚至產(chǎn)生對人類的支配之力。人們?nèi)諠u產(chǎn)生對算法失控的隱憂、對算法權(quán)力的警惕及對“算法暴政”的不滿。在此背景下,賦予用戶算法解釋權(quán)的提議應(yīng)運(yùn)而生,《中華人民共和國個人信息保護(hù)法》(以下簡稱《個保法》)第24條亦在立法層面明確賦予個人獲得算法解釋的權(quán)利。然而,算法解釋權(quán)的行使卻面臨著商業(yè)秘密制度的阻礙。算法解釋意味著算法控制者需要將代表其核心競爭力的算法或相關(guān)內(nèi)容告知他人,商業(yè)秘密不可避免地面臨泄露風(fēng)險。更加嚴(yán)重的憂慮是,履行算法告知義務(wù)可能會導(dǎo)致算法的秘密性滅失,從而失去獲得商業(yè)秘密保護(hù)的基礎(chǔ)。
如何解決算法解釋權(quán)與商業(yè)秘密保護(hù)之間的沖突?有學(xué)者主張全然廢除算法解釋制度,①有學(xué)者認(rèn)為商業(yè)秘密應(yīng)讓位于代表公共利益的算法解釋規(guī)則,②有學(xué)者運(yùn)用比例原則追求各方利益的平衡,但最終的解決方案或稍欠全面性,①或止步于方向性指引與相對寬泛的利益衡量。②值得思考的是,面對算法解釋與商業(yè)秘密的沖突,是否只能做非黑即白的取舍,抑或只能訴諸法官的自由裁量與漫無邊際的利益衡量?是否可以通過對算法解釋規(guī)則的解釋與修正實(shí)現(xiàn)沖突的消解?是否可以通過對商業(yè)秘密制度的澄清與運(yùn)用實(shí)現(xiàn)沖突的消融?本文擬從外在表現(xiàn)與內(nèi)在機(jī)理兩個方面對算法解釋與商業(yè)秘密的沖突進(jìn)行分析,避免非黑即白的絕對化思路,跳出寬泛的方向性指引與漫無邊際的利益衡量,對算法解釋規(guī)則進(jìn)行四個方面的解釋與修正,對商業(yè)秘密制度中“秘密性”要件作出澄清,為算法解釋與商業(yè)秘密之沖突調(diào)和提出明確、具體、可操作的解決方案。
二、算法解釋與商業(yè)秘密沖突的外在表現(xiàn)
算法解釋與商業(yè)秘密的沖突并非杞人憂天或者純粹形式邏輯的推演,而已然發(fā)生于社會生活與司法實(shí)踐之中。不同法院在面對這一沖突時呈現(xiàn)出大相徑庭的態(tài)度,即便在同一案件的多數(shù)派法官之中亦存在對立意見。在目前的商業(yè)實(shí)踐中,算法控制者主要以商業(yè)秘密的形式保護(hù)算法。面對算法解釋權(quán)的威脅,算法控制者也傾向于單方面宣告商業(yè)秘密的絕對優(yōu)先地位,免除自身算法解釋義務(wù)。例如,《阿里媽媽推廣者規(guī)范》約定:“阿里媽媽過濾系統(tǒng)涉及阿里媽媽核心商業(yè)秘密,阿里媽媽無需向推廣者披露具體異常數(shù)據(jù);人工認(rèn)定涉嫌違規(guī)的,阿里媽媽可視是否涉及商業(yè)秘密等獨(dú)立決定是否披露具體認(rèn)定依據(jù)。”③這與《個保法》第24條的立場相抵牾。
實(shí)踐中,法院并不認(rèn)同算法控制者單方面免除自身算法解釋義務(wù)的有效性。比如在“阿里媽媽案”中,法院從格式條款與顯失公平的角度出發(fā),否定了阿里媽媽公司在《阿里媽媽推廣者規(guī)范》中免除自身算法解釋義務(wù)的有效性。并進(jìn)一步指出,當(dāng)事人認(rèn)為案情涉及商業(yè)秘密請求不公開審理,法院可以準(zhǔn)許,但當(dāng)事人必須對自己的主張負(fù)舉證責(zé)任,阿里媽媽公司根據(jù)算法系統(tǒng)認(rèn)定原告在平臺中存在違規(guī)行為,就應(yīng)當(dāng)就此問題進(jìn)行舉證。這段裁判理由明確宣示了一審法院的態(tài)度:商業(yè)秘密并不能成為拒絕解釋算法的借口。④然而,在一審法院明確宣示立場后,盡管二審法院維持了一審判決,但在裁判理由中卻僅僅提及被告單方面免除自身算法解釋義務(wù)的服務(wù)協(xié)議因?qū)俑袷綏l款而歸于無效,回避了商業(yè)秘密與算法解釋之沖突當(dāng)如何調(diào)和、取舍的問題。⑤
美國司法實(shí)踐中亦存在同樣的沖突與爭議。在2016年的“盧米斯案”中,盧米斯認(rèn)為巡回法院在量刑時借助了一種名為“替代性懲教罪犯風(fēng)險評估”(COMPS)的智能算法,而該算法不恰當(dāng)?shù)乜紤]了性別因素,且不披露如何權(quán)衡評價因素,并以此為由向最高法院提起上訴。⑥法院基于保護(hù)商業(yè)秘密的考量未要求算法控制者向盧米斯闡釋算法評估邏輯,并引發(fā)諸多反對意見。學(xué)者謂之,“在算法公平與商業(yè)秘密之間,法院…站在了商業(yè)秘密一邊”。①即便是支持該判決的多數(shù)派法官亦承認(rèn),該案中進(jìn)行算法解釋是有必要的。②
三、算法解釋與商業(yè)秘密沖突的內(nèi)在機(jī)理
算法解釋規(guī)則與商業(yè)秘密保護(hù)分別代表著受算法影響者與算法控制者對立的價值訴求。算法黑箱易滋生歧視、偏見與“算法暴政”,受算法影響者需要能夠掀開算法黑箱的解釋規(guī)則,而另一方面,在專利保護(hù)的局限性與激烈的市場競爭下,算法控制者亦有算法保密的正當(dāng)理由。
(一)受算法影響者對算法解釋的合理訴求
其一,消除算法歧視與算法偏見。智能高效的自動化決策算法在為社會生活帶來諸多便利的同時,也帶來了算法歧視與算法偏見。首先,算法評價所使用的基礎(chǔ)數(shù)據(jù)未必完全準(zhǔn)確與真實(shí),而這種數(shù)據(jù)偏差將會為后續(xù)信息處理埋下隱患。其次,算法做出預(yù)測的過程往往涉及對公眾或個體的評價,有時,盡管算法設(shè)計的目的只是降低成本,但卻可能在事實(shí)上造成歧視后果。
算法決策中可能帶有的歧視與偏見絲毫不亞于人類決策,而前者的隱蔽性卻遠(yuǎn)勝后者,這使得算法公開的需求更加緊迫。機(jī)器理性的外表為算法穿上了“公正的外衣”,因此在一般的認(rèn)知中,人類代表著主觀與情感,而機(jī)器則代表著客觀與理性,以算法決策代替人類決策似乎為實(shí)現(xiàn)決策的絕對公正帶來了福音。事實(shí)上,算法決策與人類決策在某種意義上具有極強(qiáng)的同質(zhì)性——人類決策需要依賴事件信息及生活閱歷,算法決策同樣離不開信息采集,而其采集信息的過程則形塑了算法的“閱歷”。不同的算法“閱歷”影響著算法決策的結(jié)果,也否定了算法決策絕對公正的可能。在算法理性外表的粉飾下,公眾對其運(yùn)作中的偏見與歧視更難察覺,這一點(diǎn)正為算法解釋與算法公開提供了正當(dāng)性理據(jù)。
其二,對抗“算法霸權(quán)”與“算法暴政”。除算法偏見外,接連發(fā)生的“大數(shù)據(jù)殺熟”則是算法設(shè)計者故意為之的“算法暴政”。“算法暴政”賴以生存的土壤是“算法黑箱”,③打開“算法黑箱”正是摒除“算法暴政”的有效路徑。“黑箱”一語意指從外部無法探知內(nèi)里的系統(tǒng),“算法黑箱”隱喻的則是公眾不得而知的算法自動化決策過程。這意味著個人與數(shù)據(jù)寡頭間存在著嚴(yán)重的信息不對稱現(xiàn)象,正是這一現(xiàn)象誘發(fā)了數(shù)據(jù)寡頭與個人之間的地位失衡。④決策以信息為基礎(chǔ),充足的信息有助于作出合理的決策,信息劣勢則會嚴(yán)重影響結(jié)論的判斷。欲破除數(shù)據(jù)寡頭與個人之間的失衡局面,當(dāng)務(wù)之急便是通過算法解釋權(quán)化解雙方的信息不對稱困境。
算法解釋權(quán)的設(shè)置體現(xiàn)著以權(quán)利制約權(quán)力的控權(quán)邏輯。在數(shù)字社會中,算法成為法律,代碼成為規(guī)則,代碼為人的行為提供指引并設(shè)定限制。在傳統(tǒng)法域中,只有在民主的前提下規(guī)則才具有合法性⑤,而自動化決策算法卻從未聽取過民意,它以技術(shù)中立之名堂而皇之地統(tǒng)治著市民社會。自動化決策技術(shù)已然異化為算法權(quán)力,在公法理論中,權(quán)力具有無限擴(kuò)張的特質(zhì),沒有外力的限制將極易造成權(quán)力的濫用,誠如孟德斯鳩之語:“一切權(quán)力都易被濫用……直至遇到界限才會休止”①。因此,權(quán)力的制衡不可或缺,無論是以權(quán)力制約權(quán)力的權(quán)力分置與制衡,還是以權(quán)利制約權(quán)力的人民主權(quán)學(xué)說,都在致力于把權(quán)力關(guān)進(jìn)制度之籠。在數(shù)字社會中,算法權(quán)力同樣存在著濫用的風(fēng)險,賦予受算法影響者解釋請求權(quán)也因此成為制約算法霸權(quán)的應(yīng)有之義。
(二)算法控制者對算法保密的現(xiàn)實(shí)需要
其一,以專利制度保護(hù)算法的局限性。算法在尋求專利制度保護(hù)時面臨著較大困難。算法是一種為解決特定問題而設(shè)計的有限且明確的操作步驟,從另一個角度解讀,算法也是一種智力活動的規(guī)則與方法——而這正是世界各國專利制度排除保護(hù)的客體之一,《中華人民共和國專利法》第25條也明文規(guī)定其不受保護(hù)。另一方面,較商業(yè)秘密保護(hù)模式而言,算法的專利保護(hù)模式具有明顯的局限性:(1)專利申請周期較長。對于日新月異的數(shù)字經(jīng)濟(jì)而言,專利保護(hù)存在嚴(yán)重的滯后性;(2)專利具有公開性。尋求專利保護(hù)意味著為了換取法定期間內(nèi)的專有保護(hù),算法控制者必須將其開發(fā)的算法向全社會公開,對于以算法為核心競爭力的公司而言并非上策。
其二,商業(yè)秘密是保護(hù)算法的重要途徑。一項調(diào)查報告顯示,計算機(jī)與電子行業(yè)的眾多企業(yè)均偏好商業(yè)秘密保護(hù)模式,明確表示較之于專利、商標(biāo)與版權(quán)制度,商業(yè)秘密保護(hù)模式更為重要。②在數(shù)字社會中,這一偏好自然也反映在算法領(lǐng)域,算法主要表現(xiàn)為源代碼與目標(biāo)代碼,源代碼到目標(biāo)代碼的轉(zhuǎn)化是算法控制者為源代碼尋求商業(yè)秘密保護(hù)的技術(shù)措施——基于反向工程的難度與成本,轉(zhuǎn)化后的目標(biāo)代碼難以復(fù)原為源代碼,源代碼的秘密性和保密性均得以實(shí)現(xiàn)。以商業(yè)秘密形式保護(hù)算法使信息算法控制者能夠在市場競爭中擁有并保持獨(dú)特的競爭力。
其三,一旦公開即不復(fù)存在的“秘密性”。秘密性是商業(yè)秘密受法律保護(hù)的必備要件,要求該技術(shù)信息不為公眾所知悉。在此要求下,商業(yè)秘密隨時都可以被創(chuàng)造,也隨時都可能會滅失。在他人獨(dú)立研發(fā)與反向工程的情形下,商業(yè)秘密的取得與披露不僅不會侵犯原持有人的權(quán)益,甚至?xí)蛐畔⒌呐抖箼?quán)益不復(fù)存在。簡言之,秘密性描述的是一種事實(shí)狀態(tài),這種狀態(tài)一旦遭到破壞就不可能恢復(fù),失去秘密性也將失去受商業(yè)秘密制度保護(hù)的基礎(chǔ)。因此,算法持有人對其以商業(yè)秘密形式保護(hù)的算法必須謹(jǐn)慎保密。
四、算法解釋與商業(yè)秘密的沖突化解
《個保法》的出臺意味著我國算法解釋規(guī)則初步落成,而算法解釋權(quán)的行使卻面臨著商業(yè)秘密制度的阻礙。面對二者的沖突,目前理論界和實(shí)踐中存在“非黑即白”的做法,也存在莫衷~是的情況,為肅清學(xué)界爭議,為司法作出明確指引,需要提出一個合理的化解方案。
(一)“非黑即白”思路的批判
有學(xué)者對算法解釋權(quán)持否定態(tài)度,認(rèn)為其可能泄漏商業(yè)秘密并為數(shù)據(jù)安全帶來隱患,也可能會抑制相關(guān)投資與研發(fā)。③也有學(xué)者強(qiáng)調(diào)權(quán)利應(yīng)分配給最珍視它們的人,在受算法影響者和算法控制者之間,后者是更珍視算法的人。④事實(shí)上,上述對商業(yè)秘密泄露的擔(dān)心并不成立。商業(yè)秘密在任何時代都存在泄露風(fēng)險,值得思考的問題是,設(shè)置算法解釋權(quán)必然會加劇商業(yè)秘密泄露嗎?需要澄清的是,本文主張的算法解釋并非算法透明,并不需要公開算法本身,解釋后亦可要求請求解釋者簽訂保密協(xié)議,認(rèn)為此時的泄露風(fēng)險驟然加劇似乎并無說服力。其次,在波斯納權(quán)利配置理論下,“算法黑箱”為公眾帶來了“算法歧視”等損害人格尊嚴(yán)與平等的嚴(yán)重后果,公眾對于破除“算法黑箱”的迫切程度絲毫不亞于算法控制者對算法保密的需求。因此,此處并不能輕易判斷何者是更珍視該權(quán)利的人。另外,法律為商業(yè)秘密提供的保護(hù)原本就是有限的、相對的,為保護(hù)商業(yè)秘密而放棄整個算法解釋規(guī)則將背離法律保護(hù)商業(yè)秘密的初衷。
對立意見則認(rèn)為商業(yè)秘密應(yīng)讓位于代表公共利益的透明機(jī)制與問責(zé)機(jī)制。①事實(shí)上,認(rèn)為商業(yè)秘密保護(hù)當(dāng)然應(yīng)讓位于算法解釋義務(wù)的觀點(diǎn)亦有偏頗。不應(yīng)想當(dāng)然地將商業(yè)秘密歸于企業(yè)私益,將算法解釋歸于公共利益,并直接得出后者優(yōu)于前者的結(jié)論。誠然,算法解釋請求權(quán)背后蘊(yùn)含著民主、自由等深層價值,與此同時,商業(yè)秘密背后也蘊(yùn)含著相應(yīng)的深層價值——激勵創(chuàng)新與研發(fā)、維護(hù)公平競爭的商業(yè)秩序、促進(jìn)市場經(jīng)濟(jì)的健康發(fā)展。可見,在深層維度上商業(yè)秘密保護(hù)與算法解釋義務(wù)均承載著社會公共利益,難以直接得出何者必當(dāng)向?qū)Ψ阶尣降慕Y(jié)論。
(二)算法限定解釋論之提倡:“掀開最小縫隙”理論
面對受算法影響者對算法解釋的合理訴求與算法控制者對算法保密的現(xiàn)實(shí)需要之間的沖突與張力,“非黑即白”的思路并不可取。為避免沖突激化,不宜將“算法黑箱”完全打開,而只需將其“掀開最小縫隙”,至受其不利影響者可見的程度即可,本文謂之“掀開最小縫隙”理論。
“掀開最小縫隙”理論從四個方面對算法解釋規(guī)則作出限定:前提限定、受眾限定、內(nèi)容限定與條件限定。本質(zhì)而言,算法解釋請求權(quán)的設(shè)置目的在于對抗“算法黑箱”之下滋生的偏見、歧視與暴政,“掀開最小縫隙”,至受其不利影響者可見的程度即可實(shí)現(xiàn)該目的。在比例原則與“目標(biāo)一手段”理性的方法論下,實(shí)現(xiàn)目的應(yīng)追求手段的妥當(dāng)性、必要性與均衡性,而“掀開最小縫隙”理論正是在最小犧牲商業(yè)秘密的情形下實(shí)現(xiàn)算法解釋規(guī)則立法目的的最佳方案。②
1.算法解釋的前提限定:對個人權(quán)益有重大影響
在“掀開最小縫隙”理論下,對算法解釋權(quán)的行使前提作出限定,能夠有效縮小其與商業(yè)秘密保護(hù)之沖突。在學(xué)術(shù)界最初的權(quán)利構(gòu)想中,算法解釋權(quán)的行使條件并未受到足夠關(guān)注,該權(quán)利也隨之被設(shè)計成一項行使條件較為寬泛的權(quán)利。例如,有學(xué)者認(rèn)為無論在公法還是私法領(lǐng)域,受算法決策不利影響的相對人都有權(quán)要求算法解釋。③有學(xué)者從權(quán)利內(nèi)容等方面闡釋算法解釋權(quán),但未提及權(quán)利的行使條件是否應(yīng)受限制。④值得肯定的是,《個保法》第24條將行使算法解釋權(quán)的前提限定為“對個人權(quán)益有重大影響”,將日常生活中對個人權(quán)益影響不大的場景排除在外,這能夠在實(shí)踐層面有效縮小算法解釋與商業(yè)秘密的沖突范圍,實(shí)現(xiàn)第一步的沖突降級。
那么何謂“對個人權(quán)益有重大影響”?解釋論上的從嚴(yán)把控顯然有助于化解沖突,但同時也意味著權(quán)利行使條件偏向嚴(yán)苛。回溯立法過程可尋得立法者意志上的蛛絲馬跡,盡管“探求立法者意志不是解釋的最終目標(biāo),但如果因此認(rèn)為立法者的調(diào)整意圖及規(guī)范立場在解釋上完全沒有意義,那就走得太遠(yuǎn)了”①。從《中華人民共和國個人信息保護(hù)法(草案一次審議稿)》、《中華人民共和國個人信息保護(hù)法(草案二次審議稿)》(以下簡稱“一審稿”“二審稿”)到法律正式出臺,此處的表述發(fā)生了微妙的變化:“一審稿”稱“個人認(rèn)為自動化決策對其權(quán)益造成重大影響的,有權(quán)要求…”,而“二審稿”與正式立法則表述為“通過自動化決策方式作出對個人權(quán)益有重大影響的決定,個人有權(quán)要求…”。可見,“一審稿”訴諸個人主觀標(biāo)準(zhǔn),只要個人認(rèn)為該算法關(guān)涉其重大權(quán)益即可行使算法解釋權(quán)。“二審稿”轉(zhuǎn)而訴諸客觀標(biāo)準(zhǔn),個人認(rèn)為算法關(guān)涉其重大權(quán)益不再是行使權(quán)利的充分條件,在一定意義上實(shí)現(xiàn)了權(quán)利行使門檻的提高。
在“重大”二字的解釋上,有學(xué)者對算法做出了評價類算法與非評價類算法的區(qū)分,提出所有的評價類算法對用戶都具有經(jīng)濟(jì)或法律上的直接影響,均應(yīng)適用算法解釋請求權(quán)。②按照上述標(biāo)準(zhǔn),涉及交易價格與交易條件的算法均屬于評價類算法。事實(shí)上,此類算法并非都會對個人權(quán)益造成重大影響。就交易價格而言,需要考察具體的交易金額、交易客體、交易差額及比率等因素,若交易金額不高、差額不大、差額占比較低,則不宜適用算法解釋請求權(quán)。而交易條件則是準(zhǔn)人式的,可能直接產(chǎn)生拒絕交易的嚴(yán)重后果,因此更容易“對個人權(quán)益造成重大影響”。但并不能一概而論,當(dāng)出現(xiàn)被算法拒絕交易的情形時,仍應(yīng)考察拒絕交易者的市場占有率。若其市場占有率不高,則用戶仍有較大選擇余地,不宜歸人“對個人權(quán)益造成重大影響”之情形。
2.算法解釋的受眾限定:從社會公眾到利益相關(guān)者
算法解釋的受眾是整體的社會公眾還是個案中的利益相關(guān)者?這在解決算法解釋與商業(yè)秘密的沖突問題上至關(guān)重要。事實(shí)上,上述兩種方案是兩種不同程度的黑箱打開方式,前者程度更高,要求算法控制者向整個社會解釋涉嫌歧視或偏見的算法,謂之算法透明;后者程度較低,只需向個案中特定相對人履行解釋義務(wù),是狹義上的算法解釋。我國《個保法》第24條第1款要求“個人信息處理者…應(yīng)當(dāng)保證決策的透明度”,在第3款中又規(guī)定“…個人有權(quán)要求個人信息處理者予以說明”,在語義上存在一定的模糊性。第3款屬于狹義的算法解釋;但第1款中的措辭又呈現(xiàn)出對算法透明的追求。將算法解釋的受眾厘定為社會公眾時,算法透明得以實(shí)現(xiàn),算法黑箱被徹底打開,而技術(shù)信息的秘密性也隨之滅失,算法解釋制度與商業(yè)秘密保護(hù)的沖突將被激化;若將算法解釋的受眾限定為個案中的利益相關(guān)者,算法黑箱將被打開一條縫隙,僅特定相對人可見,算法解釋與商業(yè)秘密的沖突將得以緩和。可見,第二種方案是解決沖突的優(yōu)選。此外,在尋求“算法黑箱”的破解方案時,在比例原則的方法論之下應(yīng)考慮手段的妥當(dāng)性與必要性。妥當(dāng)性要求手段必須有助于目標(biāo)的達(dá)成,此處無論是算法透明還是狹義的算法解釋均有助于破除“算法黑箱”,因此均可通過妥當(dāng)性標(biāo)準(zhǔn)的檢驗(yàn):在必要性方面,應(yīng)當(dāng)盡可能在最小犧牲商業(yè)秘密的情形下實(shí)現(xiàn)對“算法黑箱”的破解。因此,僅需“打開最小縫隙”的方案顯然更具合理性。
3.算法解釋的內(nèi)容限定:從算法本身到邏輯
在算法解釋的具體內(nèi)容方面,算法控制者向受算法影響者解釋說明的內(nèi)容究竟是算法本身還是算法的運(yùn)行邏輯?《個保法》第24條在此處語焉不詳,僅稱“個人有權(quán)要求個人信息處理者予以說明”,為說明的內(nèi)容留下了較大的解釋空間。在“掀開最小縫隙”理論下,將說明的內(nèi)容限定為算法運(yùn)行邏輯,避免將算法本身告知請求解釋者,是消解算法解釋與商業(yè)秘密沖突的釜底抽薪之法。從算法控制者的角度出發(fā),作為商業(yè)秘密的算法是其保持核心競爭力的重要工具,算法控制者顯然不愿將算法告知他人。作為替代方案,向受算法影響者解釋算法運(yùn)行邏輯,能夠在一定程度上避免直接告知商業(yè)秘密的麻煩。從受算法影響者的角度出發(fā),由于自動化決策算法有著較高的技術(shù)壁壘,普通人無法理解高深的數(shù)學(xué)模型與技術(shù)知識,獲知算法本身與技術(shù)細(xì)節(jié)毫無意義。受算法影響者想要知道且能夠理解的是算法在作出決策時依據(jù)了何種個人信息、這些信息在決策中占據(jù)多少權(quán)重、算法依據(jù)何種運(yùn)行邏輯。受算法影響者與算法控制者在此處不謀而合,將算法解釋權(quán)的解釋內(nèi)容限定為算法運(yùn)行邏輯等因素,既有助于受算法影Ⅱ向者的理解與算法解釋制度的目的達(dá)成,也能有效化解算法解釋與商業(yè)秘密之間的正面沖突。
“算法解釋權(quán)”的稱謂使人易將算法說明的對象誤認(rèn)為“算法”,事實(shí)上,算法說明的對象是“決定”。從《個保法》第24條第3款的本文出發(fā),聯(lián)系前句“通過自動化決策方式作出…的決定,個人有權(quán)要求…予以說明”。可見,在立法者心目中,個人享有的權(quán)利是要求個人信息處理者說明“算法作出的決定”。應(yīng)如何說明這一決定?在齊佩利烏斯的《法學(xué)方法論》中,法律的解釋當(dāng)通過“辯論”確定其恰當(dāng)?shù)恼Z義,而法律目的則是其中重要的論據(jù),法律解釋應(yīng)當(dāng)與立法者對法律目的及其合目的性的決定保持一致。①循該思路,《個保法》第24條第1款即表明了該條的目的“保證決策的透明度和結(jié)果公平、公正”,欲實(shí)現(xiàn)算法決策對請求解釋者的透明度,就需要算法決策能夠被理解,即用平實(shí)語言描述出算法的運(yùn)行邏輯而非告知算法本身。因此,在《個保法》第24條的語境下應(yīng)當(dāng)將算法解釋權(quán)的解釋內(nèi)容限定為算法的運(yùn)行邏輯。
4.算法解釋的條件限定:請求解釋者的初步證明責(zé)任
在“掀開最小縫隙”理論下,為請求解釋者設(shè)置初步證明責(zé)任是消減算法解釋與商業(yè)秘密之沖突的程序法手段。從問題的根源出發(fā),設(shè)定算法解釋權(quán)的目的是通過打開算法黑箱的方式消除算法歧視等負(fù)面后果。然而,從算法黑箱到算法歧視之間有一個邏輯上的跳躍——須知算法黑箱并非必然帶來負(fù)面后果。黑箱容易給人帶來負(fù)面聯(lián)想,如暗箱操作在漢語中帶有違反法律或道德的意味,這是因?yàn)楹谙涞拇_帶來了出現(xiàn)負(fù)面行為與負(fù)面后果的可能性——是可能性而并非必然。如學(xué)者錢德一針見血地指出,“人腦才是終極黑箱”②,人腦中的決策過程毫不透明,但這并不意味著“人腦黑箱”的決策結(jié)果一定是負(fù)面的。因此,僅當(dāng)受算法影響者對算法黑箱帶來的負(fù)面后果履行了初步證明責(zé)任時才可以申請獲得算法解釋。所謂初步證明責(zé)任,即當(dāng)受算法影響者提出解釋說明之要求時,應(yīng)當(dāng)提出其受到自動化決策算法不利影響的初步證據(jù)。該證明責(zé)任應(yīng)包含兩方面內(nèi)容,一是初步說明該算法決策對個人權(quán)益具有重大影響;二是初步證明該算法決策的結(jié)果使請求解釋者受到了不利影響,如支付了不合理的高價、在交易條件上不合理的差別待遇。該證據(jù)只需是初步的、個人力所能及的,否則算法解釋規(guī)則將形同虛設(shè);若無初步證明責(zé)任,則受算法影響者可以任意地向算法控制者提出解釋算法的要求,這無疑會為算法控制者、行政機(jī)關(guān)、司法機(jī)關(guān)增加不必要的負(fù)擔(dān)與滋擾,也會將算法解釋規(guī)則與商業(yè)秘密制度之間的沖突激化。
盡管《個保法》第24條并未明確規(guī)定用戶的初步證明責(zé)任,但回顧《個保法》的制定歷程即可理解這一點(diǎn)已蘊(yùn)含其中。《個保法》“一審稿”第25條第1款規(guī)定:“個人認(rèn)為自動化決策對其權(quán)益造成重大影響的,有權(quán)要求…”“二審稿”改稱:“通過自動化決策方式作出對個人權(quán)益有重大影響的決定,個人有權(quán)…”。將是否受到重大影響的判斷從用戶主觀標(biāo)準(zhǔn)改為客觀標(biāo)準(zhǔn),將判斷權(quán)力收歸中立的裁判者享有,為用戶承擔(dān)初步證明責(zé)任提供了制度依據(jù)。
(三)商業(yè)秘密制度的闡釋與運(yùn)用
在算法解釋與商業(yè)秘密的沖突解決問題上,不能單靠對算法解釋規(guī)則的修正,還需要對商業(yè)秘密制度進(jìn)行澄清與運(yùn)用。
其一,請求解釋者的保密協(xié)議簽訂義務(wù)。為請求解釋者設(shè)定保密協(xié)議的簽訂義務(wù)對于化解算法解釋與商業(yè)秘密的沖突具有重要意義,且能夠?qū)崿F(xiàn)請求解釋者與算法控制者的帕累托最優(yōu)(Pareto Optimality)。從請求解釋者的角度看,簽訂保密協(xié)議對于善意請求者而言并無損失——善意請求者只是為了確認(rèn)自己是否受到自動化決策的不公對待,在獲知算法運(yùn)行邏輯與因素權(quán)重后并無泄露商業(yè)秘密的需求。從算法控制者的角度看,保密協(xié)議的簽訂使請求解釋者負(fù)有保密義務(wù),對于泄露商業(yè)秘密者,算法控制者能夠依據(jù)保密協(xié)議向其追究責(zé)任,自身風(fēng)險被降到最低。概言之,保密協(xié)議的簽訂義務(wù)并未使任何一方的情況變壞(算法控制者和請求解釋者均無損失),但卻使得至少一方的情況變得更好(算法控制者面臨的風(fēng)險被降低,情況變好),實(shí)現(xiàn)了經(jīng)濟(jì)學(xué)中帕累托最優(yōu)的理想狀態(tài)。賦予請求解釋者算法秘密的獲知權(quán)利,同時設(shè)置保密協(xié)議的簽訂義務(wù),也與公平原則的精神相契合。公平原則的內(nèi)涵可從兩個方面理解:其一,對于一方當(dāng)事人而言,其享有的權(quán)利與負(fù)擔(dān)的義務(wù)應(yīng)當(dāng)相適應(yīng);其二,對于各方當(dāng)事人而言,彼此的權(quán)利與義務(wù)應(yīng)當(dāng)合理、均衡、對等。在算法解釋與商業(yè)秘密的沖突困局中,請求解釋者與算法控制者權(quán)利與義務(wù)的厘定也應(yīng)當(dāng)遵循公平原則。目前,《個保法》第24條已經(jīng)為請求解釋者設(shè)置了獲取算法解釋的權(quán)利,算法控制者相應(yīng)地負(fù)有說明義務(wù),并面臨商業(yè)秘密的泄露風(fēng)險,此時雙方權(quán)利義務(wù)并不均衡。在此情形下,應(yīng)當(dāng)為請求解釋者設(shè)置保密協(xié)議的簽訂義務(wù),使雙方各得其所。
其二,秘密性要件的澄清。在算法解釋與商業(yè)秘密的沖突中,一個令人憂慮的情形是商業(yè)秘密持有者因履行告知義務(wù)而使其商業(yè)秘密“失密”。秘密性一旦喪失即不復(fù)存在,算法也因此徹底失去獲得商業(yè)秘密保護(hù)的資格。事實(shí)上,這是對商業(yè)秘密構(gòu)成要件的誤解,闡明秘密性的真意,這一憂慮即可消除。秘密性是指特定技術(shù)信息或經(jīng)營信息不為公眾所知悉。那么何謂“不為公眾知悉”?《最高人民法院關(guān)于審理侵犯商業(yè)秘密民事案件適用法律若干問題的規(guī)定》第3條以反向列舉的方式進(jìn)行了明確,排除了四種“為公眾所知悉”的情形:一般常識與行業(yè)慣例、通過觀察現(xiàn)有產(chǎn)品可直接獲知的簡單技術(shù)信息、已公開出版、已在公開展會等場所公開,并設(shè)置了兜底條款——所屬領(lǐng)域相關(guān)人員從其他公開渠道可獲得該信息。據(jù)此,可為“不為公眾知悉”下一個反向的定義,即該信息不為其所屬領(lǐng)域的相關(guān)人員普遍知悉或者不能從公開渠道容易獲得。可見,秘密性并不要求商業(yè)秘密完全不可能獲得,商業(yè)秘密也并非不能被小范圍內(nèi)的人知悉。算法說明義務(wù)不同于算法透明,前者僅需將算法黑箱掀開一條縫隙,使特定相對人可見,算法秘密仍然不可從公開渠道獲得。因此,向受算法影響者履行算法說明義務(wù)并不會造成秘密性滅失。
結(jié)語
“黑箱”本身并不必然代表邪惡,但當(dāng)其被用于與公民基本權(quán)利息息相關(guān)的領(lǐng)域,或在事實(shí)上成為統(tǒng)治市民生活的權(quán)力時,就應(yīng)當(dāng)如同一切公權(quán)力一般接受公眾監(jiān)督。算法解釋權(quán)的設(shè)置能夠?yàn)槭芩惴ㄓ绊懻邔顾惴ò詸?quán)提供有力武器,卻也面臨著商業(yè)秘密制度的強(qiáng)大阻礙。在算法解釋與商業(yè)秘密的較量中,不應(yīng)因商業(yè)秘密制度的存在而全然地否定算法解釋規(guī)則,亦不應(yīng)將算法解釋權(quán)當(dāng)然地凌駕于商業(yè)秘密之上。應(yīng)對沖突,秉持“掀開最小縫隙”理論對算法解釋規(guī)則進(jìn)行闡釋與修正,對商業(yè)秘密制度進(jìn)行澄清與運(yùn)用,既能擺脫“算法黑箱”困局,又能較大程度地避免商業(yè)秘密的喪失與泄露,實(shí)現(xiàn)算法解釋與商業(yè)秘密的沖突化解。