【摘要】人工智能技術在國家治理現代化的過程中有著廣泛的應用前景。通過打造統一的政府信息平臺,并在此基礎上借助機器分析海量數據,可以為政府決策提供精準的信息支持。同時,更多的動態數據掌握在平臺企業手中,公共信息與市場信息的互通和共享是實現精準治理的前提條件之一。在打造好大數據基礎設施的前提下,人工智能技術可以給治理工作帶來許多創新手段,比如社會信用治理和預測性執法。同時,我們也應當看到這些新的治理手段帶來的結構性變化以及對公民權利的沖擊。因此,法治保障也應當緊緊跟上技術發展的步伐。
【關鍵詞】人工智能 大數據 精準治理 法治 權利
【中圖分類號】D63 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2018.10.004
物聯網時代的到來使得數據量呈幾何級數增長,存儲技術的迅猛發展在提升數據存儲能力的同時極大地降低了數據存儲的成本,量子計算機和并行計算的出現使計算能力得到幾何級數的提升,智能算法不僅使數據處理和數據分析變得更加精準,還進一步以大數據為學習素材而迅速提升著機器的智能。這一系列技術領域的發展首先改變著生產力和生產關系:傳感器、智能算法和執行器的結合催生了3D乃至4D打印技術,改變著制造業的生產模式,還使得無人駕駛汽車全面取代人類駕駛的時代日益迫近;同樣的技術也已經被應用到農業領域,精準農業定點解決方案已經成為新的發展方向。如果說機器取代人的體力勞動是工業革命以來一直延續的趨勢,那么人工智能在醫療、金融和法律等服務業領域日益廣泛的應用則是這一輪技術革命的新特點。精準醫療、金融科技(FinTech)、預測式執法日漸成為社會生活的現實。去中心化的區塊鏈技術來勢洶洶,其鼓吹者號稱要消滅交易環節的所有的中介,由此,銀行和律師將首當其沖地被取代。在改變人類社會的經濟基礎的同時,這一系列信息技術也改變著上層建筑,算力正在成為與政治權力競爭的新的權力形態,算法正在侵蝕法律的領地。面對這些遠遠超出技術范圍的深刻而復雜的變化,國家治理的頂層設計、底線思維和中層機制顯然都需要全方位的調整。一方面,技術為治理提供了新的工具,使得治理有可能變得更加精準和智能化;另一方面,技術也增加了治理的難度,使主權國家面對著商業力量、境外大數據掌控者和黑客在影響和控制人的行為方面的多重競爭。本文旨在從法律的角度厘清人工智能技術給國家治理現代化帶來的機遇和挑戰。文章的第二部分梳理智能化的精準治理的可能模式,第三部分討論如何把這種新的治理模式限定在法治的框架之內。第四部分是結論。
人工智能與精準治理
人工智能技術是計算機技術發展的新階段。以往的計算機編程模式的特點是將復雜問題簡單化從而寫入代碼并且讓軟件執行編程者所設定的任務,神經網絡、遺傳算法等智能算法使機器具有了自主學習的能力,從而能夠直接處理復雜問題,在輸入端越來越接近人類認知界面,比如可以理解人類自然語言,能夠識別圖像和語音,在輸出端可以提供準確的判斷、預測乃至決策,而不是簡單地羅列搜索結果或計算結果。機器甚至已經能夠自我編程:劍橋大學和微軟的Deepcoder[1]、彭博和英特爾的AI Programmer[2]以及谷歌的AutoML[3]都是已有的自我編程系統。這些自我編程算法都是結合了神經網絡或遺傳算法架構和網絡搜索,從人類程序員的編程經驗中去學習,從而在特定場景中達到超過人類程序員的編程水平。正如業內人士所言:“授計算機以數據,夠它用一毫秒;授計算機以搜索,夠它用一輩子。”隨著可供機器學習的各類數據的迅猛增長,計算機在人類涉足的各個專業領域都將獲得超越人類的“智能”。對于這種正在迫近的未來圖景,樂觀主義者認為這將極大地強化人類能力,使人類最終得以借助數碼技術超越生物學規律,迎來智能飛躍的“奇點”[4];悲觀主義者則認為這意味著機器將成為人類無法控制的力量,人工智能對人類社會構成了“最大的生存威脅”,對人工智能的不加約束的應用就好像是在“召喚魔鬼”。[5]
無論是對人工智能的未來發展前景持樂觀主義還是悲觀主義的立場,都不得不面對這種技術迅猛發展和廣泛應用的現實。技術是導致經濟——社會變革的重要變量之一,而且是不可逆轉的變量。法國哲學家德布雷寫道:“歸根到底,唯一跳出星球運轉的循環意義外的革命不是政治革命而是技術革命,因為只有它們才是不復返的。有了電流后就不再用蠟燭,有了汽輪船就不再用帆船。然而有了十月革命還是回到了東正教。”[6]率先完成第一輪工業革命的國家利用船堅炮利的優勢將東方文明古國變成自己的殖民地,這是盡人皆知的歷史。同樣,在新一輪信息技術革命中取得優勢地位的國家如何利用這種技術來影響他國政治,也是一個不斷出現新鮮實例的當代史。比如,2009年古巴移動(Cubacel)的一名員工偷偷摸摸地把50萬個古巴手機用戶的號碼發給了一位在西班牙定居的古巴移民,這位海外古巴人隨后免費把這些數據交給了美國國際開發署(USAID),該機構又把數據給了自己的承包商Creative Associates International。這家營利性公司隨后“創造性”地建立了一個自動化的手機短信發送平臺,先向古巴境內的這些手機用戶免費發送足球、娛樂和天氣信息。等到訂戶數量穩定下來之后,再向他們發送政治信息。用美國國際開發署官員的話來說,這樣做的目的是“重新調整國家與社會之間的權力平衡”。換句話說,這是為了在古巴境內煽動政治動亂,促成“古巴之春”。這套被稱為ZunZuneo的古巴版twitter系統應用智能算法來分析用戶對不同類型信息的反應,將他們歸類為“支持革命的”“不關心政治的”和“反對革命的”,并且針對不同類別的人發送不同的信息。[7]它一直運轉到2012年中,因為經費用完才終止。
層出不窮的實例讓我們看到,面對人工智能的大潮,如果不去主動掌握它、應用它,就會被它(實際上是被掌握它的國家、商業組織和個人)所掌控和利用。馴服一匹烈馬的辦法不是擋在它面前,而是奮力騎上它,在駕馭的過程中馴服它,同樣的道理也適用于人工智能這種新技術。要使人工智能成為國家治理現代化的技術手段之一,需要理解它的性質和可能應用場景。
智能政務的頂層設計。在提到人工智能的時候,許多人會想到機器人或人形機器,但有形的智能機器(無論是不是人形)都只是人工智能的終端、外設或執行器,而不是人工智能的“智能”所在。人工智能研究的先驅者之一馬文·明斯基曾經指出:人工智能就是“讓機器能夠做人類需要運用智能來做的那些事情的科學。”[8]這是一個功能主義的定義,它覆蓋了可以實現“讓機器具備智能”這一功能的全部科學和技術手段。實際上,這一功能主要是依靠算法(即軟件或程序)來實現的。如果要用機器人來打比方,我們可以說“如今的算法是擁有自主適應和學習能力的數碼‘機器人”[9]。從這個意義上來理解人工智能,就可以發現它早已進入我們的日常生活。從百度到淘寶,從微信到攜程,各個平臺企業都在利用海量的用戶數據訓練自己的“數碼機器人”,然后再用這種無形的“機器人”來分析用戶數據、預測用戶行為、向用戶投放量身定制的廣告和產品推薦。智能算法所提供的個性化服務不一定都是符合用戶利益的,“大數據殺熟”“搶票軟件”等都是商家運用智能算法利用客戶弱點從而使其利益最大化的新現象。政府必須服務于公共利益,在將人工智能這種蘊含著不可控風險的技術應用于國家治理工作之前,需要先進行可行性研判。
世界各主要國家都已經針對人工智能技術在政府工作中的可能應用前景進行過縱觀全局式的初步分析。比如,美國奧巴馬政府曾經委托國家科技委員會全面研究了如何做好準備迎接人工智能技術所主導的未來,其中對政府提出了這樣幾項具體建議:(1)加大對人工智能基礎和應用研究的投入;(2)充當人工智能技術及其應用的早期客戶;(3)支持前沿技術項目并提供真實世界場景中的試驗場所;(4)強化公眾獲得數據的能力;(5)設立人工智能領域的創新獎項,激勵技術發展;(6)識別并迎接“巨大的挑戰”,為人工智能發展確立雄偉而可實現的目標;(7)營造一方面繁榮創新另一方面保護公眾免受傷害的政策、法律和規制環境。這份報告同時指出,美國聯邦政府應用人工智能技術來改善公共服務的能力受到各部門接觸創新的機會、自身資源和研發能力以及與私營部門創新團隊的關系等因素的影響,呈現出極度不均衡的狀態。有些部門,比如國防部下屬的國防高級研究計劃局(DARPA)和國家醫療衛生研究院都擁有數百億美元的研發預算,而勞動部則只有1400萬美元的預算,這會導致各部門的“智能化”程度嚴重失衡。[10]
我國政府也陸續發布了《中國制造2025》(2015年5月)、《國務院關于積極推動“互聯網+”行動的指導意見》(2015年7月)、《機器人產業發展規劃》(2016年4月)、《“互聯網+”人工智能三年行動實施方案》(2016年5月)、《新一代人工智能發展規劃》(2017年7月)和《促進新一代人工智能產業發展三年行動計劃(2018~2022)》(2017年12月)等一系列基于宏觀戰略研究的政策性文件。其中《新一代人工智能發展規劃》在“推進社會治理現代化”部分提出要“圍繞行政管理、司法管理、城市管理、環境保護等社會治理的熱點難點問題,促進人工智能技術應用,推動社會治理現代化”。此外,在“利用人工智能提升公共安全保障能力”部分也指出了社會綜合治理、新型犯罪和反恐等需要應用人工智能技術的重點領域。教育、醫療、養老等迫切民生需求領域也被提及,作為人工智能技術亟需進入的重點領域,以便“為公眾提供個性化、多元化、高品質服務”[11]。但這一類政策性文件側重于營造人工智能技術和產業發展的支持性制度環境,而對技術應用的現實制約因素和應用過程中蘊涵的風險和不確定性缺乏分析。隨著人工智能技術的進一步發展以及應用場景的不斷增加,風險防范和法律規制應當成為頂層設計的重要組成部分。
政務數據基礎平臺。如上所言,人工智能的核心是機器學習,而機器學習的素材是大數據。雖然AlfaZero所使用的強化學習技術突破了AlfaGo依賴人類經驗的深度學習方法,在只學習規則而不學習棋譜的情況下通過自我博弈完敗了基于大數據的機器學習,但這種技術目前只適用于規則明確、信息完備的博弈場景,還不能用來解決人類社會中的復雜性問題。尤其是政府工作中所使用的人工智能,不能離開人類經驗和人類需求去尋找數學上完美的優化解決方案,因此,匯集各類政府工作信息的大數據平臺是政務智能技術開發的前提條件。
早在人工智能成為大眾關注的熱點概念之前,我國已經全面展開了政府工作信息化(即電子政務)的建設。電子政務,是指國家機關在履行政府職能的過程中全面應用現代信息技術、網絡技術以及辦公自動化技術等進行辦公、管理和為社會提供公共服務的一種工作方式。[12]人工智能等新一代信息技術促使電子政務向“智慧政府”發展。[13]如果說電子政務發展的早期主要是利用互聯網作為政府與公民之間的信息溝通渠道從而解決信息不對稱問題、實現政府信息公開、方便群眾網上辦理注冊登記、報稅、繳費等簡單業務的話,智慧政府所應用的信息技術則不再只是中立和被動的平臺,而是能夠學習、分析、預測甚至決策的智能算法。但是,智能算法的分析、預測準確性取決于數據的數量,大數據是智慧政府的基礎設施。
目前,我國尚未建成統一的政務信息平臺,政府信息存在分散化和區隔化的特點。以司法信息為例,如今,無論律師、檢察官還是法官,大多是用計算機來完成文書寫作,但各部門還是要求提交紙面材料。隨著智慧檢務、智慧法院建設的開展,又要求對辦案流程中的各種文書進行掃描存入系統,這不僅造成了很大的資源浪費增加了行政成本,而且公安、檢察院和法院各自建設自己的數據庫,整個辦案流程中的數據無法實現整合。除了部門區隔外,各地方的政務和司法數據是相互分割、無法共享的。同時,不同的政府部門以及地方政府使用的可能是不同服務商所提供的政務云服務,這進一步給數據整合造成了困難。如此零散的數據限制了智能算法學習治理經驗的素材,使人工智能技術在政府工作中的應用大為受限。因此,建設智慧政府的前提條件是打破數據壁壘,實現政府信息的縱向與橫向整合,打造政務信息平臺。
人工智能時代的“編戶齊民”。對人口和財產進行統計、認證、分類和評分是國家治理的基礎,其中的認證能力被學者稱為“國家基礎能力的基礎”。[14]“所謂‘認證就是在數據與人或物之間建立一一對應的關系。”[15]現代社會人、財、物的快速流動給認證帶來了很大的挑戰,同一個人在不同的場景會以不同的假名、行為方式和表達方式而出現,乃至有人戲稱“在互聯網上沒人知道你是一條狗。”但人工智能技術為互聯網時代的“編戶齊民”提供了新的技術手段,使“社會計算化”成為可能。“所謂‘社會的計算化,是指隨著互聯網的普及,越來越多的社會活動都通過互聯網進行,人類因此而在互聯網上留下海量而且相互關聯的數據足跡,基于這些數據足跡,大量原本不可追蹤、檢索、匯編、計量和運算的社會活動,變得可以追蹤、檢索、匯編、計量和運算。”[16]與過去由政府主導的認證工作不同,如今的社會計算化主要是由商業力量推動和控制的,這給治理工作帶來了新的問題。政府一方面需要與平臺企業合作來獲取數據、購買產品和服務,另一方面又需要作為企業與消費者之間的中立第三方來對企業進行監管。
由于人的大部分線上活動都不是在政府平臺上進行的,而是通過搜索引擎、購物平臺、社交網絡等由私人企業運營的商業平臺進行,這些平臺借助帳戶注冊、用戶協議和平臺管理而掌握了比政府所掌握的更多的個人數據,并且借助智能算法追蹤、匯集和分析個人行為的電子蹤跡,從而能夠對個人進行數字畫像,準確預測個人行為,并根據歷史數據對賬戶進行信用評級。從表面上看,政府掌握著個人從出生、入學、就業、婚姻、生育到死亡的全流程信息,但這些信息是靜態的、孤立的和表面化的,在實時動態性、連續性和完整性方面都遠不如商業平臺所掌握的反映個人行為軌跡的信息。政府雖然可以在行政、司法和執法的過程中要求企業提供特定的個人數據,但這種要求只能在具體個案中針對特定人物提起,而不能成為可供機器學習的大數據。而且,即使是在這種場合,也可能遭到企業以保護商業秘密或合同關系為由的拒絕。比如,蘋果公司曾經因拒絕政府要求披露用戶信息而獲得自由主義者們的普遍贊譽。2015年12月2日,美國加州圣貝納迪諾發生了美國本土自9·11之后最嚴重的恐怖襲擊,宣誓效忠“伊斯蘭國”的賽義德·法魯克(Syed Rizwan Farook)和塔什芬·馬利克(Tashfeen Malik)在開槍射殺14人、射傷20多人后被警察擊斃。聯邦調查局查獲了法魯克的iphone手機,為了獲得犯罪調查和反恐所需要的信息,它在獲得法院授權的情況下向蘋果公司發出了解鎖該手機的要求。但蘋果公司拒絕合作,公司總裁蒂姆·庫克還在公司網站上發布了一封公開信,譴責聯邦調查局的要求“破壞了我們的政府旨在保護的那種權利和自由。”[17]對蘋果公司而言,這是一次成功的公眾形象宣傳,而對于美國的國家安全和公眾的生命安全而言,這顯然不是件好事。
企業一方面以拒絕與政府合作披露用戶信息的姿態來維護自己的公眾形象,另一方面自己又偷偷摸摸地濫用著個人信息。大數據分析公司“劍橋分析”利用Facebook泄露的5000萬用戶的帳戶信息幫助特朗普競選團隊量身定制地投放政治廣告從而幫助特朗普在2016年美國總統大選獲勝的新聞,便是這方面一個現成例子。[18]
基本公共服務(包括國防和治安)領域的公、私權力關系是未來治理需要解決的首要問題。以政府為主要規制和防范對象的現有公法體系需要考慮技術革新和權力結構變化所帶來的新問題,一方面將透明、公開、程序合法、說明理由等對公權力行使者的要求延伸到實際上行使著“準公權力”的平臺企業,使算法等技術化的監控和決策手段不再是無法被問責的“黑箱”,另一方面調整傳統的公法概念(包括“公共服務”)和規制手段,以應對現時代公私合作、公私共治的普遍現象。
分類、評分和社會信用體系。機器學習的“推理”方式是基于統計學方法的歸納推理,目前的智能算法善于從海量數據中找出規律和模式。如果再由人工給不同的行為模式貼上標簽,比如反社會傾向、潛在恐怖主義分子或者政治上激進等,就可以由機器來針對某種標簽所代表的人或行為進行監控、預測,甚至自動采取“行動”(比如斷網、斷電、列入某類服務的“黑名單”,等等)。智能算法還可以根據平臺用戶的搜索記錄、購物記錄、點贊記錄等對用戶進行評分,授予不同的VIP等級和相應權限。而政府也可以利用政府信息平臺上的可得信息來對個人進行社會信用評級,確定需要重點監控的對象,甚至剝奪某些失信者的特定民事權利和自由,比如,國家發展改革委員會、中央文明辦、最高人民法院等八部門于2018年3月聯合發文,決定限制特定嚴重失信人乘坐火車。嚴重失信人包括嚴重影響鐵路運行安全和生產安全者(比如在動車組列車上吸煙或者在其他列車的禁煙區域吸煙的人)、違反稅收法規者、在財政資金管理使用領域中有弄虛作假等嚴重失信行為者等。這種讓當事人在已承擔法律規定的責任之后額外背負“失信”標簽并承受相應后果的做法是否符合立法保留、比例原則和正當程序原則,這是法學界關心的問題。
如果應用得當,人工智能可以使信用評分更加精準、動態化和語境化。傳統的個人信用和風險評分是商業銀行和保險公司針對個人信貸或保險客戶的違約風險、健康風險、職業風險和行為風險等所作的評分,用以支持貸款或保費決策。隨著個人商業活動和社交活動的網絡化,平臺企業開始借助自己所掌握的賬戶活動信息而進行更加精準的信用評分。以回歸分析為主要方法的統計學模式,最近鄰法、決策樹法和數據包絡法等非參數方法,以線性規劃法為主要方法的運籌學方法都隨著計算機技術的發展而得到強化,同時,神經網絡和支持向量機等智能算法的出現進一步解決了傳統方法的小樣本、線性化、無反饋等問題。但是,技術上存在可能并不意味著實踐上一定能達成。人工智能評分系統的準確性取決于前期的人工投入,政府人員需要與技術人員合作列出參數和指標,確定它們的權重,確保違背法律和倫理的評價指標(比如種族、民族和性別歧視因素)不會進入算法。如果沒有這種前期的把關和持續的監督,智能算法就可能變成“數學殺傷武器”[19]。類型化和標簽化固然有助于管理,但其中也蘊含著固化、歧視和簡單化的傾向。從腦科學角度來看,貼標簽是認知弱化而不是智能的體現。比如,網絡空間中給中年男性的“油膩”“猥瑣”標簽,便是人云亦云、盲從跟風的結果。[20]機器學習的素材是用語言和符號表達的人類經驗,其中也包含人類偏見。一旦這種偏見用算法的形式固定下來,便會逃過人們的審視和反思。
2017年6月23日,由上海市第十四屆人民代表大會常務委員會第三十八次會議通過的《上海市社會信用條例》是規范大數據時代社會信用評分的比較有代表性的地方性立法。該條例將社會信用信息定義為“可用以識別、分析、判斷信息主體守法、履約狀況的客觀數據和資料”,并且將社會信用信息區分為公共信用信息和市場信用信息。該條例不僅提出了公共信用信息的互通、共享要求,還提出要建立公共信用信息與市場信用信息的互通、共享機制。此外,該條例也規定了信息主體所享有的權益以及相應的救濟程序。這是將社會社會信息的收集、分析和利用法治化的有益嘗試。隨著社會信用評分日益成為一種常規化的社會治理手段,全國性的《社會信用法》也應當及時出臺。
預測性執法。基于大數據的人工智能技術可以比較準確地找出某一類人或被重點監控的某一個人的行為模式,并對未來的行為作出比較準確的預測。在美國,相關實證研究表明,大多數犯罪行為都是一小部分慣犯所犯下的,因此剝奪這一小撮人的犯罪能力可以指數級地減少犯罪率。蘭德公司的一份報告因此提出了“有針對性地剝奪犯罪能力”(Selective incapacitation),指出:“有針對性地剝奪犯罪能力是一種戰略,它旨在使用客觀的精算證據來提升既有系統識別和羈押那些對社會構成最嚴重威脅的人物之能力。”[21]預測性執法在預防犯罪、禁毒和反恐等領域已經得到普及。
從法律的角度看,預測性執法涉及到違反正當程序、系統性歧視和侵犯隱私等問題。哥倫比亞大學法學院哈克特教授專門寫了一本叫做《反對預測》的書。他提出了三點理由:首先,根據對未來犯罪行為的預測來執法會削弱執法本身的首要目的,即減少犯罪;其次,對概率論方法的依賴會造成數據偏差,過分針對被監禁人口,而忽略了未被監禁的人口;第三,精算方法的廣泛應用扭曲了人們對何謂公正懲罰的認知。刑法的規范價值被忽視了。[22]不過,如果不采取預先拘禁和搜查等明顯侵犯個人權利的強制措施,而是采取在據預測可能發生犯罪或恐怖襲擊的地方加派警力巡邏、在犯罪高發地區加裝照明和攝錄設施、動員基層群眾自治組織或發動群眾盯控可能的犯罪分子等非干預性的手段,則可以在強化法治的前提下維護秩序。
基于大數據的人工智能技術的發展正在使孔德在一個半世紀前試圖建立的“社會物理學”成為可能。按照孔德的設想,隨著理性的科學認知的不斷推進,社會科學最終將發展到物理學的“成熟狀態”。人們將可以通過觀察、統計和分析而發現近似于自然規律的社會規律,從而“研究現狀以便推斷未來。”[23]在孔德的時代,由于技術手段的欠缺,他的野心還無法變為現實。基于有限樣本的統計分析還遠遠無法使社會預測達到物理預測那樣的精準性。但大數據存儲和人工智能分析已經使樣本分析有可能為整全數據分析所取代,并且日益實現動態化和分析者與對象之間的互動化。正如當代社會物理學的鼓吹者彭特蘭所言:“社會物理學是一門定量的社會科學,旨在描述信息和想法的流動與人類行為之間可靠的數學關系。社會物理學有助于我們理解想法是如何通過社會學習機制在人與人之間流動的,以及這種想法的流動最終如何形成公司、城市和社會的規范、生產率和創意產出。”[24]在社會物理學當道的世界,事后追責型的人類法律將被數理定律所取代,物理性和生物性的安排將取代制度性的安排。臉書創辦人馬克·扎克伯格曾經指出:“基本的數學法則主導著人與人之間的關系,它控制著我們心之所系的盈虧。”[25]而他也的確利用算法實現著對人心和人的行為的操控。人工智能正使我們越來越接近于發現這些數學法則,并借此控制人的行為乃至動機。人工智能的進一步發展則可能使人類連編寫代碼、設計算法的工作都省了,由機器來自我編程,建構“完美可控”的人間秩序。[26]在這種背景下,我們不能只看到人工智能在助力精準治理方面的作用,同時應當考慮如何用法治來引導它的發展方向,從而使它服務于社會公共利益。
國家治理現代化與智能法律
黨的十八屆三中全會提出:“全面深化改革的總目標是完善和發展中國特色社會主義制度,推進國家治理體系和治理能力現代化。”[27]現代化的國家治理體系的主要外在形式就是法治,“國家治理法治化是國家治理現代化的必由之路。”[28]我國推進國家治理法治化和現代化的過程很碰巧地與新一輪信息技術革命同時發生,人工智能是這一輪技術革命中最為引人注目的領域。在利用人工智能技術來建設智慧政府,實現精準治理的同時,需要把人工智能的各種應用場景,包括治理工作,納入法治軌道。要實現精準治理的法治化,需要落實以下幾方面的制度安排。
算法可解釋性。在美國,已經有案例涉及到算法黑箱問題。2013年初,威斯康辛州指控艾瑞克·魯米斯(Eric Loomis)五項刑事罪行,都和一起駕車槍擊事件有關。魯米斯否認自己參與了槍擊,但承認自己在案發當晚駕駛過那輛車。在辯訴交易中,他承認了兩項較輕的罪名:“企圖逃避交警以及未經車主同意擅自駕車”。在量刑階段,法院收到州政府罪犯改造部門提交的一份量刑前調查報告(PSI),其中包含再犯風險評估內容(COMPAS)。在初審判決中,法院在量刑部分援引了COMPAS評估的內容,并且部分基于這一評估判處魯米斯6年監禁外加5年監外管制。在申請定罪后救濟動議(motion for post-conviction relief)被拒后,威斯康辛州上訴法院批準了向州最高法院上訴。魯米斯的上訴理由是法院對COMPAS評估的依賴侵犯了他的正當程序權利。正當程序權利包括獲得個別化量刑考量的權利(the right to an individualized sentence)以及基于準確信息而受量刑的權利(the right to be sentenced on accurate information)。由于COMPAS評估報告提供的數據是類型化的,未能充分體現個人特殊性,同時由于作出評估的方法是COMPAS算法的提供者Northpointe公司的商業秘密,其可靠性無從判斷,魯米斯主張自己的上訴兩項權利受到了侵犯。此外,他還聲稱該算法評估將他的性別作為一個因素加以考量,侵犯了他的平等權。[29]
威斯康辛州最高法院支持了初審法院的判決。在安·布拉德利(Ann Walsh Bradley)大法官撰寫的多數派意見中,魯米斯的正當程序和平等權主張被一一否定。首先,法院認為性別因素是作為提升評估準確性的目的而非歧視目的而進入算法參數的,而且魯米斯無法證明法院在量刑時的確考量了性別因素,因此他的平等權并未受到侵犯。其次,因為COMPAS所分析的數據是記錄在案的公共數據(犯罪紀錄)和被告自己提供的數據(他對137個問題的回答),因此,被告在算法評估結果出來之前本來就有機會否認或解釋相關信息,也有機會驗證相關信息的準確性,因此質疑信息準確性的主張站不住腳。最后,關于量刑個別化問題,法院承認COMPAS算法評估的結論揭示的是與魯米斯相似的一類人的再犯風險,但指出該評估結論不是法院作出量刑判決的唯一依據,由于法院擁有在其認為適當的情況下不同意評估結論的裁量權和相關證據,因此該量刑判決是充分個別化的。[30]
從這個案例可以看出,當算法涉嫌針對個人作出了歧視性的或錯誤的評估或決策的時候,至少在美國,法院傾向于保護算法產品廠商的商業秘密,這種權益被視為沒有爭議的前提,法院不會要求廠商公開算法代碼,也沒有要求廠商用自然語言解釋算法的設計原理、功能和目的。但算法可解釋性是“算法的法律”可以成立的前提。人不可能控制或約束自己不懂的東西。之所以說人工智能算法進行深入學習的過程是個黑盒子,主要的原因除了它的保密性外,更重要的是即使公開了法官和律師也看不懂。算法可解釋性乃至可視化是一個可以用技術解決的問題,一旦法律提出了相關要求,技術界便會想方設法使算法成為可解釋的。比如,在2018年3月7日,谷歌大腦團隊的克里斯·歐拉(Chris Olah)公布了一項題為“可解釋性的基礎構件”的研究成果[31],該成果解決了神經網絡這種最令人難以捉摸的算法的可視化問題,谷歌將其比喻為人工神經網絡的核磁共振成像(MRI)。如果說神經網絡算法所處理的海量數據及其復雜運算過程會使人腦“超載”的話,這種可視化解釋技術簡化了相關信息,使算法的工作狀態回到了“人類尺度”,能夠被普通人看懂和理解。谷歌還對這種“解釋算法的算法”做了開源化處理,使其他技術人員能夠在此基礎上編寫適用于不同算法和場景的解釋性算法。
由此可見,法律進入算法不能靠立法者和規制者的單方面努力,而需要法律人與技術人員的合作。正如李彥宏等人在《算法革命》中所指出的那樣:“……也許真要靠算法的頂層設計來防止消極后果。人工智能技術可能不只是理工科專業人士的領域,法律人士以及其他治理者也需要學習人工智能知識,這對法律人士和其他治理者提出了技術要求。法治管理需要嵌入生產環節,比如對算法處理的數據或生產性資源進行管理,防止造成消極后果。”[32]法律人可以向技術人員解釋法律規則的要求,而技術人員可以設計出符合法律要求的算法。法律和技術都是非自然的“人工”造物,兩者都服務于使人類生活更加美好的目的。在人工智能時代,一種新的職業——法律知識工程師——正在誕生,這種職業是由能夠用技術解決法律問題的人士和能夠用法律服務技術發展并將技術套上法律韁繩的人士共同組成的。人工智能是能夠在給定問題的前提下通過深度學習和強化學習尋求最優解的智能算法,它需要人類提出正確的問題,對錯誤問題的正確解答可能帶來災難性的后果。法律就是用來劃定問題域之邊界的,它不能確保最佳問題的出現,但可以防止最邪惡問題的提出。
矯正正義。法律,尤其是私法,所體現的核心價值是交換正義和矯正正義。對于自愿的交易,法律旨在確保承諾的履行,合同法便是為了實現這一功能而出現的。對于非自愿發生的初始狀態改變,對損害給予救濟的侵權法原則和對不當得利予以返還的民法原則(restitution)是主要的法律介入形式。將矯正正義的形式法則應用于各種事實場景的技藝被認為是法律的獨特技藝所在,體現了柯克所說的“人為理性”。[33]影響甚大的多倫多大學新形式主義法律學派將矯正正義的概念化、類型化和系統化處理視為法學維持自身獨立品格、避免受法律和社會科學交叉學科侵蝕的關鍵所在。[34]
矯正正義模式通過事后追責的救濟手段給技術創新保留足夠的空間,在人工智能的應用領域,這意味著繼續以傳統的侵權法—司法救濟模式來保護個人權利。大數據對個人自治的威脅最集中地體現在一個領域,這就是“完美個人化”(perfect personalization)。完美個人化所要做到的就是使個人變得越來越“可識別”,這在歐洲顯然會遭遇個人數據保護法的嚴格限制,乃至于不可能發生。但中美兩國卻已經在這方面走得很遠。正如美國總統科技顧問委員會(PCAST)在2014年提交的一份報告中指出的那樣,“各種類型數據的融合以及實時處理產生出一種力量,在這種力量幫助下,政府和企業可以在個人表達需求、甚至意識到需求前向他們準確提供量身定制的信息、產品和服務……不幸的是,‘完美個人化也會給定價、服務和機會方面隱秘或者公開的歧視留下空間……隨著像數據融合這樣的使大數據分析變得越來越有力的技術不斷發展,人們目前的隱私預期也受到越來越嚴峻的挑戰”[35]。這份報告同時提出了一套包含五個環節的應對方案。第一,法律和政策回應不必針對大數據的搜集和分析,而應針對大數據的實際使用,也就是對個人權利產生實際不利影響的具體事件和案件。法律和政策不應指定特定的技術化解決方案,而應當點明具體的政策目標,把解決方案留給技術界去尋找。第二,在發展大數據分析技術的同時,政府和業界應鼓勵發展大數據背景下的隱私保護技術,同時開展大數據普及教育,培育大數據時代的隱私權意識。第三,禁止利用大數據分析來進行歧視性的分類和評級。種族、民族、性別等憲法上可疑的分類標準不能被寫到“算法”和程序中去。第四,提高大數據分析的透明度,強化大數據使用的問責機制。第五,數據是一種公共資源,應用于公共利益目的,應當使越來越多的人有機會分享智能化大數據分析所帶來的利益。
在政府利用人工智能技術對個人數據進行分析處理并實現精準治理的場合,矯正正義模式要求有確定的政府機關為此負責,從而使公民可以通過行政復議和行政訴訟獲得救濟。《上海市社會信用條例》第36條提供了明確的救濟渠道:市公共信用信息服務中心是責任單位,信息主體認為社會信用信息的歸集、采集、保存或者提供存在錯誤、遺漏等情形或者侵犯其商業秘密、個人隱私和其他個人信息等合法權益的,可以向該中心提出異議。此外,根據信用信息作出具體行政行為的機關也可以成為行政訴訟的被告。
預防模式。對于一種深刻改變著社會而其中包含的風險尚無法確知的技術,損害發生之后的司法救濟顯然無法確保社會的公共利益。因此,許多國家都試圖設立專門的規制機構來負責人工智能研發和產品化過程中的風險評估、風險溝通和風險管理。比如,在簽署歐洲議會報告過程中便提議設立一個“歐洲機器人和人工智能局”來統籌該領域的風險規制工作。2017年12月,美國眾議院討論了由議員約翰·德萊尼提出的《人工智能的未來法案》,其中的主要內容也是要求在商務部內設立一個“聯邦人工智能發展與應用顧問委員會”,就人工智能涉及的技術、商業、國家安全等問題進行綜合研判并向政府提供立法和規制建議。該法案特別強調了促進人工智能發展與防止其負面影響之間的平衡問題,指出人工智能人工智能技術的持續發展對于美國的經濟繁榮、社會穩定和國家安全具有至關重要(critical)的意義,不能因為擔憂其不可控的風險就采取過多的抑制措施。
當一種新技術對社會的影響在科學上尚無定論的時候,如果這種影響有可能是負面的、巨大的和不可逆轉的,決策者就應該假定它會造成這種影響,并據此來制定相關和政策和法律。這就是“風險預防原則”(Precautionary Principle)。對該原則的最廣為人知的表述出現在1992年的《里約宣言》中,該宣言的第十五條原則指出:“在嚴重的或不可逆轉的損害威脅存在的領域,缺乏充分的科學確定性不應成為暫緩采取有成本效益的措施來防止環境惡化的理由”。[36]這一原則現在也正在被適用到人工智能領域。
機器學習以大數據為素材,采取預防模式的歐盟選取了數據這個源頭作為切入點來杜絕可能帶來權利侵害的算法。即將于2018年生效的《一般數據保護條例》一體適用于對個人數據的自動化(即算法處理)和非自動化處理(第二條),其目的在于保護數據流動和數據處理過程中自然人所享有的數據權利(第一條)。而個人數據的定義十分寬泛,包括與已被識別出(identified)或可被識別出(identifiable)的自然人相關的任何信息。其中對“可別識別出的”個人數據的保護對算法設計者提出了很高的要求,包括采取匿名化等一系列使數據無法被關聯到具體個人的技術手段(第四條)。對個人數據的處理要符合合法、公平、透明、目的具體且有限、準確、安全等原則(第五條)。除非是在法律明確規定的條件(比如數據主體明確同意)下,處理數據的方式不得顯示出個人的種族、民族、政治觀點、宗教或哲學信仰、工會成員身份,等等。處理的對象不得包括基因數據、使某個人被識別出來的生物計量學數據、健康數據以及性生活或性取向數據(第九條)。[37]該條例明確列舉了數據主體的若干具體權利,包括充分知情權、要求更正權、要求刪除權(被遺忘權)和限制處理權(第15~18條),旨在強化數據主體對涉及自身的所有數據的控制能力。在鼓勵創新和保護權利之間,歐盟立法者選擇了后者,預先給智能算法的發展劃定了界限。[38]
不僅如此,控制機器學習可用的數據來源的做法基本忽視了智能算法的現有技術狀態。對個人身份的已識別或可識別狀態往往是數據分析的結果而不是起點,現有的智能算法已經能夠對海量的無結構數據(包括百度搜索記錄、淘寶購物記錄、手機GPS信息等各種電子痕跡)進行分析和處理,最終實現“完美個人化”,即準確識別出某一特定個人的身份、社會屬性和偏好。從數據是否已包含個人身份信息入手來規制算法無法達到保護個人權益的目的。我國目前尚未通過《個人數據保護法》,在制定這一類法律的時候應當更多地聽取法律專家、人工智能專家和大數據平臺企業等多方面的意見,平衡技術創新、國家—社會治理和個人權利保護三方面的利益。
結論
首先,主流的法治理論認為法治與法制的主要區別在于:后者是工具主義的,法律被當成統治的工具,但無法約束統治者本身;后者是權利本位的,法律不僅約束公民,更約束公權力。在這種法治框架下,政府成為法律(尤其是公法)的監控對象。但大數據分析技術和人工智能正在改變社會的治理結構和秩序生成機制,誰掌握了數據和分析數據的技術,誰就能影響和控制人的行為。大到總統選舉,小到日常購物,智能化的數據分析和行為誘導機制在其中發揮著越來越大的作用,而背后的操縱者往往不再是政府。新技術的發明者、投資者和鼓吹者們往往會夸大技術帶來的“解放”效應,宣稱人工智能和區塊鏈等技術將使一切中心和中介變得沒有必要,從而瓦解人類社會的金字塔結構,使有序的人際關系變得越來越呈網狀分布,每個人都是中心,每個人也都不可能控制整個網絡。但實際結果卻是,金字塔依然存在,基底依然是蕓蕓眾生,但塔尖卻分裂成了政府、資本力量和技術力量。這三種力量有時會合并起來,有時又相互對峙,但它們之間的關系并不受基座的影響。藐視政治權威的技術達人(黑客)并不會解放全人類,而只會破壞既定的法律秩序。與政府討價還價的商業力量也不會“制衡”公權力,而只是追逐利潤。對“數力”(vires in numeris)的迷信與對暴力的迷信一樣是無助于實現社會正義的。上文中提到的“劍橋分析”公司助力特朗普贏得美國總統大選的例子表明,大數據掌控者已經不只是通過數據分析來進行預測,還有能力將某些預測變成自我實現的預言。同時,法律所建構起來的公與私、政治權力與商業力量之間的區隔已經變得弱不經風。因此,法治在人工智能時代面對的首要問題是重新界定權力和權利,一方面用公共權力來馴服算力,讓它為公共利益服務,另一方面賦予公民新的數據權利,以制衡無限擴張的算力統治。
其次,在技術日益智能化的時候,法律的日益技術化會使它很容易被技術所取代,而如果兩者都趨向于只講手段不問目的的工具理性,則人類將被引向不可知的未來,這個未來很可能是萬劫不復的深淵。工具理性取代價值理性的趨勢在現代化的早期便已經暴露無疑了,現代政治思想的奠基者霍布斯系統打造了人類無中生有地創造和管理世界的理論,法律和工程技術都是這種“創世”工作的工具。奧克肖特敏銳地指出了“意志與人造物”在霍布斯思想中的核心地位,他發現霍布斯“通常不會提及理性,這一將人與上帝聯系的人類心智的神性光亮;他提及的是推理(reasoning)。”[39]霍布斯十分明確地寫道:“舊道德哲學家所說的那種極終的目的和最高的善根本不存在。欲望終止的人,和感覺與映像停頓的人同樣無法生活下去。幸福就是欲望從一個目標到另一個目標不斷地發展,達到前一個目標不過是為后一個目標鋪平道路。所以如此的原因在于,人類欲望的目的不是在一頃間享受一次就完了,而是要永遠確保達到未來欲望的道路。”[40]從某種意義上講,人類的欲望種類從未改變,只是滿足欲望的技術手段越來越先進。沒有方向和目標地追求欲望的滿足在以人工智能作為技術手段的時代比任何時候都更危險。法律和公共政策不能一味地追求用新的技術手段來實現對人的控制,而應當體現公平、正義和民生福祉等基本的價值目標。
最后,人工智能所體現的技術理性有明顯的化約主義傾向,我們可以借助它來提高效率,取代一部分無需創造性和價值判斷的工作,但不能由它來作出事關人類福祉的最終決策。法律所調整的是人與人之間的關系,因此法律不必去直接規制技術,而應當規制使用技術的人。從更深的層面上講,法律應當去規制被技術改變后的社會中的人,從而使技術對人類社會的影響能夠朝著善和正義的方向去發展。人不應當允許自己的自我認識被技術所左右;他應當象反抗任何導致主體性喪失的支配關系一樣去反抗對技術的依賴;如果他想要拯救自己的人性和自主性,他就應該把自己從技術和支配所導致的異化中拯救出來。因此,盡管人工智能技術可以被用來設計出自動決策系統,但這種系統只能被用來處理事實和價值方面沒有爭議的簡單事項,比如闖紅燈罰款,而在涉及事實爭議和價值選擇的復雜問題上,人工智能只能被用來強化人類智能,而由人來作出最終的選擇和判斷。
注釋
[1]MatejBalog, Alexander L. Gaunt, et al., "Deepcoder: Learning to Writing Programs," ICLR 2017會議論文,https://www.microsoft.com/en-us/research/wp-content/uploads/2017/03/main.pdf.
[2]http://www.sohu.com/a/193242602_473283.
[3]www.automl.org/.
[4] RayKurzweil, The Singularity Is Near: When Humans Transcend Biology, New York: The Viking Press, 2006.
[5] Samuel Gibbs, Elon Musk: "Artificial Intelligence Is Our Biggest Existential Threat", GUARDIAN (Oct. 27, 2014, 6:26 AM), http://www.theguardian.com/technology/2014/oct/27/elon-musk-artificialintelligence-ai-biggest-existential-threat [https://perma.cc/SZD4-7WCL].
[6][法]雷吉斯·德布雷、趙汀陽:《兩面之詞:關于革命問題的通信》,張萬申譯,北京:中信出版社,2015年,第23頁。
[7]Desmond Butler, Jack Gillum, and Alberto Arce,US Secretly Created" Cuban Twitter" to Stir Unrest, Associated Press, April 4, 2014.
[8]Minsky, in M. Yazdani and A. Narayanan, Artificial Intelligence: Human Effects, Chichester, UK: Ellis Horwood, 1984.
[9]Cary Coglianese and David Lehr, "Regulating by Robot: Administrative Decision Making in the Machine Learning Era," 105 Georgetown Law Journal, 1147 (2017), p.1148.
[10]Executive Office of the President National Science and Technology Council Committee on Technology, Preparing for the Future of Artificial Intelligence, October, 2016, pp.15-16.
[11]《國務院關于印發新一代人工智能發展規劃的通知》,國發[2017]35號。
[12]汪玉凱:《中國政府信息化與電子政務》,《新視野》,2002年第2期,第54~56頁。
[13]金江軍:《智慧政府:電子政務發展的新階段》,《信息化建設》,2011年第11期,第16~17頁。
[14]歐樹軍:《國家基礎能力的基礎》,北京:中國社會科學出版社,2013年。
[15]王紹光:《序一》,歐樹軍:《國家基礎能力的基礎》,北京:中國社會科學出版社,2013年,第1頁。
[16]馮仕政,陸美賀:《社會計算如何可能?》,《貴州師范大學學報·社會科學版》,2016年第6期,第27~30頁。
[17]Tim Cook, "A Message to Our Customers", APPLE (Feb. 16, 2016), https://www.apple.com/customer-letter/.
[18]Carole Cadwalladr and Emma Gaham-Harrison, "Revealed: 50 Million Facebook Profiles Harvested for Cambridge Analytica in Major Data Breach", Guardian, 17 March 2018, https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election.
[19]Cathy O 'Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, New York: Crown Publishers, 2016.
[20]蔣建國:《油膩中年男的媒介呈現、認知標簽與社會化戲謔》,《探索與爭鳴》,2018年第1期,第123~127頁。
[21] Peter W. Greenwood and Allan Abrahamse, 1982. Selective Incapacitation. Santa Monica, CA: Rand Corporation, 1982.
[22] Bernard E. Harcourt, Against Prediction: Profiling, Policing, and Punishing in an Actuarial Age, University of Chicago Press, 2007.
[23] [法]奧古斯特·孔德:《論實證精神》,黃建華譯,北京:商務印書館,2001年,第12頁。
[24][美]阿萊克斯·彭特蘭:《智慧社會:大數據與社會物理學》,王小帆、汪容譯,杭州:浙江人民出版社,2015年,第7頁。
[25] Michael Rundle, "Zuckerberg: Telepathy is the Future of Facebook," Wired UK, July 1, 2015, http://www.wired.co.uk/article/facebook-zuckerberg-qa-the-future.
[26] Jason Tanz, "The Rise of Artificial Intelligence and the End of Code", Wired, June 2016.
[27] 《中共中央關于全面深化改革若干重大問題的決定》,北京:人民出版社,2013 年,第3 頁。
[28] 張文顯:《法治與國家治理現代化》,《中國法學》,2014年第4期,第5~27頁。
[29] State v. Loomis, 881 N. W. 2d 749 (Wisconsin, 2016).
[30]State v. Loomis, 881 N. W. 2d 749 (Wisconsin, 2016)。還可參見:Jason Tashea, "Calculating Crime: Attorneys Are Challenging the Use of Algorithms to Help Determine Bail, Sentencing and Parole Decisions," 103 A.B.A Journal 54 (March 2017), P.P. 54-60,該文提到了若干與Loomis案類似的涉及“算法量刑”的案例。
[31] Chris Olah, "The Building Blocks of Interpretability", https://distill.pub/2018/building-blocks/.
[32] 李彥宏等:《智能革命:迎接人工智能時代的社會、經濟與文化變革》,北京:中信出版集團,2017,第312頁。
[33] Charles Fried, "Artificial Reason of the Law or: What Lawyers Know", 60 Texas Law Review, 35 (1981).
[34]Ernest J. Weinrib, The Idea of Private Law, Oxford University Press, 1995; Ernest J. Weinrib, Corrective Justice, Oxford University Press, 2012; Stephen Waddams, Dimensions of Private Law, Cambridge University Press, 2003.
[35] Executive Office of the President, Big Data: Seizing Opportunities, Preserving Values, The White House, May 2014.
[36] United Nations Environment Programme (UNEP), Rio Declaration on Environment and Development, Principle 15, Rio de Janeiro, Brazil, June 14, 1992.
[37]http://gdpr-info.eu.
[38] 鄭戈:《在鼓勵創新與保護人權之間:法律如何回應大數據技術革新的挑戰》,《探索與爭鳴》,2016年第7期,第79~85頁。
[39] Michael Oakeshott, "Hobbes on Civil Association", Indianapolis, IN.: Liberty Fund, 1975, p.27.
[40] [英]霍布斯:《利維坦》,黎思復、黎廷弼譯,北京:商務印書館,1985年,第72頁。
責 編/楊昀赟