摘要:在當代,人類的命運已經牢牢地與機器,尤其是人工智能機器的發展關聯在一起。與此同時,智能機器的黑箱化也成為我們迫切需要面對的一個問題。這其中,像算法機制這種對人們生活產生全方位影響的“機器”原理,一方面對于普通人而言幾乎就是一個難以理解的黑箱結構,另一方面又對我們的日常生活產生直接且重大的影響。然而,試圖通過讓智能機器變得更“透明”,更具有“可解釋性”,對于緩解機器的黑箱狀態并沒有太大的幫助。人機之間良好協作關系的破壞往往不是由于機器的黑箱化導致的。人與機器在人機協作中存在各自目的與功能上的差異,因此更合理的思路是在充分理解人與機器各自功能的基礎上,通過在人機在協作過程中建立一種嶄新的,同時也基于人和機器各自“趨向性”的目的來保證人機協作的順利開展。當然,要徹底消除智能機器黑箱化的威脅,我們需要在考慮人機功能和目的之差異的基礎上推進一種人機之間嵌入式的協作機制,此種機制有可能通過賦予機器一種“實踐智慧”來使其擺脫黑箱化的責難。
關鍵詞:人機協作;黑箱化;嵌入式人機協作系統
中圖分類號:TP249;TP182 文獻標識碼:A 文章編號:1003-854X(2023)11-0065-07
在今天,人類的快樂與幸福,或者說,人類的命運和危機,都已經牢牢地與機器,尤其是人工智能機器的發展密切關聯在一起。而擁抱或者接受這一點的人迫切需要回應的基本問題是,我們應當如何與機器進行交互(互動),我們應當如何在機器進入我們生活時,處理機器相對于人的“異質性”?當機器發展出越來越強大之“超人”能力時,我們如何保證依然維持與其處于一種“協作”甚至“操作”關系而不被機器所吞噬,并因此避免我們的生活陷入不幸?甚至我們會十分擔心,人類所看重的價值是否會在機器能力的迅速發展過程中被抹除和顛覆?假如我們相信信息哲學家的判斷,“信息與通信技術正在極大地改變我們的世界,它們正在創造新的現實,并推動著對世界和生活的方方面面的信息化解讀。……線上的數字世界正在逐漸溢出到線下世界,并漸漸融入其中”(1),那么,建構一種新型人機協作關系似乎迫在眉睫。
一、面對智能機器黑箱狀態的人機協作可能性分析
當前,人機協作中一個重要且緊迫的困擾是,智能機器(2)相對于人來說往往處于黑箱狀態。(3) 問題在于,我們如何能夠安心地使用一個完全黑箱化的工具并且與之展開協作?不過,從技術發展歷史來看,我們其實并不曾停止使用黑箱式的工具或者所謂的準黑箱式工具。一個工人不需要知道他所操作的機器究竟是如何運作的,他只需要知道如何操作機器,以及這樣的操作將會帶來什么樣的功效。一般來說,做到這些就意味著,他能夠利用工具進行工作,或者說,工人與機器處于一種良好的“協作”關系之中——無論如何,工具已然有效地“服務于”工人的工作。此時,機器的黑箱化對于工人并沒有產生可見的威脅,可以說,工人依然“掌控”著機器。有人可能會指出,在工業革命時期,工人對于機器機制的不了解可能是導致工人在機器大生產中被機器所“異化”的一個原因。但實際情況是,資本的剝削力量才是給工人帶來危機的根源,工人和機器之間的緊張關系不是因為工人不夠“了解”機器,而是因為資本主義生產制度通過機器來對工人進行殘酷的剝削壓榨。那么,是否這意味著資本家相對工人而言就有了一個更加清晰的對于機器的“了解”,或者說,機器對于工人是黑箱而對于資本家而言是透明的?情況顯然并非如此。資本家也不需要對于機器的“黑箱”狀態有一個完全明晰的領會:他們只需要把機器買回來,然后強迫工人使用機器進行生產進而剝削工人的剩余價值。資本家是機器的擁有者,但不是機器專家。可見,在工業革命時期,完全清晰地理解機器既不是正常使用機器操作機器的前提,也不是擁有機器,利用機器進行剝削的前提。
今天,人們普遍認為,在機器變得更加智能化時,如果我們要讓機器全面,徹底地進入我們的生活,甚至具有改變我們的生活,改變整個人類生活樣貌的可能,也即,讓一種智能機器更加密切地作用于我們的生活,我們就不得不警惕這種智能機器的“黑箱”狀態。當然,智能機器和工業革命時的機器,其所謂的“黑箱”特質是完全不同的。智能時代的一個特征是,機器的“黑箱”狀態和之前相比,對于人類(無論是機器的所有者還是機器的操作者)可能是一個更加純粹意義上的“黑箱”,也可能會是一個更加重大的威脅。智能機器這種更加純粹的“黑箱化”趨向來自于技術本身的高度專業化和復雜化。在工業革命時代,一個普通人或許可以通過自學掌握機械原理進而對機器有一個大致的理解;但在智能化時代,即使是信息專業人士,可能也無法完全清晰地說明智能機器的工作原理,尤其是在進入到深度學習和大數據時代之后。智能機器“黑箱化”相對于普通機器而言成為一個更加重大威脅的原因是,在今天的時代,不僅是人類的生產活動,而且人類的日常生活,都嚴重地依賴于此種智能機器的有效運作。這種深度依賴是不斷疊加的,即,人類對智能機器的依賴推動了智能機器越發地強化自身的地位,而這種強化又會進一步增強人對智能機器的依賴。
那么,我們要如何應對今天遍布于我們生活中的智能機器的黑箱化趨勢?一個自然的想法是提升智能機器的透明度,嘗試建立人機之間更為清晰明確的關聯方式,讓更多的人掌握智能機器的運行機制和底層邏輯。但筆者認為這種意義上的透明度的實現是不可能的。理由是,在我們與智能機器的“交互”中,我們確實可以主張一種相對于機器操作者的“透明度”,因此,一些智能產品也會給用戶很詳細的說明書,上面可能羅列了機器的性能與詳細參數。但這是一種廣義上的透明度,因為正常情況下,我們很難告訴公眾智能機器的運作原理(大多數人對此并不感興趣)。畢竟,人機之間的所謂“接口”和“交互界面”從來都不是以獲得更大透明度為主要目標。所有智能機器產品,其接口在設計時除了讓用戶更容易上手之外,更多的是以機器自身的目的和高效運行為考量的,絕非首先是為了讓使用者能夠更好地理解“機器”。
對人工智能機器的透明度的要求實際上等于說我們需要一種可解釋的人工智能(explainable AI),而這暗含的一個預設是,只要我們在今天這個時代能夠更好地“理解”人工智能系統的運作機制和決策過程,我們就會因為能對其行為進行解釋和預測而提升對它的信心,進而在一種現實的層面上更加信任人工智能機器并展開更緊密的協作。這里需要澄清的問題是,透明是否等于可解釋性?它是否可以破除機器尤其是智能機器的黑箱狀態?在我看來,透明是一種較為籠統的說法,我們對智能機器的透明要求對應的是它所呈現的黑箱狀態,也就是說,我們因著智能機器黑箱狀態給我們生活帶來的威脅而想當然地認為,要消除這種威脅需要機器實現某種意義上的“透明”;可解釋性確實部分地關聯于此種透明,例如,對于專業人士來說,程序的可解釋性意味著它的運行機制能夠被理解,因而在專業人士眼中會變得“透明”,但此種透明性依然不是公眾所理解和要求的應對黑箱化威脅的透明。因此,我們只能說,智能機器的透明特性通過幫助專業人員理解機器、掌控機器,部分實現了公眾對于透明特性解除智能機器黑箱化狀態的希望。但在很多時候,可解釋性并不能真正做到“破除智能機器黑箱化”所追求的更高層次的目標,即實現一種更加健康、良善的人機協作。例如,即使我們知道存在著某種通過AI而暗中實施的不正義(例如算法歧視,算法偏見),我們也很難僅僅通過追求人工智能機器的可解釋性來解決這個問題。認為一個可解釋的智能機器能夠變得更道德,這完全基于一種將道德或者說所謂正當簡化為理性認知能力的立場,認為對象只要足夠理性,就不會做壞事;而機器只要足夠透明,足夠具有解釋力,就能夠避免做壞的事情。但實際情況是,理性的智能機器完全可以被濫用來做道德上不正當的事情而不違背自身的“可解釋性”。
針對智能機器的可解釋性對于破除黑箱狀態,以及破除黑箱狀態給人機協作帶來的困擾并沒有太大的作用。有些研究者提出了另外一種應對思路:為了讓人機協作更加高效并且讓智能機器在對人類的助益之中不會因著某種黑箱狀態給人帶來巨大的壓力與威脅感,更為直接意義上的“好的”人機協作模式要求機器尤其是智能機器具有更高的靈活度,使之可以配合人類的主觀目標,如此,我們只要保證人機協作中的“人”有著良善的目標,那么,靈活地與之協調,并努力配合人實現目標的智能機器似乎就可以在不追求透明狀態下起到“好的”作用。這里的靈活度指的是,人們希望機器能夠不斷地依據實際情形與協作對象的變化對自身做出調整。例如,在對人工智能道德體的設想中,學者們就認為,“即使人工道德智能體未能進到對所有關系都起疑的世界中,但在與其他人或計算系統互動的過程中,它們需要具備動態地調整或摸索著去提高信任程度的能力”。(4)盡管這樣一種判斷是對于可能的“人工道德智能體”的想象,但也說明,人機之間的互動協作在未來的一個方向可能就是智能機器更高靈活度的實現。這種靈活度依賴于機器高速發展的計算能力,因為計算能力的提升才有可能帶來實時動態的交互可能。然而,更靈活的交互似乎既不意味著機器在可解釋性上的提升,也不意味著一種良善人機協作模式的唾手可得。原因如下:
首先,智能機器的靈活度與黑箱狀態的破除沒有關聯。智能機器靈活度的提升往往被認為意味著它會更趁手、更便捷,就像一輛剛剛升級了最新智能系統的無人駕駛汽車會標榜自己“以更靈活的姿態滿足用戶的需求”。此時,從人工道德智能體的層面上說,“良好的行為依賴于對他人的意圖和需求保持敏感性。自主道德智能體將需要知道人們想要什么。在它們與人類的互動中,機器人需要清楚與其角色相關聯的社會習俗和期待”。(5)智能機器的靈活性大體與此類似。一種對于人類的“投其所好”當然會提升我們與機器之間交互的便利性,進而強化我們與機器的協作關系。但盡管在此種情況下,機器可能成為一個馴服的“奴隸”,但依然不見得是“透明清晰的”:它依然可能是一個“黑箱”,并不對“奴隸主”呈現完全的透明狀態,但作為“奴隸”的智能機器會為了更好地服務“奴隸主”而提升交互性,提升自身的可利用度。同時,這個“奴隸”會不斷提升自身的“技能”,變得更加具有靈活度,更加能夠滿足“奴隸主”的需求。此時,這個靈活的“奴隸”,這個智能機器似乎更像是處于一種可“協作”的黑箱狀態中。
其次,智能機器更高的“靈活度”有時給予人的是一種“虛假的良善協作”的可能,即更靈活的智能機器看起來更聽話,實際上卻在人類的生活中孕育更大的風險。我將這個風險稱作黑格爾主奴辯證法在智能機器層面上的具體展開。大致上說,一開始是智能機器通過提升自身的“靈活度”以便更好地實現人機協作,但隨著智能機器變得越來越靈活,原先居于主導地位的協作者(人類)為了更高效地協作,為了適應高速發展的計算能力,調整自身以適應進而認同這種協作過程,從而讓自身變得更加靈活,并習慣于對照智能機器來調整自身的協作目的與協作方式。具體的發生進程是,盡管機器的使用者(主人)是在操控(奴役)機器(奴隸),但是在機器不斷發展自身以更好地滿足使用者需求的過程中,它變得越發靈活,對于人來說可能也變得越發不可解釋,越發“黑箱化”了。而這一“黑箱化”的外在顯現卻可能是,機器越發能夠滿足使用者的要求了,而且這種滿足可能還是智能的。久而久之,使用者習慣了這種機器的巨大力量與對使用者需求的滿足,他們雖然可能也想要讓機器能夠更透明,更加具有可解釋性,但機器已經充滿靈活性地將自身的性能與價值關聯于這種“黑箱結構”,此時,使用者開始發現,一個能夠進行深度交互的靈活機器(一個聽話的能干的奴隸)可能正是一個不可解釋的機器(一個心思深沉的奴隸)。而這導致的一個可能結果是,為了維持這種交互關系,作為使用者的主人開始嘗試調整自身:一方面,使用者將去學習接受機器的黑箱化,甚至將不透明當作機器的本質屬性;另一方面,他反而選擇讓自身變得更加可解釋,更加透明,以此來實現機器與我們交互時的“高效靈活”,即為了更好地被服務,人要打開自身。
二、機器黑箱化與人機協作中的目的及功能分配
那么,我們究竟有沒有在人機協作過程中應對機器尤其是智能機器黑箱化的辦法呢?要實現這個目標,我們首先要搞清楚的一個問題是,當人機交互要實現真正意義上的協作時,交互與協作的目的到底是什么?或者說,智能機器性能的不斷提升,智能機器界面的不斷改進,最終是為了什么?一般來說,人們會贊同如下看法:“在人機交互過程中,信息與通信技術通常被用于創造、便利與改進人類使用者與計算機系統之間的交流。”(6)在一些學者看來,廣義上說,機器或者說機器背后的技術,其本質就在于實現各種各樣的屬人目的:“技術的本質就是對自然的編程,它是一種對現象的捕捉,并駕馭這些現象為人類的目的服務。某個個體技術對許多現象進行‘編程,并精心安排策劃這些現象,最后使它們能夠密切配合以完成特定的目的。”(7) 在這個過程中,無論是對人機之間交流的改進還是對世界現象的“編程”,都不是技術、機器、智能機器本身的目的。
然而,一個進一步的問題是,如果在不考慮人的目的的前提下,機器可能有自身的目的嗎——這個目的或許會要求機器處于黑箱之中?如果機器有自身的目的,這一目的是以一種什么方式區分于人的目的?以人工智能為例,倘若作為機器的人工智能有自身的目的,那么什么是具有此一目的的作為機器的人工智能“自身”?即,人工智能機器有沒有一種關于機器自身的概念,或者說,人工智能機器能否將自身認同為一個“統一體”,這種對自身作為一個“統一體”的認知又能否讓人工智能機器將自身作為目的?實際上,筆者認為,如果目的僅僅是一個向著某種狀態的“趨向”,一個任務序列,那么機器可能相比于人會具有更強的“目的性”和“整體感”,因為在人工智能體這樣的存在中,機器的運行機制本身已然是為了某個特殊目的而展開的。從這個角度說,機器相比于人在“作為趨向的目的論”的意義上只會更強調目的。我們總是設想著,人因為某種同一性、某種整全性而更可能接近目的;但我們忘記了人類行動者很多時候是脆弱的和難以預測的,即使存在著某種意義上的同一性,也不能保證人的目的的始終一致。
這里我們就遇到了另一個重要的問題,我們能否要求機器完全以人的目的作為自身的目的,而在這個過程中,我們又能夠充分信任機器最終將會有助于而不是有害于人的目的?在智能機器出現之前,盡管人們也會擔心機器力量過于強大可能導致一些濫用,進而帶來對于人類整體福祉的危害(例如核武器),但這其中涉及的核心問題還是人的目的本身的問題,或者說是不同的人群將自身不同的目的寄托在機器身上導致的沖突與危害,而不是機器自身的可能趨向目的性給人帶來的威脅。有關機器的危害的發生有時是因為利用這些機器的人錯誤地評估了自身的目的,或者出于邪惡的動機為自身設定了一個邪惡的目的,然后利用機器來實現它。然而在智能機器中,“如果給予多功能機器以信任,讓它們脫離其設計者或主人去運行,并設計程序,使之靈活地對真實或虛擬世界中的環境做出反應,那么我們就需要相信它們的行為會滿足適當目的。這超越了傳統的產品安全問題。……如果一個自主系統要使傷害最小化,它就必須‘知道其行為可能的有害后果,并且必須根據其‘知識去選擇行動,即使‘知道‘知識這些術語只是在隱喻意義上用于機器”。(8) 從瓦拉赫和艾倫的這個判斷可以得出如下推論:(1)智能機器在“脫離設計者去運行”時,其趨向可能會與人的目的發生偏差;(2)這種偏差不等于一般意義上的機器出現“產品安全問題”,這種偏差可能意味著機器目的可被獲得與凸顯并有了與人的目的的可能分離。那么,如果我們要完全確定智能機器會以人類的目的為自身的目的,會維持一種健康良善的人機協作模式,那么,我們必須讓其擁有某種所謂的關于人類目的的“知識”。而在某種深度學習和神經網絡的意義上,我們還希望機器能夠自己來獲得這種“知識”,并且承認這種“知識”對于其自身的目的是有意義的。這就等于說,在出現了智能機器目的與人的目的的可能分離之后,我們要努力讓智能機器的目的重新契合于人的目的。而這意味著,人工智能機器需要兩種層次上的知識,一種是關于什么是人類目的的知識;另一種是關于如何實現人類目的的知識,或者說,需要一種關于“協作”的知識,這后一種知識(9)的獲得才是此種狀況中人機協作得以健康展開的保證,也是我們認為黑箱化的機器可能無法向我們清晰允諾的——黑箱化的機器可能能夠保證自己是一臺功能強大的機器,但無法向我們保證它是一臺具有“實踐智慧”的,有助于人機協作和人類福祉實現的“好機器”。所以,現在的問題是,我們如何讓智能機器獲得此種“實踐智慧”從而更好地為人機協作服務?
筆者的一個基本判斷是,在智能時代,智能機器的出現一方面可能因其有更復雜的不透明目的而對人的目的產生威脅,進而破壞人機協作的健康展開;但另一方面,智能也為我們提供了一種給予機器以“實踐智慧”,使得它擁有在自身的運作過程中自發地將人類目的當作自身之趨向性和目的的可能。借用弗洛里迪在《第四次革命》一書中對于技術層級的劃分,我們可以更好地理解智能機器如何在不喪失自身可能“趨向性目的”的前提下擁有有利于人機協作、充分考量人的目的的“實踐智慧”。在弗洛里迪看來,信息與通信技術是一種被稱為“三級技術”的東西,這種技術的目的在于“將低效率的人類媒介從技術循環的回路中去除”(10) ,它是一種溝通人(作為使用者)與二級技術(例如,前智能時代的機器)的橋梁。以智能家居為例,如果家中有一臺掃地機器人,那么它是一種二級技術;如果以智能的方式將掃地機器人并入“智能家居”系統,使之成為“物聯網”構造中的一部分,那這種智能化就是一種三級技術。我們很難想象在“二級技術”的層面上實現人類目的的置入,即,我們很難認為一臺掃地機器人會將“人的目的”作為自身的目的,但我們可以將人的目的置入到“三級技術”中。實際上,廠商們往往宣稱,整個“三級技術”構架的初衷就是以實現人的目的(比如家居的智能化)為目的的。智能機器的“實踐智慧”可能就體現在此種“三級技術”之中。
除了目的,要應對智能機器可能的黑箱化威脅,實現基于人類目的的機器與人的良好協作,另一個關鍵點是,我們需要廓清機器與人之間的功能分配。功能本就關聯于目的,不切實際地想要實現超出自身功能的目的會帶來大麻煩。在今天,機器,尤其是智能機器的黑箱化趨向往往伴隨著人機協作之中人與機器各自功用上的混淆與隨之而來的目的錯亂。所以,對于人機協作而言,為了實現良好的協作以達到“共同”的目的,人和機器各自需要干些什么必須得到澄清。當然,這種立場預設了一個重要的前提是,人類的思維模式和機器的思維模式(或者說機器的運行機制)在很大意義上是不同的。人們通常認為,人類的思維模式是一種發散思維,往往具有更多的創造力;而機器的運行機制基于一種分析思維,具有更強的邏輯推理能力。無論此種觀點是否成立,必須要承認的是,在大多數人(包括機器的制造者和人工智能的訓練者)看來,機器和人類在思維模式上是有差異的,因而二者在功能上也應當是有差異的。
問題是,人機之間在協作時應當如何依照各自的功能進行任務分配才是合理的,且有助于人機協作之目標的實現?過去的想法是,基于人機之間功能上的差異,機器將在協作中完成那些較為低級的任務,那些不需要創造力的任務,而人類則需要扮演統籌的角色,扮演最后的仲裁者和監督者的角色,同時主導創造性工作。這一點在無人駕駛汽車中體現得尤為明顯。當前的無人駕駛汽車技術已經進入到一個極其成熟的階段,但由于倫理責任上的劃分問題,無論是公共輿論還是汽車廠商抑或是消費者,都無法接受無人駕駛汽車的智能系統作為最終“裁定者”的角色。人們更為認同的是,無人駕駛汽車要為人類司機留下最終的“裁定權”,即,最后需要由人類司機來對某些極端狀況進行評估,做出裁定。這意味著,盡管智能機器的能力在不斷提升,人們依然認為,人才是協作中最后做決定的一方。但一個機器進步論的支持者可能會提出如下的問題:假如我們已經承認,深度學習培養出來的圍棋選手可以在圍棋的計量上勝過人類(給出更優解),那么,深度學習培養出來的汽車駕駛系統為何無法在駕駛策略上勝過人類呢?對此,一種可能的回應是,能力上的“勝過”并不代表一種決策的必然正當性,人類的實踐領域會受到多種要素的影響(比如各種復雜的價值觀念),圍棋策略并不能囊括人類實踐領域的多樣性。筆者的看法是,這樣的一種反駁即使成立,也無法證明任何東西。因為,倘若我們承認任何能力上的提升都無法帶來更好的決策機制,達到更好的決策后果,那么,我們無異于是在說,在人類的生活領域,并沒有一個更優解可以給出:無論機器還是人,無論是更聰明的機器還是更聰明的人,都無法做到這一點。
三、嵌入協作:一種面向整體任務的人機系統與機器黑箱化的解決可能
如果我們要開創一種人機協作的新局面,即一種機器通過真正具有某種人類認可的實踐智慧,并且在人類面前消除黑箱化的可能威脅,以更大的比重參與到人類目的的實現中,我們需要重新思考協作的方式與條件。人機協作本質上說,是要組成一個嶄新的“實體”,或者叫組合體,為人機之間建立一種類似于人與人的關系,并且人類一方能夠保證機器在協作過程中不會有不利于人類的目的、功能、決策、行動(而機器尤其是智能機器的黑箱化往往無法向人類保證這一點)。在這其中,協作的基本要素包括:(1)總體目標的設定;(2)協作雙方的互動,且這個互動乃是以總體目標為指向的,或者說,是為了幫助對方更好地實現目標;(3)不同的參與者之間構成一個平等或者正常的關系,使協作得以有效延續。
然而,人們可能會質疑的是,機器會進行“協作”嗎?協作首先是作為一種人類之能力被規定的。在德目表中,善于協作、具有德性精神被認為是一種好的品格,這意味著,如果我們想要讓機器與我們協作,我們需要假設兩點:(1)機器能夠具有一種“德性”;(2)機器能夠具有“協作”這樣一種“德性”。問題是,機器不一定能夠通過第一重測試,即它不一定具有我們所謂的“德性”。瓦拉赫與艾倫在《道德機器》中就明確指出,“人們對他人‘做正確的事的信任,源自于共享的道德情感基礎。對于人工道德智能體的設計者來說,難就難在如何給一個‘冷冰冰的、無情的機器去設置這樣的穩定性”。(11) 換句話說,機器要獲得德性,需要具備某種情感;而當前機器的“無情感性”又被當作某種意義的“德性”(好的特征),這顯然是自相矛盾的:要么否定情感作為德性基礎的設定,要么否定機器需要一種德性,或者,直接認為機器的“德性”不同于人類的“德性”,而且,這不同性質的“德性”之間,還是可以互相協作的。如果我們認同這種協作,就意味著我們已經放棄了讓機器通過進化的方式獲得與我們“類似”之品格的可能。對此一個可能的解釋是,我們希望在當下能夠快速獲得“協作”的效用,而不是要實現對智能機器某種“品格”與“德性”的養成:那太花時間了,太不確定了。因此,機器具有善于協作的“德性”目前來看很難被證明。
其次,人機之間的協作是否必定預設機器作為一個“行動者”的可能?筆者認為,這也并不是人機協作的必要條件。相反,機器的“行動者”預設往往伴隨著對此一行動者黑箱狀態的默認。因為,機器的“行動者預設”所指向的人機協作關系對照的是人與人的協作關系,而一個人類合作者對于另一個人類合作者來說有極大的可能是一個“黑箱”。此外,如我們在本文第二部分所指出的,人與機器之間在目的與功能上的差異也使我們在試圖將機器預設為“另一個行動者”時困難重重。所以筆者的看法是,人機協作是可行的:這種可行性并不意味著我們需要將機器理解為一個對等的行動者,一個有著明確目的論趨向的情感性存在,或者一個可能具身化以呈現自身作為一個統一體的存在。
因此,我們需要構思一種新型的人機協作模式,筆者將這種新型的協作模式稱為“嵌入式”的人機協作。它有如下幾個特征:第一,嵌入式的人機協作不需要為機器在協作過程中是否具有明確的目的而擔心。因為嵌入本就預設了人類具有一個關于自身的明確目的,機器只是憑著自身的獨特功能而嵌入到人類實現自身目的的進程中來的,此時,我們不用擔心機器會因著自身的目的而呈現出對人有威脅的“黑箱化”趨向。第二,嵌入式的人機協作能夠解釋并辯護今天機器對于人的深層次介入,其理由是,嵌入式的人機協作意味著今天的智能機器并不會在協作過程中成為人自身的“主宰者”與控制者,人并不會在人機協作過程中喪失自主性。第三,嵌入式的人機協作為人機之間的深度融合提供了一個空間。我們需要明確的是,嵌入式的人機協作并不意味著人消失在機器中(此時人面對機器的黑箱化與不可解釋性無所適從),也不意味著機器消失在人中(此時機器很難基于自身的獨特功能而真正在人機協作中發揮創造性的作用),它是在承認機器與人在功能與目的有所差異的前提下,通過一種融貫性的整合,重新構造出一種以人機有效協作為目標的整體,機器的不可解釋性甚至黑箱化趨向會在此種嶄新的協作整體中變得不再具有威脅。此時,機器尤其是智能機器就像我們自身的器官一樣。我們想象一下,我們的手臂的運作機制可能對于人來說也是一個“黑箱”,但由于我們的手臂深度地嵌入到我們作為人的整體結構中,因此,我們并不會因為搞不清楚我們自身手臂的運作機制而如臨深淵、惶惶不安。
一個嵌入式人機協作的范例是Iyad Rahwan提出的SITL模型(Society-in-the-loop)。按照Rahwan的解釋,這種模型會產生“一個可被解釋的系統,它能更好地融入嶄新的算法社會契約,與人類共生存,而不必成為敵對的關系”。(12) 換句話說,這種嵌入模型是將社會契約作為一種“黏合劑”加入到人機的協作當中去。我們先不討論這一黏合劑是否有效,首先必須承認的一點是,對于一個異質性的各個要素進入其中的協作系統來說,要實現一個良序的運轉,我們確實需要一種優秀的“黏合劑”。而基于SITL模型的人機協作模式,將會要求把社會整體的價值觀嵌入到某種智能機器中,嵌入到某種協助社會治理的算法之中。這種嵌入導致的一個結果是,我們能夠在價值觀的意義上對智能機器產生一種認同,而這種認同的建立類似于人體以及人體中的某個器官對于另一個器官的認同,從而黑箱化和可能的不透明在嵌入式黏合中不再具有威脅。
一般認為,SITL是一種對于HITL(human in the loop)的替代。按照HITL方案的基本方針,在設計出某個人機協作的模型時,我們需要“讓不同的利益相關者參與設計自動學習系統或者機器學習系統”,從而共同建構一個協作方案。在HITL方案中,人作為操作者在人機協作的建構中扮演著決定性的角色,他們負責控制機器、監督機器,同時,他們也承擔優化程序和維持人機協作整體的工作。這實際上是一種較為陳舊的人機協作模式。在HITL系統中,人的作用更大,人承擔的責任也更多,他們往往就是那個負責任的實體存在。然而,隨著技術的進步,當機器和智能機器開始呈現出人所不能夠清晰領會的諸多特征時,HITL模型的這種運作模式將讓人感到越發乏力,進而陷入一種面對機器黑箱化的掌控力消失體驗。根本上來說,我們必須要承認,人作為操作者,其實很難再僅僅憑借自身的力量黏合自身與人工智能機器之間的關系。這類似于如下的狀況,我們想為我們自身安裝一只機械手臂,我們的大腦要求完全清晰地理解這條機械手臂的運作原理,讓這條機械手臂能夠符合HITL原則,否則,大腦將認為這條機械手臂處于黑箱狀態而不可認知,進而排斥機械手臂與身體的有效協作。而按照SITL模型,重要的不是讓大腦控制機械手臂或者理解接受手臂,重要的是將自身的運作機制,比如,大腦控制身體其他器官的機制與原理嵌入到這條機械手臂中,使得大腦能夠在發現機械手臂已然被嵌入人體工作機制的前提下,自主地掌控這條機械手臂。此時,就算大腦完全不理解此條機械手臂的運作原理,它可能依然不會將其判定為“異物”。
具體來說,SITL實際上回答了如下一個問題,如果我們需要在人機關系中進行價值與觀念嵌入,那我們需要嵌入到哪里,或者說,這個嵌入最后會得到一個什么東西。SITL的意義在于,通過社會契約(價值)的嵌入,人類的責任擔當不是消失了,某種程度上反而是加強了,人不用再擔心自身被機器左右,被機器吞噬;同時機器會被要求以此種社會契約(價值)為自身的導向,因而機器也不會再是一種對于人類責任的瓦解,機器的黑箱狀態不再構成人機協作的巨大威脅,畢竟,盡管我們確實應當更加努力追求黑箱的澄明與透徹,但這是一個較為漫長的過程,我們完全可以在實現人機協作有效運作的前提下來追求澄明與透徹,并且只有在此時,智能機器的澄明與透徹對于人來說才是有意義的。
此外,SITL的嵌入模式還能夠解釋我們與機器之間的責任關系,能夠將機器作為責任體納入到責任考量中來。實際上,當我們說在人機協作過程中,人和機器承擔著某種“共同責任”時,這種共同責任其實是一個放大了的責任體,是一個以人作為行動者和責任承擔者的責任結構,機器在其中往往被忽視,或是被理解為制造者的投射。例如,在自動駕駛技術中,共同責任中的機器部分指向的就是軟件設計者、汽車生產者的責任。但在SITL的嵌入模式下,我們可以更認真地考慮機器尤其是智能機器的“責任”。人機協作中的機器可以被轉化為一種具有了設計者“實踐智慧”的機器,而它的不透明性與黑箱特質在此狀況中不會對合作者構成威脅,原因在于,共同責任的存在暗示了人與智能機器(都有“責任”)雙方都被嵌入了某種社會契約(價值)的維度,他們可以在此一維度的基礎上融合成為一個嶄新的“整體”。
注釋:
(1)(6)(10) [意]盧西亞諾·弗洛里迪:《第四次革命》,王文革譯,浙江人民出版社2016年版,第49、12、37頁。
(2) 我在這個地方所說的“智能機器”除了指那些與AI(人工智能)算法相關的技術,比如某種推薦算法、某個基于算法的服務平臺之外,還包括那些在其運作模式中加入了人工智能技術的機器,比如無人駕駛汽車等。
(3) 我所謂的黑箱狀態是指,當智能機器介入我們的現實生活,它在作出決策建議或者進行價值判斷時,并不會告知人類參與者它如此做的詳細理由,或者,它所給出的理由(比如“基于算法”的緣故)是人類參與者所無法清晰理解的。此時,對于人類參與者來說,機器就是在一個“黑箱狀態”中作出決策建議和進行價值判斷的。Propublica網站的一篇調查報告“機器偏見”,曾聚焦一個名為Compas的AI系統,此系統基于已有的犯罪記錄,嘗試預測被告再次被逮捕的概率。結果是,黑人被告得到更高分數的概率比白人被告多45%。然而,人們試圖對此種結果進行解釋時,發現這個AI系統得出此種略帶偏見的結論并沒有一個合適的理由,也就是說,AI系統只會告訴探究者,依據算法得出的結論就是黑人被告再次被逮捕的概率更高,至于為什么如此,并沒有(對于機器來說也不需要)一個進一步的解釋。
(4)(5)(8)(11) [美]溫德爾·瓦拉赫、 [美]科林·艾倫:《道德機器——如何讓機器人明辨是非》,王小紅譯,北京大學出版社2017年版,第99、142、12—13、106頁。
(7) [美]布萊恩·阿瑟:《技術的本質》,曹東溟、王健譯,浙江人民出版社2014年版,第227頁。
(9) 我們或者可以將其稱為智能機器的“實踐智慧”,即智能機器所掌握的如何讓自己所具有的功能與目的契合于人類目的的智慧。
(12) Iyad Rahwa, Society-in-the-Loop: Programming the Algorithmic Social Contract, Ethics and Information Technology, 2018, 20(5), pp.5-14.
作者簡介:林建武,南開大學哲學院副教授,天津,300071。
(責任編輯 胡 靜)