文/陳姿含
人工智能技術的發展豐富了人類的生存樣態,擴大了人類的社會活動范圍,也改變了人們的交往方式。它帶來便捷生活方式和多元生活體驗的同時,也產生了諸多問題:人工智能的廣泛應用導致人與客觀世界的邊界逐漸模糊,算法決策可能沖擊人類秩序、公平和正義。算法的進步使得人工智能技術的開展可能從根本上動搖人在世界中的主體地位。這一主體地位不僅關乎于人生活的安全,也是人類文明開展的根源,其主體地位一旦動搖,政治、經濟、文化、社會制度隨即分崩離析。
第一,依靠人工智能進行信息處理,將引入、擴大設計者的偏見并延續信息收集的偏差,有可能導致決策不公。較之于作出法律決策的責任者,設計者責任更具有隱蔽性。第二,由于算法不透明本身導致的侵權問題,可能引發治理主體不明和傳統民法規則的失效,即引發“誰是治理主體,誰又能夠成為被調整對象”的詰問。由于基礎數據和弱人工智能的設定者主觀因素的影響而產生的歧視是一種設定層面產生的歧視。除卻設定規則的歧視,在人工智能存在的算法相關的侵權問題還可能存在于數據的處理層面,這與人工智能算法的不透明相關。而人工智能在深度學習中所涉及的不透明性可以概括為:因國家秘密、商業秘密、個人隱私導致的算法不透明;因對象不同對人工智能技術理解不同而導致的算法不透明;因算法本身的復雜性而導致的不透明。第三,技術深度參與司法問題,以單純的人工算法推理代替法律推理可能有違司法公正的制度設計。法律論證的功能在于使人們確信某一法律決定是正確的。在形成使人們確信正當或者正確的法律決定的過程中,論證具有重要的影響,但是并不導致唯一正確的結論,抑或形成法律決定的過程本身即是在可接受的前提范圍內,形成當事人得以接受的結論。除卻嚴謹的論證邏輯,遵循嚴格的法律程序,與人們確信的另外一個密切因素就是說服,而這并不是一個完全理性的過程。
直觀而言,人工智能算法的進步與應用引發了新的法益紛爭,有待法律框架的完善。具體而言,人工智能算法治理的復雜性涉及一種人對自我的重新定位。我們對人工智能所作出的治理和決策應當遵循的法律和倫理框架,與其說是法律對人工智能算法的規制,毋寧說是一個人對自我深度剖析的哲學命題。在人工智能時代,任何單一的模式都無法準確地定義人的自身以及人與人工智能的關系。以血緣和婚姻為紐帶的自然人和自然家庭倫理關系受到新技術的突破,以自然人為基礎的主體制度面臨著擴張到電子人格、人工智能人格的壓力。人創造了人工智能,但是人也可能會淪為人工智能世界的客體,并由此動搖以人為中心建立起的社會制度。這必然涉及對任何單一模式的自我定位的突破。
人的主體性首先建立在人與客觀世界二分的基礎之上。由此確定了人與自然、人與社會的特殊性。法律主體的特殊性首先在物質層面展開。
(一)算法和語言溝通了人與人工智能物理世界
如果以人工智能的發展對照人類物種的起源和文明的進步,人類歷史可以被還原成為數據處理的過程,那么算法無疑正在充當語言對于人類的巨大作用。人工智能與計算機網絡的結合,就是語言支配下的科技創新。所以如果一個問題是可以計算的,就意味著通過一連串機械的運算,它能夠被計算機所解決。目前的人工智能所要解決的就是如何在增加節點但是不讓計算成指數增加進而達到計算極限的問題,現有人工智能技術已經展現出極強的計算能力。人工智能如果一旦對不可解的數學問題給出答案,人工智能將邁上一個新臺階。目前計算機硬件、互聯網與類神經網絡的深度結合,正在推動人工智能實現自主性。
(二)算法模擬了人作為法律主體的物理性基礎
人工智能展現了比以往的科技更強大的自我創造系統(self-reinforcing),對于人工智能軟件,研究者不需要輸入數以萬計的指令,而是任由進化系統挑選最好的指令,這些被挑選的指令通過深度的自我學習得以不斷改進。如果計算機代碼能夠在人工智能系統中得以像生命系統中的DNA一樣自我復制、自我刪除、自我修復,甚至自我突變,這樣的進化至少讓以人工智能為代表的人造系統與以基因為代表的天生系統之間的鴻溝得以消除。
(三)算法復制了法律主體“擬制”的過程
成文法制定的重要任務之一,是將現實中的人轉化為法律上的人;由此使得生活中現實存在、各具特征的個人,在法律上以統一的標準人、制度人的方式出現。第一,法律根據自然的人的客觀情況進行主體分類;第二,法律根據自然的人的生活場景不同劃分法律主體場景;第三,法律根據自然的人“相同情況相同對待,不同情況不同對待”的樸素正義觀設立行為模式的評價標準。其本質就是包括人類自身在內的世界被測量、記錄和分析的可能。量化一切,是數據化為智能科技帶來的有力支撐,文字、方位、溝通乃至人的行為都被數據化,進而也就實現了從外部觀察以規范對主體的認定標準。
人在物理層面所表現出的特殊性,雖是關隘卻非阻隔,是人與人工智能之間區別的前提但非鴻溝。機器人是否會出現反叛,進而讓人處于被壓迫、奴役、殺戮的境地?人能否保有自身的生存和發展空間,維持其自主性?人的主體性是否會受到沖擊,人類中心的制度體系是否得以存續?這些問題事關兩個層面的問題,一是如何對人工智能算法相關的技術予以規制,二是如何從制度構建的層面捍衛人的主體地位。第一層面的技術問題并非憂慮的真實存在。科技向來存在風險,而法律對于這一層面的安全問題的解決經驗由來已久。第二層次關于人主體性的回應才是人工智能能否進行法律規制的核心問題,這也引導人們在自形而上的層面思考法律主體的本原問題。
算法的進步讓人工智能在客觀層面具有了其他人造物非同以往的自主系統。技術的精進對理論的發展提出更高的要求。一方面人們轉向對思維層面的探究,迫于尋求除卻客觀層面特殊性以外,人得以自主的理論根源;另一方面,可以為人工智能的技術進步提供哲學的指引。
(一)從物理搜索到仿生網絡,人工智能算法在不斷靠近智能發展的“奇點”。人工智能算法的設置大致經歷了兩個階段。第一個階段,人工智能的思維模式可以抽象為一種物理系統,對關鍵符號的搜索成為物理系統的關鍵。第二階段,物理搜索系統展現出的不足,使得仿生神經網絡的發展得到重視。這一算法系統的進步不僅僅在物質結構上更接近于人腦,還具備了基本甚至深度學習的能力,能夠進行自身的模式分析,而不依賴于設計者輸入的程序。簡言之就是對現象進行描述、抽象、總結、分類、解釋等。與物理搜索的方式相比,仿生神經系統可以通過后天的學習而不斷提升,這是人工智能不斷升級、越來越聰敏的重要體現。
(二)人工智能思維模式的轉變,背后是從唯理論走向經驗主義哲學基礎的指引。如果說物理搜索是一種唯理論,先設定一個理性的大腦,能夠抽象和假設,然后通過預先輸入的通用模式進行求解;那么仿生神經網絡背后的哲學基礎就是經驗主義,通過不斷的物理刺激形成感官刺激,進而成為一種感覺認識。這一過程集中于算法的設計,主要是通過輸入信息比對,形成人們的知識和概念。從物理現象,到感覺刺激,形成感覺觀念,并隨著感覺觀念被不斷強化,形成習慣,從而指導行為,正是經驗的路徑,也是人工智能不斷學習強化思維的過程。所以仿生系統的人工智能并不預先設定用來存儲信息或者程式化的算法,而是在感受的層面形成經驗并建立聯系。這種自下而上、從實踐經驗層面到形而上的知識和概念抽象的邏輯,至少解決了笛卡爾否定機器是人的實驗中“機器無法學習的問題”。
(三)人工智能算法的邏輯體現因果關系的必然性 無論是物理系統,還是仿生系統,人工智能算法的設計都是對必然性的確信。這種一元論發展的可以歸結為面對人工智能問題時:第一,將人的身體和心智還原為客觀物質;第二,將人工智能視為生命的延續和必然;第三,接受科技的自我生命力,以及超人和超人類的存在。因此面對人工智能的發展和可能存在的風險,這種思維邏輯的結果是任由發生,甚至是推波助瀾。
這種必然性的論證邏輯,除卻未來的風險,還有一個現實的法律困境,即如果人工智能算法是對自然規律的總結是一個必然性的加速論證,那么因為人工智能所產生的任何問題,尤其是對人的傷害,就不應當承擔責任。既不能追究機器的責任,也不能追求設計者的責任。因為出現傷害的具體原因無論為何,都是必然性的一種表現。在一元論的思維下,人們應當遵從必然性。
(一)法律主體一元論基礎因治理風險而動搖
如果人們依然沿著一元決定論的道路,只有兩個歸途:一種可能是因恐懼逃避科技進步而陷入發展的瓶頸,一種可能是徹底放棄人的主體性這一立足的根本陣營。當社會科學面對技術性進步,站在發展的十字路口,應當有跳脫時代的警醒和深謀遠慮。如果將人完全置于自然之中,成為必然性和客觀規律的體系,則人是完全不需要實在法的存在,更無法根據法律規則承擔責任。科技的強勢發展導致一元論思維對后世的影響深遠,才是法律對諸如人工智能等新技術問題失靈的重要原因。我們并不是要證明“人類比算法做得好”,才能夠維持人的主體地位,否則這種人文主義與科技的競爭結果,就是期待人類心智的升級,科學家將之稱為駕駛一艘沒有地圖的船出海遠航。
(二)法律主體為自由意志留有空間
科技可能否認事實,但是無法否定倫理,這是自由意志存在的價值。現代法律的思維的起點,應當是也必然是自由意志。只有在自由意志的關照下,承認人有選擇自由,才是架構權利、義務和責任體系的基礎。笛卡爾在解決人自身的對立的時候,同時也解決人的統一問題。在笛卡爾的二元論中,心和物分屬于不同的世界,并遵循不同的規律。精神不僅是人與動物的分水嶺,也是人與機器的分水嶺。所以在笛卡爾看來無論機器設計的如何精妙——縱然機器與人能夠進行交流,或者展現出同樣的狀態——皆不代表機器具有人的意識,能夠具有意識的內在狀態。面對這種啟發,從理論構建層面,我們必須為人的意志尋求獨立空間,并將之作為制度構建的基礎。
(三)社會契約彰顯法律主體的安全地位
現代法律制度構建的一個重要基礎是社會契約。社會契約盡管復雜,締結條約的個體從始而終也鮮有脫離,卻可以高度概括:人類放棄宏偉的宇宙計劃,選擇在人類社會中獲得力量。法治社會中,實體法通過對人權的保障和人的主體地位的確立,肯定了這種力量,也彰顯了自由意志的獨特價值。所以法治社會中的人最安全,法治中的自由意志最能彰顯力量。
法律主體并非主體性問題的全部,卻是一切法律領域共同關注的話題,法律主體是權利的來源,是法律關系的邏輯起點,也是整個法律制度保護的基礎。
(一)法律主體概念同生物學上的人相互區別
法律人的概念是一種身份,而生物人的概念是一種事實,更是一種倫理。現代法律制度的進步,將法律主體擴大至全體生物人,在于對自然人的保護。但這并不意味著法律人和生物人可以混為一談,也不意味著身份與人格是同樣的概念。隨著近代資產階級革命,和現代人權保障的要求,法律的主體地位被賦予所有的普遍的無差別的自然人,法律的主體也就逐步剝離了身份的差異,而變為一種不具有價值判斷的中性的法律技術。在這一層面,縱然人工智能算法不斷靠近智能的“奇點”,并不必然得出其主體地位得以確立的正當性。換言之,人工智能模擬或者仿真的只能是生物學意義上而非法學意義上作為主體的人。
(二)立法技術中立不否認人格高貴
被法律確立為主體地位的是否都是人呢?答案顯然是否定的。法律主體不僅僅包括自然人,也包括法人。這代表著主體地位的授予是為了法律關系的開展,當然其終極目的也是為了保護個人。法律能夠對人進行擬制。具備展開聯系、對法律關系產生影響、能夠承擔責任,構成賦予主體資格的重要參考標準。法律主體資格可以賦予那些不具備自然生命的事物。因此,國家、社團、法人和其他組織,皆可稱為主體,但是不能享有法律對人格特有的保障,不能侵害法律賦予人格的特殊恩惠。沿著法律對人格的特殊恩惠,實在法可能會實現對強人工智能等類人類事務的擬制過程,但不能否認人在法律上的特殊地位。
(三)康德“以人為中心”模式的可能與反思
表面上,從經驗主義到唯理論指引的人工智能算法發展,以一元論哲學為基礎,肯定了技術的理性,否認了人的自由價值,塑造了法律的契約,也瓦解了人格的神圣。事實上本著從事實到理論再到模式制度的探尋不難發現,法律主體制度的構建,無論是以價值傾向還是規范傾向的構建,不應也不能拋棄人的中心地位。
在康德模式中,人是自由意志和自然存在的統一,是先驗和經驗的統一。正向的關系應當是人在規范自身的過程中規范自然,人在理知的過程中統覺經驗,人在制定實體法的過程中預設前提。反向的過程可以推導出,人的他律不違背自律,經驗不否認自由意志,價值中立不違背倫理。所以康德的倫理模型在今天仍然具有極其重要的意義,不僅僅指引人工智能無限接近于人的思維,更重要的是將“尊重人作為目的”作為絕對律令。這種絕對律令通過算法植入人工智能的個體,更重要的是在執行目的和手段的模式中,對外在的狀態進行一種反思。這種反思為人工智能的問責提供了基礎。
人選擇服從法律的規范意味著人在政治世界中必須獲得安全和尊重。徹底中立的法律規范也是危險的。以人為中心構建的制度體系在任何時候無法擺脫因差異而產生的主流意見。所以法律就人與人工智能所作出的分配問題具有理所當然的合法性。它避免了一種因為不斷探知真理而試圖改造政治世界的癲狂。法律宣揚的個體無差別不代表人沒有個性的差異。法律的主體地位確立不代表人格的授予或者人性的否定。法律的判斷不是倫理和價值的判斷。