智能互聯網時代的深度法律變革,是一個沒有預設藍圖和結果的探索過程,但這并不表明它混沌無序;相反,它呈現了從工業社會邁向信息社會的制度轉型升級的趨向。
其一,數據的公平占有與合理使用。實踐中,主要是商家和政府在運用數據挖掘技術來實施對原始數據的抓取、整理、分類、匹配和賦值,并據此為客戶設計和提供相應的產品與服務,或者建立起規范新技術的社會管理模式。此時,就會形成基于數據資源的利益關系和社會關系。“如果要避免價值和權力落到少數人手中,我們就必須設法平衡數字平臺(包括行業平臺)的效益與風險,確保其開放性,并為協作式創新提供機會。”因此,在數據原生者、衍生者、交易者、使用者等角色之間,誰是這些數據權利的主體、數據權利義務如何分配、如何公平占有數據和抑制數據壟斷、如何合理使用數據、數據權利和個人隱私受到侵犯時如何進行救濟等,都是必須回答的時代課題。
其二,數據闡釋的價值判斷。大數據分析離不開分析者的技術取舍(如數據清理、數據集成、數據變換、數據歸約)、數據賦值和數據闡釋,而“數據闡釋并不是理性的,這不能測量,也沒有是非對錯的終極判斷。闡釋永遠是主觀的,是依賴直覺的,而且也與周邊環境緊密相關。同樣的數據在不同的環境內容中可以有截然不同的意義,這些意義并非數據所固有,而是人們在特定環境中分析數據并將意義賦予了數據”。受此影響,面對相同的數據材料常常形成不同的算法,并得出對問題的不同解釋和不同的行動方案。這樣,數據闡釋就不再是一個技術問題,而是內含著一定的價值判斷,潛藏著不同的利益訴求和權利主張,需要構建相應的數據正義觀予以指引。
首先,代碼規制的正當性與合理性。在互聯網創生之初,網絡自由主義者曾宣稱要拒絕國王、總統和投票,他們只堅信基本的共識和運行的代碼。但事實上,網絡空間從來都不是沒有規矩的“自然狀態”。其中,在知識產權、隱私和言論自由等方面,制定標準和編寫代碼就是一種新型的規制形式和控制力量。這就要求代碼必須有一定程度的開放與透明,以至于“開源代碼的斗爭不亞于爭取民主的斗爭,不亞于反對國家權力可能被濫用的斗爭”,它已成為“開放社會的基礎”,從而使代碼規制能夠保持必要的正當性與合理性。
其次,代碼編寫的價值偏好。從技術上看,程序員按照設定任務(應用)來編寫源代碼(源程序),并經由編譯程序轉換為目標代碼或可執行代碼,進而指揮計算機的每一個動作以解決某個算術或邏輯問題。因此,在代碼編寫中就必然會帶有程序員(或雇主)的思想理念,在這里并沒有中間立場。代碼編寫的背后,是代碼所圈定的商業利益和政府管理模式,而廣大客戶或服務對象則處于話語權缺失狀態和弱勢地位,在商業建模面前只有選擇“用”或“不用”的權利,這無疑都會或隱或顯地制造和加劇社會等差與不公平。因此,抑制代碼編寫的價值偏好就成為實現代碼正義的必然要求。
再次,對“惡意代碼”的控制。在商業利益和不良動機的誘惑下,仍存在著大量的內核套件、流氓軟件、勒索軟件、間諜軟件、病毒軟件等“惡意代碼”程序,嚴重破壞了互聯網秩序并侵犯了用戶的合法權益。據此,必須開發新的惡意代碼分析、控制技術,并扼制惡意代碼編寫者的技術回應,從而控制“惡意代碼”軟件的泛濫,維護代碼正義和網絡秩序。
一是算法偏見或歧視。大數據、人工智能的廣泛應用,促使一些制造商和商業平臺通過運用數據挖掘和算法,來對用戶進行“量身解讀”和行為模式歸納,從而做出有針對性的“私人定制”和提供個性化服務,并承諾算法的客觀性、精準性、可靠性。這樣,用戶就把決策權交給了商業算法。然而,美國一些警務實踐表明,算法設計者對犯罪威脅或風險預測、違規自動監控等的相關性賦值與權衡帶有偏見乃至錯誤。在我國,同樣存在著“數據殺熟”、算法偏見或歧視的問題。由于商家有選擇的、利益至上的營銷方案,這種算法偏見會在事實上形成一個“鄙視鏈”,嚴重侵蝕了社會公平和正義。
二是算法黑箱。“互聯網+”、大數據和人工智能的加速融合發展,使“人類正在進入一切皆可計算的時代”。事實上,商家以算法為銷售工具的趨向已經勢不可擋,各種建模和算法很可能已經巧妙地“將你的生活轉化成他人的商機”。在公共政策或公共服務自動化中的算法設計中,“程序員們被賦予了過多的決策權,而且不受到任何審查”,不僅算法黑箱和錯誤不可避免,甚至還可能出現失控的“算法自主”現象。這樣,就需要努力推進算法的透明性、公開性和建立算法審計機制,讓“那些對結果抱有懷疑的人可以掀開‘引擎蓋子’看個究竟”,而如何通過算法審計機制,來讓算法遵循“善法”,就成為維護算法正義的重要方面。
在智能互聯網社會,互聯網平臺、數據公司等新興商業組織塑造著全新的經濟業態、商業模式和交易規則,成為日益重要的新型法律關系主體,它具有此前法律關系主體所不可想象的“準立法權”“準行政權”和“準司法權”。淘寶、京東、騰訊等每年都會處理數十萬件糾紛。更為重要的是,人工智能技術的飛速進步,開啟了人機共處的新時代,從而不斷沖擊我們賴以建立傳統世界的那些確定性。由此,智能機器人是不是“人”的問題就日顯突出。
在全球信息化的秩序轉型中,電子技術把所有交易模式都融入到一個巨大的系統之中,數據、代碼、算法、炒信平臺侵犯的法益、虛擬財產等新的法律客體以及財產類型不斷出現。這使得學界曾經公認的“凡是人以外的不具有精神、意識的生物歸屬于物,是為權利的客體。主客體之間這種不可逾越的鴻溝”現在發生動搖。傳統法律關系主體、客體范疇的定義、內涵、外延、法律屬性等均遭受著重大的沖擊和挑戰。
一是新型權利大量出現,突破了既有的權利義務范疇所能界定與證明的范圍。這些新型權利義務(權責)關系,尤其是區塊鏈、比特幣、自動駕駛等的數字化、智能化發展,難以在既有理論和制度的框架內得到證明和實踐。以自動駕駛造成的交通事故為例,它會涉及汽車制造商、軟件開發商、程序員、汽車所有者、交通事故當事人,“可能的肇事者鏈變得越來越長,而且很難再被一一辨析清楚。此外,軟件由成百上千名程序員編寫,無時無刻不在更新”,其結果很可能是“所有人都會被控告”卻“最后無人擔責”。而智能系統面對危急時的復雜路況——當交通肇事無可避免時,是優先保護婦女兒童還是老人、車內乘客還是路人、少數人還是多人?倘若要將人類倫理轉換成智能系統的決策程序和算法,其所涉及的權利義務(權責)關系將更是傳統理論及其制度實踐所無法回答和解決的,理論和制度的創新迫在眉睫。
二是傳統權利義務關系因嵌入數字化、智能化要素而發生了根本性改變。智能互聯網使得數據、代碼、算法和建模嵌入了社會關系和社會生活之中,導致“一方面權利被擴大,另一方面權利被削弱”。區塊鏈應用領域中的智能合約,帶來了透明、安全、高效、去中心化的信任共識機制,但“危險在于沒有人能確保該算法設計準確,尤其是當它與眾多算法交互時”,人們只能接受算法的決策和承擔相應的后果。這些并不是簡單的新生事物利弊問題,其深層正是傳統權利義務屬性的改變、放大和限縮,展現著“被賦權和剝奪權利”兩者間相互作用的趨勢。
三是權利義務分配及其實現方式不斷被解構和重構。首先,法權觀念的更新與重構。移動互聯網使人們迎來一個“無分享不生活”的時代,“過去既求所有又求所用的消費觀念,變成了不求所有但求所用”。隨著發展方式從獨享經濟邁向分享經濟,那些關注財產的實體性、當下性,強調占有、控制與積累的傳統法權觀念受到重大沖擊,而注重信息財產的虛擬性、衍生性和未來性,強調分享、利用與流通的全新法權觀念則悄然興起。近年來迅速崛起的短租平臺、分時度假等新業態、新模式,塑造著共享模式的權利義務關系和實現方式,傳統法律制度對此難以有效處理,法律制度和社會秩序的順應變革就成為必然。
其次,法權界定的難題日益增多。任何時代的法律,都會遭遇到新社會關系中的法權界定難題,但它是少量的、偶發的。而當今的普惠金融P2P模式、眾籌模式、網絡名譽侵權乃至一些互聯網犯罪等,則是批量的、經常性出現的。它們所帶來的新的交易形式、利益關系、責任歸屬和救濟方式等問題,都難以再沿用以往的權利義務關系理論和制度安排,其法益性質與范圍也難以厘清,這些法權界定的難題都需要理論和制度上的創新來解決。
再次,通過軟件植入實現了對既有權利義務關系的即時改寫。網約車、搶票軟件的興起,其實質是憑借數字化、智能化技術實現了在現有制度中的“植入”。這些“植入”,一方面,通過“創造性破壞”提供了社會進步的便捷與福利;另一方面,也直接“改寫”了既有出租車管理制度、購票制度中的相關權利義務關系。這些都使得既有權利義務的分配格局被打破,權利義務的實現方式也被更改,制度規范的效力就難免出現危機,迫使政府不得不進行回應和變革。
其一,私權利與公權力的同步增長。網絡空間帶來了空前的自由空間和自我賦權,但各國都在憑借技術手段來規制互聯網,并導致“監控國家的誕生”。因此,盡管互聯網帶來的好處是如此驚人,但“在20世紀的所有發明中,它是對個人生活侵犯得最厲害的”,自由與控制、私權利與公權利是雙向運動的。
其二,私權利扁平化與私權力崛起相交織。在智能互聯網時代,一方面,“集中化的時代已經過去,現在的世界充滿了更多的商機,以及更加分散的事物”,呈現分布式、多中心、人性化的分享發展趨勢,消費大眾及其權利日益碎片化、扁平化;另一方面,平臺經濟成為當今社會的主導形態,這些商業平臺基于自身利益和運營需要,制定了各種交易程序、交易規則和糾紛解決機制,而這些程序和規則呈現在消費者面前的,主要是概括性同意與否而不是菜單式選擇。于是,平臺就具有了自身運營的管理權和政府轉加的公法審查權,形成了日益龐大的、具有某種公權特征的私權力。而“所謂的平臺效應也在加劇利益和價值向少部分人手中集中”。
其三,公權力、私權力與私權利之間的復雜博弈。社會權力的崛起改變了傳統的國家與社會的二元對立框架,形成了智能互聯網時代的公權力—私權力—私權利三元博弈新格局,這就改變了以往國家與社會、權力與權利的關系結構與系統功能。“一種形式的權力或許被摧毀了,但另一種正在取代它”,這意味著邁向多元治理的結構性轉向,會引發法律關系的深刻變革。
其一,法律行為后果上的重大差異。在千百年來的現實空間中,人們的法律行為主要發生在可接觸、可知情、可理解的人與人、人與物之間;而如今,網絡虛擬空間則是具有扁平性、匿名性、分布性、流動性的無限場域,是“一個與現實世界有些相似的世界,是一個既存在于現實世界,又存在于現實世界之外的無法界定的地方”。這樣,法律行為的社會影響就會被無限量放大,甚至會發生實質性改變。同一法律行為在虛實不同空間中的不同行為后果,是因為行為的表現形態和社會影響程度發生了根本改變。
其二,法律行為的動機、目的和因果關系復雜難辨。由于網絡虛擬空間具有扁平化、自由化、匿名化等特殊屬性,發生其中的法律行為的動機、目的和因果關系呈現出快速流變性、深度隱蔽性和邊界模糊性,對很多法律行為都難以套用傳統理論和司法實踐經驗來應對。其中電子化、信息化、數據化且虛實交錯的意思表示、行為表現、證據鏈條和因果關系就顯得十分復雜。
其三,社會行動方式上的深刻改變。“網絡空間不是一個同質的場所,在各種不同網址上發現的群體和活動都是獨具特征的,因而每一區域都會發展一套獨特的規則。”相應地,價值觀念和行為方式也出現了巨大分化,社會交往更加自由、便捷和展現個性,使得特定的人群不再一致,一致的人群不再特定,這就使得集體行動的成本大幅降低,而動員能力卻急劇提升,促進了互聯網運動和亞文化的擴展與繁榮。因此,互聯網一定程度地從技術上突破了代議民主的限制條件,使直接行動、直接參與、直接民主成為可欲的目標,但網絡民粹主義和多數人的暴政相互助長也成為了它的副產品,甚至還會扭曲民主的精神實質和現實途徑。
首先是意思銜接。自工業時代以來,人們就一直跟機器打交道,包括自動化的機器。然而,智能機器人與以往機器的根本不同在于,它們被賦予了人工智能(算法),在人類的設計規劃下接替人類的一些工作。于是,人類的研判和決策就通過智能機器人得到了廣泛延伸。此時,算法黑箱、算法自主、智能機器人的深度學習等問題,就使得一些法律上的意思表示出現了人機銜接問題,機器人自主學習則是人類智慧的技術延伸,它“破壞了機械和有機之間的界限”,會出現連程序員都無法理解的高度不確定性和難以控制性。這種“不按套路出牌”的自主學習,已遠超行為人可以理解和預知的范圍,會給法律行為的認定帶來重大挑戰。
其次是行為協同。隨著智能互聯網的深度發展,“計算機系統從一種工具變成了代理人”,甚至在勞動力與服務業等很多方面都已經取代了人類。“既然認識到計算機已經取代了那些本該具有道德約束的人類服務人員,再去避免談及對計算機系統類似的道德約束就顯得不合適了。”之所以如此,很大程度上是因為人機共處背景下的行為混同。人機配合、協同和傳遞的問題,在理論和實踐上對法律行為理論和制度提出了挑戰。
再次是后果混同。“隨著機器在普通人的生活和工作中的普及,通過機器使行為和責任脫鉤日益成為普遍現象。越來越多的人將失敗的責任轉嫁到機器身上。”在利用智能機器人的醫療事故、自動駕駛的交通事故、智能交易的重大失誤、無人機誤判恐怖分子錯殺平民等問題上,“誰來為機器的行為負責”,是技術故障、操作不當、還是設計缺陷?遺憾的是,“我們都知道一個產品可以追蹤屬于哪個廠家,但程序是不一定的,有可能是由眾多的人共同開發的,程序的產生可能無法追蹤到某個具體的個人或組織”。這樣,人機共處和協同所產生的后果問題就陷入了困境,人機混合必然要求進行相應的理論創新和制度重構。