魏詩琪
摘?要:大數據時代,算法應用橫向擴展,機器學習縱向延伸,使得網絡公共領域逐漸被算法秩序統治。算法在為人們帶去個性化服務的同時,也觸碰了實體法律的邊界。從經濟理性、工具理性及公共理性三重理性,提出利益、技術、價值三維框架。指出在數據收集、模型搭建及運算、模型輸出及應用過程中,算法應用所暴露的侵權問題。闡釋算法規制的邏輯起點,以論證算法亟待規制的必要性。引入“第三域”概念,考察算法規制中正式制度與非正式制度的互動關系。結論指出,算法規制過程中,應兼納正式制度與非正式制度之長,營造適度的制度空間,以達到平衡狀態。
關鍵詞:“第三域”;算法規制;正式制度;非正式制度
中圖分類號:D9?????文獻標識碼:A??????doi:10.19311/j.cnki.16723198.2023.04.080
0?引言
人工智能的核心推動力是算法技術的合理應用。技術革新過程中,算法一方面介入人們日常生活中,為人們帶來新的生活方式。但與此同時,也產生了一些負面的社會影響,如美國大選過程中Facebook假新聞事件。用戶偏好數據推送信息,制造了信息“過濾泡沫”。信息繭房作用下,用戶接受的觀點極端,認知壁壘高且頑固,社會心態浮躁。更有甚,算法開始逐漸用于公共部門管理以影響并侵犯公眾權利。如何對算法進行有效規制,以實現網絡生態文明,是人工智能時代算法規制亟待彌補的一塊短板。中國古代,算法被稱為“術”;三國時期,魏國數學家劉徽提出計算圓周率的方法,稱之為“割圓術”。在現代意義上,算法是指一種通過將輸入數據轉換為所需輸出來解決問題的編碼程序。算法實質上是一種決策方式,如貝葉斯決策理論模型。通過數學語言建構成模型,以呈現客觀現象,是“一種有限、確定、有效并適合用計算機程序來實現的解決問題的方法”。人類對算法依賴性的增強,算法出現異質化,存在算法偏見、算法黑箱、算法鴻溝等問題。
1?算法規制的邏輯起點
1.1?利益驅動下的數據收集與獲取
對于輕資產企業來說,一手數據是一種寶貴資產,其價值可得到二次或者多次的挖掘。以零門檻作為吸引,通過用戶的附加價值和信息無意識泄露來賺取廣告收入和增值收入。依托多個免費的產品市場吸引用戶,通過少數市場獲取增值收入。消費者在使用基礎服務之后,有興趣進一步消費。企業收集到的數據信息趨于全面,用戶偏好和信息獲取更為廣泛,用戶黏度由此增強,利益增加。在儲存信息的過程中,信息轉化成可支配和控制的財產。
從財產上看,免費內容的商業模式造成互聯網“公共池”假象。通過短反饋吸引用戶跟風,并放棄自身隱私。在無序、浮躁的混亂中,影響人們的認知和行為;從勞動上看,互聯網企業極大依賴于用戶的貢獻與創造,享有其集體勞動成果的價值,卻不想承認其中的勞動關系。企業通過建立數據庫的形式,根據自身需要設置算法規則,實現定向廣告、個性化促銷以及定價的工作。從數據生產意義上來看,用戶和互聯網之間的關系是免費勞動力和工廠的關系。傳統互聯網企業,國家對其規制思路是歸口和屬地化管理。但算法時代的到來,使得以數據業務為主的互聯網企業打破了時空限制,跨越了條塊分割的現狀。數據所用者可從各種渠道獲取數據信息,賽博空間的“無秩序”使得其找到了規則的“避風港”,形成一種“有組織的混亂”現象。
1.2?技術驅動下的模型搭建及運算
“賬戶-行為數據-算法”這一底層架構已經構成了數字時代法律、市場和社會規范共同起作用的基礎,也受到商業生產邏輯和行政控制邏輯的雙重影響。在模型搭建和運算階段,組織結合計算目標,搭建算法架構。利用機器深度學習的能力,將大量數據投入到算法中去進行運算和學習。算法設計者根據機器在自我學習過程中的表現,調整算法以得出更好地結果。代碼是算法的載體,代碼也是賽博空間中隱形的“秩序”,即萊辛格提出的“代碼即法律”的思想。因此,在算法搭建和運算過程中,代碼編譯者的價值判斷、算法設計者的設計理念均會在代碼中得以反饋。代碼成為一門語言,并將信息和理念傳遞出去。因此,依賴于算法模型的設計、代碼的編寫,會由于實施者認知壁壘、知識面偏頗而構成算法歧視和算法偏見,這亦是算法規制中亟須考慮的技術視角。
1.3?權力驅動下的模型應用及輸出
哈貝馬斯認為,從歷史上看,公共領域經歷了三種形態的演變:一是古希臘城邦中以政治生活為本質內容的公共生活;二是中世紀歐洲封建社會時期,國家與社會沒有發生分離;三是直到18世紀,德國開始出現社團組織和協會這種獨立于政府當局的社會實體后,與當時的新聞媒介共同構成了哈貝馬斯筆下的資產階級公共領域,即第三種形態的公共領域。
互聯網2.0時代后期,算法被賦予工具化的意義。大型服務提供者演化為網絡平臺,平臺經濟蓬勃生機,但也暗藏危機,即平臺私權力的侵犯。由于網絡空間管理相關法律滯后于網絡技術的發展,網絡空間領域處于一種“混沌化”狀態。平臺的迅速崛起促進了其對于人類自愿放棄的公共領域的侵占,算法代替了法律的空缺,實際上承擔了網絡空間的日常治理。行至當下,以算法作為秩序的規則弊端叢生,并呈現出越界侵占公共領域的苗頭,甚至隨著數字化政府的到來,隱隱顯露出侵占公共權力領域的威脅。
這些信息被傳到移動終端時,脫離所有者的控制。用戶協議的信息不對稱性,使得終端企業可永久分析用戶的數據,卻不承擔法律問責的成本。用戶處于弱勢一方,只有被動要求互聯網企業刪除信息的權利,而沒有主動監控其信息被使用情況的主動權。
2?算法規制的可能路徑及其問題
2.1?算法公開
算法的不透明會造成開放者與使用者的信息不對稱,因此有一部分學者提出“確保算法透明性的直觀方案就是要求企業公布自身的算法”。但該措施存在著不可操作性,一方面對于公司來說,算法的不透明是一種自我保護手段。對于技術型公司而言,算法是企業的核心機密。一旦公開,會面臨成本增加、競爭優勢被取代等風險。如為公共利益而公開算法,本質上違背了市場經濟中企業以盈利為目的的組織目標。法律應是確保規范性期望實現,疏解和救濟失望的工具。另一方面,算法公開后,算法審查的成本較高,這種技術鴻溝使得即便算法公開,也會被大眾選擇性忽視。有一部分學者認為可以發揮媒體的宣傳作用將算法解釋給大眾,這只是將算法知識的解讀交給了社會組織中的某一群體(在這里是媒體),那依然需要媒體具備專業的算法知識。因此,可看出,不論將算法公開的審查權交給誰來實施都會遇到同樣的技術壁壘問題,總之,達摩克利斯之劍并未真正落下,算法的技術性形成了天然的溝通屏障。
2.2?算法驗證
算法形成之后,需要對其給予測試和驗證。算法驗證一般分為兩種,即靜態驗證和動態驗證。從結構-功能角度來說,靜態驗證是指重新檢查代碼,查詢設計上的不足;從過程-事件角度來說,動態驗證是指先進行小樣本的預測試,通過模擬的形式,檢查代碼實際運行過程中的情況,并給予及時的調整。部分學者認為,為保證程序正義和捍衛網絡公共空間的公共價值,應將算法驗證交由第三方認證。但這種驗證方式也存在一定的弊端,即成本過高和尋租。一方面,這種認證機制可能會給企業帶來財務壓力,這種財務壓力會使得中小初創型的技術公司陷入死板單一的機械化困境,致使技術研發的停滯。
2.3?算法解釋
算法具有自我生產能力,這種自主性使得算法規則具有復雜性。“人類知道的遠比其能表達出來的更多”,即隱性知識。然而,以機器學習為代表的人工智能,目前已擺脫了需要依賴人類表達能力的局限,打破了“波蘭尼悖論”的束縛。有學者認為,當自動化決策算法的具體決定對相對人有法律上或者經濟上的顯著影響時,相對人有權向算法使用人提出異議,要求其提供對具體決策解釋,并要求更新數據或更正錯誤,此即為算法解釋權。這個可能路徑同樣存在不可規避的問題。算法解釋首先依賴于算法在技術上的可解釋性。這就會存在算法黑箱問題。一些簡單的算法,設計師可以對其進行解釋。但隨著機器學習的縱向發展,算法的運算過程和決策過程更多地像一個看不見摸不著的黑箱。算法在模擬人類思維的過程中,會出現不可解釋性的演化。它所能被解釋的可能性越來越渺茫,設計者能夠提供算法的模型,卻沒辦法提供算法決策產生的依據。例如,我們雖能很容易記住一張面孔、辨別一個聲音,但卻并不能很好地闡述或解釋我們為什么可以實現這一功能。總結來看,機器學習模式下則不可能要求“解釋具體決定的邏輯和個人數據的權重”,因此通過算法解釋對算法進行規制也不具有普適性。
3?算法規制的新思路:走向“第三域”
算法規制過程中,一方面以“公”為代表的公權力有著防控算法過度剝奪公民自由,提防“奇點來臨”導致人類災難的政治使命;另一方面以“私”為代表的私權力強調經營的自由,但過度強調經濟效率易引發外部環境對算法的不信任甚至恐慌。
3.1?“第三域”概念的引入
“第三域”由黃宗智先生在鄉村治理的議題下提出,其認為第三域不是非此即彼的二元對立,而是“具有超出國家與社會之影響的自身特性和自身邏輯的存在”。改革時期,黃宗智認為:“正是在第三領域這一地帶,國家聯合社會進行超出正式官僚機構能力的公共活動,也是在這一地帶,新型的國家與社會的關系在逐漸衍生。這里可能是更具協商性而非命令性的新型權力關系的發源地。”正式制度和非正式制度之間具有一定的制度空間,這一制度空間即是“第三域”。算法規制的理論基礎是國家與社會的關系,將此概念遷移到算法規制中具有一定的適用性。
3.2?正式制度與非正式制度
所謂正式制度,是人們為了特定的目的有意識地建立起來并被正式確認的各種制度的總稱,它是依靠權力機構為后盾來實施的成文規范,包括法律、法規、政策、規章和契約等。在算法規制中,正式制度是指國家針對互聯網經濟制定的法律條文、規章制度、行為準則等。它是源于國家法律制度建設之中的,對于以技術作為內驅動力的算法而言,則是外來的制度,是建構性的制度體系。一旦有人破壞這些制度,便會受到來自國家強制力的懲罰。這種正式制度是以政府為主導的,以公共利益作為基礎,目的是對公共領域與私人領域界限范圍的重新界定,以建立智能經濟時代的顯性秩序,規范智能經濟,挖掘經濟價值的同時,使其關注公共價值。
非正式制度是人們在長期的共同生活或社會交往過程中形成的約定俗成的且被一致認同并共同遵守的行為準則,包括意識形態、價值信念、文化傳統、風俗習慣和倫理道德等。在算法規制中,公平是第一位的公共價值,而在這一概念框架下的非正式制度主要是指算法、算法設計者以及算法使用者的道德、價值信念和倫理道德,簡言之,即算法德性與技術倫理。這種制度是算法設計者和使用者內化于心的行為準則,往往產生于人的工作環境、行業領域、人際交往的過程中,依賴于人的自身素質和職業責任感。這種不是以法律作為基石的行為準則有著很強的情感根基,一旦有人逾越,便會受到來自職業共同體的藐視、譴責和疏離,使其在工作環境或者行業領域受到情感上的排擠,也會形成一種公眾輿論對當事人造成壓迫感致使其糾正錯誤。這種非正式制度并不是以政府主導的,而是以私人領域的每一個主體為主導而產生的,是一種他律性與自律性的體現,也是公共利益與私人利益之間可能的融合點。
3.3?“第三域”—正式制度與非正式制度的制度空間
正式制度與非正式制度的互動是頂層設計和基層呼應的良性互動。非正式制度是內“嵌”于算法運作的全程之中的,因此更容易被接受和吸納,以彌補正式制度外入的剛性制約。與正式制度的剛性手段相比,非正式制度更多的是一種柔性手段,可以內化于心,外化于行。因此,在算法規制中可以將非正式制度作為正式制度的必要補充,但另一方面,在涉及底線問題的時候,正式制度又是非正式制度的守門員與警戒線。在正式制度和非正式制度之間存在的并非是黑白對立,或者涇渭分明的一條線,而是一個可以共融的合作空間和制度空間,且這一空間具有很強的“協商性而非命令性”特點,因此,在面對一些算法規制中道德價值沖突的問題時,正式制度和非正式制度都可以介入,可以采取兩者的互動方式來解決糾紛,化解沖突和對立,合作共贏,達成一種平衡狀態。
參考文獻
[1]Karen?Yeung.Algorithmic?regulation:A?critical?interrogation[J].Regulaton?&?Governance,2018,(12):505523.
[2]查道林,蔣智慧,曹高輝,等.信息系統用戶感知算法焦慮的內涵及其結構維度研究[J].情報科學,2022,40(06):6673.
[3]Robert?Sedgewick,Kevin?Wayne.算法(第四版)[M].謝路云譯.北京:人民郵電出版社,2012.
[4]金觀濤.賽先生的夢靨:新技術革命二十講[M].北京:東方出版社,2019:105113.
[5]胡凌.互聯網與公共領域:財產與勞動的視角[J].網絡法律評論,2013,17(02):6167.
[6]阿里爾·扎拉奇,莫里斯.m.斯圖克.算法的陷阱:超級平臺、算法壟斷與場景欺騙[M].北京:中信出版集團,2018.
[7]哈貝馬斯.公共領域的結構轉型[M].曹衛東等譯.上海:學林出版社,1999.
[8]林洹民.自動決策算法的法律規制:以數據活動顧問為核心的二元監管路徑[J].法律科學(西北政法大學學報),2019,37(03):4353.
[9][德]尼古拉斯·盧曼.法社會學[M].賓凱,趙春燕,譯.上海:上海人民出版社,2013.
[10]張凌寒.商業自動化決策的算法解釋權研究[J].法律科學,2018,(3):6872.
[11]黃宗智.中國的“公共領域”與“市民社會”———國家與社會間的第三領域[C]//鄧正來.國家與市民社會:一種社會理論的研究路徑.北京:中央編譯出版社,2002:420443.
[12]章榮君.鄉村治理中正式制度與非正式制度的關系解析[J].行政論壇,2015,22(03):2124.
[13]王芳.正式制度、非正式制度與公共品供給——來自地級市的證據[J].世界經濟文匯,2018,(04):5365.
[14]劉友華.算法偏見及其規制路徑研究[J].法學雜志,2019,(06):5566.
[15]周申倡,戴玉琴.論新時代深化村民自治的“雙向制度”供給——基于村民自治制度與鄉村非正式制度融合的視角[J].學海,2019,(03):139145.