蔡 琳,楊廣軍
(西北工業大學公共政策與管理學院,陜西西安 710129)
人工智能算法越來越廣泛地應用到公眾的日常生活中,給人類社會帶來了極多的便利,大幅度地提高了決策或服務的精準性與效率性,算法也逐漸成為公眾熟知與密切關注的話題。然而,算法本身并非純粹客觀的技術工具,基于其獨特的運算邏輯和數據資源的配置能力,正在重塑社會性結構與應用場景,公眾也意識到了算法技術由此帶來的負面影響,比如張凌寒[1]、蔡琳等[2]研究提出的算法權力與個人權力的失衡、數字鴻溝的加劇,以及新型不正當競爭等一系列社會風險,這沖擊了固有的傳統觀念,加大了傳統科技倫理治理與現有法律體系規制的難度。針對算法帶來的隱憂,近年來商業公司、學術科研機構、政府部門、國際組織等,以原則、準則、報告、白皮書、宣言、倡議等外在成文化的形式陸續制定算法科技的倫理文件,涵蓋人類福祉、隱私、公正、安全、責任等價值基礎[3],算法科技倫理得以從傳統科技倫理中演化而生,成為專門約束算法活動的新型倫理規范。
作為計算機科學與倫理學相交叉的新興領域,算法科技倫理的核心內涵在于通過基本使命、倫理原則、行動指南的設定,確保算法及其相關主體在設計、開發和應用等階段的行為活動,合乎主流的社會價值與特定的倫理規范。國內外對算法科技倫理的研究目前主要聚焦于算法社會的倫理風險,以及算法科技倫理的制定生成、類型框架、理論前提、哲學思想、價值基礎、基本準則、設計方法、建構進路等[4]。例如,有研究從生成論的視角出發,借助“技術-倫理”的框架來剖析算法科技倫理的類型與發展歷程[5];有研究基于算法倫理問題的形成原因或解決路徑區分為原則式、過程式和倫理意識式這3 種不同的進路[6],或者是定位式、嵌入式、規范式的研究進路;有研究將算法科技倫理的設計作為重點,或是提出以義務論為基礎建立道德算法[7],或是強調從符號人文主義入手構建算法人文主義[8],抑或是采用自上而下、自下而上、自上而下與自下而上相混合的方法實現算法的倫理賦予與嵌入;有研究對來自不同國家或國際組織發布的人工智能(AI)倫理文件進行了調查分析,發現所發布的AI 倫理指南在透明度、公正和公平、非惡意、責任和隱私等5 個關鍵原則上達成了廣泛共識[9]。然而,現有的研究過度關注算法科技倫理相對抽象、概念化的治理原則構面[10],以及相對具體或針對性的治理策略與進路,但缺乏對算法科技倫理自身利弊的結構范式剖析與實際治理效果研究。
目前,算法科技倫理在外在形式上雖以成文化的文件呈現,但仍然囿限于單一且效力較低的倫理層面,在內容上仍未形成統一的規定,并且只是倡導性的規范與要求,由于其軟法性、模糊性與弱操作性,導致難以產生顯著的約束效果,因而,算法科技倫理的治理方式面臨完善轉型的緊迫需求。隨著我國《關于加強科技倫理治理的意見》《科技倫理審查辦法(試行)》等政策文件的出臺,將模糊的倫理框架落地為具體法律制度設計,關注與利用法律元素成為算法科技倫理的重要發展路線。值得注意的是,接納倫理價值的法律需要“從倫理的有效性中推導出自己的有效性”[11]。基于此,有必要探索算法科技倫理的生成、內涵、結構等。本研究結合問卷調查的實證方案,力圖對算法科技倫理的法制化進行全方位的考量論證與進路建構。
在算法倫理相關文件的發布浪潮中,算法科技倫理針對算法技術發展與應用過程中的倫理風險、倫理問題而適配形成,對算法技術具有約束、規范作用,亦是智能技術迭代下的倫理產物與社會現象,從邏輯上探討分析算法科技倫理的生成與結構,可以為算法科技倫理法制化的因應奠定基礎。
算法作為與現代信息技術同時產生的產物,已經經歷了一定的歷史發展時期,逐漸從傳統的“輸入-輸出”型計算機算法,轉向具有深度學習能力和自主化決策能力的人工智能算法[12],成為相關領域最前沿的對象之一,也成為了一種獨立的技術類型。作為數字經濟的基礎與核心,算法技術日趨成熟與獨立,支撐著生產運轉與服務效率,重塑著社會關系與社會秩序,也不可避免地帶來全新而又復雜的利益沖突與倫理問題。例如,算法越來越多地代替人類公共領域作出決策,異化為一種“算法權力”[13];又如算法正在描述人、塑造人、對人進行安排,挑戰人類的主體地位。當傳統科技倫理所賴以存在的行業場景、社會關系、社會結構發生重大變革時,目標治理對象由計算機、冶金陶藝、掃描打印等技術向智能算法技術轉變[14],傳統科技倫理旨在解決的倫理風險亦被算法時代所覆蓋、吸收,致使傳統科技倫理在應對算法技術及其引發的倫理風險時陷入捉襟見肘的困境。自2016 年以來人工智能勃興,成為互聯網、大數據之后第三波信息革命,商業公司、學術科研機構、政府部門、國際組織等紛紛致力于算法倫理文件的制定,據不完全統計,2016—2021年全球與算法相關的倫理規范文件已達174 部(見表1),分布廣泛(見表2)。在技術迭代的洪流與倫理文件的制定中,一種新型科技倫理——算法科技倫理應運而生。

表1 全球與算法相關的倫理規范文件統計單位:部

表2 算法倫理相關規范文件的國家和機構分布統計單位:部
算法科技倫理是指在算法技術的設計開發與測試應用中,依照現實與理想中的外部社會關系[15],算法本身以及相關主體應當遵循的道德準則和行為規范,更廣義的還包括算法活動所涉及的倫理關系、倫理要求、倫理責任等[16]。作為一種新型倫理,算法科技倫理是算法技術應當考慮與注意的問題,也是科技倫理的重要研究方向,更是算法時代最為突出的倫理表現。
從總體上看,各大算法科技倫理文件內容基本相似,而算法科技倫理也進入框架和體系的討論階段,在橫向上形成了涵蓋技術標準、行業要求、政策法規、公司倡議等多層次的倫理框架[17],如表3所示。其中,某些倫理準則由大型企業或行業協會提出,要求其員工或者成員在算法開發與應用過程中應當遵守其制定的各項原則,倫理規范執行主要依賴自我約束;還有些倫理原則提倡在國家政策法規的指引下推進算法向標準化、合乎倫理化方向發展,針對較為普遍的侵權問題比如隱私保護,則要求適用相應的單行法。

表3 國內外部分算法科技倫理相關文件
從縱向上來看,算法科技倫理形成了上、中、下3 個層次的具有邏輯性的體系結構[18]。首先,上層為算法科技倫理的基本使命,例如維護人類根本利益、構建可信賴的算法等,其實使命本身亦是一項具有更大普遍性和穩定性的倫理準則,涵蓋了其他基本倫理原則的內涵,用于指導算法技術的研究與應用以及中下層內容的確定與完善,代表著發布者關于算法技術的基本價值觀和態度;其次,中層為各項算法科技倫理基本原則,例如尊重隱私、公平公正、安全可控、透明可釋等,這些原則既是基本使命的具體體現,又為下層提供引導;最后,下層為不同應用場景下具有針對性、可操作性的實施細則。當然,這個體系結構可能并不能完全地包含所有算法科技倫理的內容,但有利于充分調動各種力量共同化解算法倫理風險,推進算法技術及其產業合乎倫理地安全有序發展。
算法科技倫理已經成為獨立的科技倫理類型,其內容的制定引起了國際上的密切關注與廣泛討論。然而,算法科技倫理并非毫無漏洞,其本身的結構范式存在一定的缺陷,加之算法社會的倫理風險更具強危害性、不確定性、廣滲透性、難以察覺性等特征,導致并未達到理想的治理效果,因而需要融合法律手段實現范式的轉型與效力的進階。
結合傳統技術倫理的規制模式,算法與算法科技倫理的關系應對可以體現為以下幾種方式:第一是直接將算法科技倫理嵌入算法設計中[19],讓算法具有倫理價值判斷與選擇的能力,成為倫理道德的思考者與行動者,促使算法作出合乎倫理的決策和行為,深刻體現人們所共同追求的倫理價值;第二是直接對算法進行算法科技倫理的規制,讓算法的設計、運行和發展都符合算法科技倫理要求,限制在其設置的框架范圍內。第一種方式強調在算法運行時將倫理嵌入其中,以更好地實現算法積極效果的發揮。但這種方式面臨著兩大挑戰,一是需要事先設定一套統一合理且合適的倫理標準,二是需要將這些倫理價值或準則精確地編譯成代碼或者公式最后融入算法的運行過程。顯然,這兩項任務都難以輕易完成。第二種方式備受關注與推崇,側重于對算法進行倫理約束,通過算法科技倫理的運行機制來約束與規范算法活動。但由于算法具有不透明性、不確定性、有限自主性、難以問責性等獨特性質,人類自主性消解、隱私空間坍塌、社會公正危機、數字公民異化等倫理風險迭出,以及算法科技倫理的軟法性、內化性、倡導性等,這種僅僅基于自我約束反思、他人評價矯正的倫理規范治理方式[20],似乎難以發揮強有力的風險預防與行為規范作用。算法科技倫理的自律規制注重倫理風險的事前預防,通過倡導性的規范將矛盾化解于后果產生前,但這與涉及主體眾多的算法技術的運算邏輯不相匹配[21]。而倫理責任、懲戒方式的缺失與不明確,又使算法科技倫理的治理乏力成為必然。
既然算法技術已經成為當代社會的重大風險源,為了人類的生存與社會的穩定就必須采取措施控制算法技術本身及其應用所引發的社會風險。除倫理控制外,社會風險控制的手段還包括技術控制、法律控制等[22],這些手段對人的行為與選擇都有一定的約束,都可用于防范算法技術所引發的倫理風險。然而在實踐過程中,由于算法技術或者這些社會風險控制手段自身的特性,可能會具有不同的控制效果,甚至出現不適用的情形。
技術控制是指采取某些技術措施,以技術應對技術的方式防范倫理風險。但在算法從純粹的理論與模型研究轉向解決民眾實際問題的發展過程中,表現出與傳統計算機算法和傳統技術不具備的特質,這些特質導致難以用技術來解決算法引發的倫理風險,從而難以產生良好的風險防范效果[23]。再者,以技術解決算法技術問題之時,是否會產生新的倫理風險尚不可知,這就陷入了邏輯的悖論。
法律控制與其他約束手段相比更具強制力和威懾力,可以通過建立強有力的約束與制裁機制來確保人們對基本要求的服從。法律的控制作用表現在,可以通過相關立法保證技術活動的正常運行,將算法活動主體的行為限制在法律允許的范圍內。然而,算法技術仍處于高速發展的階段,正在逐步打破現有持續穩定的法律監管體系[24],其更新迭代也遠遠領先于法律的制定速度,如果采用追逐技術熱點的立法模式又容易導致立法的混亂,而過早地用法律對算法進行規制又容易限制算法的發展。因而,單一的法律控制手段雖然能夠最為有效地應對算法倫理風險,但依然存在一定的局限性。
法律與倫理具有共同的價值追求和目標,倫理是法律制度的淵源與基礎,法律可以為倫理運行提供保障[25],因而在算法技術倫理難以發揮其應有的約束與治理作用時,可以制定相應的法律制度、實施具體的配套措施,實現算法科技倫理的法律化[26]。法律制度能夠借助其強制性與自上而下的推動性化為傳播算法技術倫理的有效手段,提升算法活動主體的自覺性。不僅如此,算法技術倫理因為有些原則過于抽象,可操作性不強,沒有設定比較明確的義務和責任,相關主體沒有一定的方向指引,純粹依靠內心的約束也忽略了現實的要素。法律制度能夠設定明確的權利義務與責任,并通過強制性的成文規定使這種算法技術上的道德義務更加明確生動,從而便于參照[27]。法律制度是具體明確的行為規范,可以發揮其確定性與制裁性的效用優勢,加強算法技術倫理的現實性和可操作性。另外,當前也尤其需要通過法制手段改善“技術在前、倫理在后”的情形,以立法的形式明確算法技術倫理的內容并上升到法律規范層面,實現算法技術倫理的自律與他律相結合,構建良好的算法科技倫理法治治理體系。
算法科技倫理在運行過程中存在著一定的缺陷,其法制化轉向已成必然,但這一命題還需具備一定的實踐依據,為此需要對算法科技倫理法制化是否具有必要性及可行性進行實證調查與分析。
為了更加詳細、具體、深入地了解當前算法科技倫理的認知和實踐現狀,使算法科技倫理法制化的必要性更具有說服力、算法活動中的問題以及法制化路徑更具有確定性,本研究采用在線問卷以檢驗提出的假設,基于假設模型和先前相關研究結論進行問卷設計。調查問卷的題數總共21 道,包含個人基本信息題目5 道、對算法科技倫理的了解程度題目2 道、對算法技術和應用的感受及態度相關題目9 道、對算法科技倫理以及法制化的想法和建議相關題目5 道。調查共回收368 份問卷,其中有效問卷342 份。在回收樣本中,男性共有152 人,占比為44.44%;女性共有192 人,占總樣本數量的55.56%,男女比例近似 1 ∶1,因而樣本符合人口統計學特征。
問卷設計中,首先選取人類福祉、公平公正、尊重隱私、安全可控、包容共享、透明可釋、共擔責任這7 項倫理原則作為一級指標,構建7 項一級指標共29 項二級正項指標的評價指標體系,如表4所示。同時,經過信效度的檢驗,7 項變量的克朗巴哈值均大于閾值0.70,分析項的CITC 值(校正項總計相關性)均大于0.40,說明這些分析項之間具有良好的相關關系,同時也說明信度水平良好。綜合來看,研究數據信度系數值為0.99,高于0.90,這說明數據信度質量高,可用于進一步分析。再者,由驗證性因子分析得到的因子載荷計算各變量的共同度(公因子方差),結果均約等于或大于閾值0.50,即問卷也具有較好的效度,可以進行后續分析。

表4 算法科技倫理原則評價指標體系
4.2.1 調查問卷結果分析
(1)對算法科技倫理的了解程度。從是否了解“算法科技倫理”或者“人工智能倫理”的概念這一問題的調查結果來看,有209 人是有聽說過這一概念并具有一定了解的,占比為61.11%;完全不知道這一概念的有106 人,占比為30.99%;而很了解這一概念的僅有27 人,占比為7.89%。
從是否關注國內外近年來發布的有關算法科技倫理的政策性、法律性文件這一問題的調查結果來看,有117 人聽說過但具體沒有關注這些消息或者文件,占比為34.21%;聽說過并有一定了解的有92 人,占比為26.9%;有關注并看過相關介紹和新聞報道的有40 人,占比為11.7%;而非常關注并閱讀過政策和法律文件的人數僅有15 人,占比為4.39%;同時不了解的人數多達78 人,占比達到了22.81%。
由此可見,很大一部分公眾對算法科技倫理的概念及相關倫理準則文件停留在聽說、有一定了解這一淺層階段,完全了解和關注的人數還是相對較少,而卻有極大一部分人面臨完全不知道、完全不了解的境況,這形成了較為強烈的反差與對比。究其原因,一方面是由于公眾對具有專業性與不透明性的算法技術及其理論知識過于陌生,另一方面是由于算法科技倫理及其準則的普及還不夠廣泛與深刻,從根本上制約了公眾的了解程度,導致公眾認知嚴重不足。
(2)對算法技術及其應用的感受和態度。從對算法技術所持有的態度來看,絕大多數人(190 人,占比為55.56%)認為算法偏正面,算法技術的發展總體上將造福人類,但是卻可能引發新的社會問題;有49 人對算法持非常積極的態度,認為人工智能算法發展將造福人類,占比為14.33%;認為算法偏負面,算法技術的發展總體上會給社會問題帶來不確定性,但是認為在局部的發展對社會有益的人數有34 人;認為算法技術將會減損人的主體性、可能造成新的不平等、造成隱私的泄露,應該嚴格限制的人數有27 人;當然,也有42 人認為難以對算法技術進行評價。
從對算法技術在司法中的應用給用戶帶來的感受這一問題來看,認為程序公開透明、方便高效、精準打擊違法行為、電子取證便捷的分別有127 人、182 人、138 人、178 人,都是較為積極的感受;而認為其會增加壓力與負擔的有46 人,占13.45%;對此沒有感受以及因未曾使用而不了解的總人數為107 人,占據將近1/3,說明仍然有一部分人未體驗到算法技術在司法當中的應用所帶來的改變或福利。從對算法的自主化決策在行政領域的應用給用戶帶來的感受這一問題來看,有130 人認為應當由人作出決策而不是算法,而認為導致程序不夠公開透明、增加壓力和負擔的人數分別為87 人、70 人。從這幾組數據來看,算法的自主化決策在行政領域的應用面臨一系列倫理問題,當然,其帶來的便利也不可否認,有145 人認為其方便高效。
從算法個性化推薦與分發技術在新聞資訊、娛樂以及購物領域的應用帶來哪些積極影響、消極影響以及需要哪些改進措施這一系列問題來看,積極影響方面選取人數從高到低依次為滿足個性化信息和情感需求、挖掘客戶的潛在興趣愛好、方便快速獲得想要的內容、緩解了由于信息過多造成的焦慮感、提高信息的傳播速度以及網絡參與意識壯大,分別有215 人、210 人、207 人、129 人、121 人、60 人;消極影響方面各選項選取人數較為平均,其中認為侵犯個人隱私的人數最多,有201 人,僅次于此的是有188 人認為算法會強化固有偏見、形成思維定式、不利于創新,這為論證算法易引發隱私侵犯以及“信息繭房”的風險提供了數據支撐;改進意見方面人群主要集中在算法平臺要加強對隱私條例的遵循、優化算法推薦技術、全面客觀地反映熱點事件這幾個選項,分別有213 人、196 人、181 人,這有利于為選取合理的算法技術治理路徑提供參考。
從對目前算法技術各類應用所存在的隱私風險的態度來看,有228 人認為在無法保證隱私前提下應嚴格限制技術使用,技術發展不能以侵犯個人隱私為代價;有212 人認為技術發展不可阻擋,可以在發展中逐步完善;而有152 人認為對于侵犯隱私很無奈,該用還得用。由此而言,公眾希望算法技術的各類應用能夠保護用戶的隱私安全,但就目前的實際情況而言,公眾在面臨算法對其隱私的侵害時表現得較為無奈。究其原因在于用戶對各種應用平臺逐漸依賴,但忽視了隱私條款的各種設置或者無法選擇拒絕平臺提供的隱私格式條款,這使得平臺在這一類條款的設置方面對大多數用戶而言已然形同虛設。
從自身遭受算法技術損害的公眾會選取何種途徑來維權這一問題來看,選取網絡平臺維權這一途徑的人數最多,向政府部門舉報次之,分別有192 人、174 人;選取去法院起訴、與企業協商的分別有144人、125 人,但仍然有114 人感覺到有心無力、無所適從。在此類問題的維權途徑上,絕大多數用戶認為各方主體應當多加配合,這將為構建算法科技倫理法制化的路徑提供有力借鑒。
從算法可能引發的倫理風險這一問題來看,選取標簽化效應,以及侵害個人隱私甚至集體隱私、抑制公民知情權這兩大風險的人數均超過200人次,分別為229 人、217 人;當然,其他風險也不容忽視,選取的人次也較多,從高到低依次為削弱人的自主性或消除人的主體性、侵害社會公平與正義,以及算法難以問責,分別有170 人、163 人、119 人。
(3)對算法科技倫理以及法制化的想法和建議。從認為算法設計和開發是否應當遵守相關倫理準則這一問題來看,絕大多數人(257 人,占比達75.15%)認為算法活動是應當遵守相關倫理準則的,選擇“否”以及“其他”的分別為49 人、36 人,側面反映出公眾對算法科技倫理的普遍認同。
從認為已經出臺的各項算法科技倫理準則對算法活動規制的效果如何這一問題來看,有極大一部分人(141 人,占比為41.23%)都選擇不太清楚、缺乏相應的支撐材料,還有極大一部分人(114 人,占比33.33%)認為算法的倫理要求僅限于道德上的倡議,并不足以產生有效的控制力;僅有66 人認為已經出臺的倫理準則能夠有效地對算法活動進行規制。由此來看,各項算法科技倫理準則對算法活動規制的效果并不顯著,面臨難以量化與查驗的困境。
從是否有必要對算法科技倫理納入法制化范圍這一問題來看,選擇非常有必要、越早越好,以及科技政策或者倫理準則文件先行、總結出規律化再納入法制化范圍內這兩個選項的人數相當,分別為131 人、134 人,雖然這是兩個不同的選項,但殊途同歸,最后都意味著走向法制化的道路,這也反映了公眾希望用法律的途徑規制算法活動,使其符合倫理上的要求;但也有一部分人認為當前出臺的各類算法科技倫理準則已經能夠滿足需要、不需要納入,或者認為倫理本身就追求內心的約束、不能以法律形式強制要求,這提醒立法者應當把握倫理與法律這二者的關系和界限,可以通過二者的有機結合治理算法。
從對新發展階段加強算法科技倫理有哪些建議這一問題來看,各個選項基本上都得到了極大的支持,其中有3 條建議的選取均在235 人次以上,每一條建議都有半數以上的接受調查者支持,這為算法科技倫理法制化途徑的構建提供了支撐。
關于算法活動應當遵循哪些倫理準則這一問題的統計結果,采用量表圖分析法進行分析,統計每個選項的選取人數并計算各個指標的平均分。如表5 所示,雖然各個一級指標、二級指標的平均分相差甚微,但仍然看出尊重隱私原則受到了絕大多數接受調查者的同意和支持,有關各項具體要求的評分也相對較高,而人類福祉原則的各項具體要求存在一些爭議,離散程度較大,選擇一般選項的人較多,因此應當妥善考慮人類福祉原則指導下各項具體要求的制定。具體而言,在人類福祉這一一級指標下,可以發現A5和A1評分較高,分別為4.12 分和3.99 分;從公平公正這一指標來看,各項二級指標評分較為平均,其中B1和B5評分較高,分別為4.13 分、4.11 分,這反映了公眾希望算法設計者能夠承擔避免將偏見與歧視嵌入算法的義務,讓用戶能夠享受公正的待遇和發展機會;從包容共享這一指標來看,各項要求都具有較高的評分,均在4.1 分以上,其中C1和C3評分較高,分別為4.13 分和4.12 分,體現了公眾對資源和生態環境保護的重視以及對消除各種鴻溝的渴求;而在尊重隱私這一指標上,各項評分均在4.25 分以上,大多數人選擇非常同意,這說明解決算法所引發的隱私侵犯、數據過度收集問題迫在眉睫;再者,從安全可控這一原則來看,E1和E4評分最高,均為4.22 分,體現了對構建可信賴、可解釋、安全透明的人工智能算法的強烈需求;另外,在共擔責任這一指標上,F4評分最高,為4.23 分;最后,從透明可釋這一原則來看,G2評分最高,為4.22 分。綜合來看,算法活動應當遵守的7 項倫理原則的評分都較高,除了人類福祉這一指標外,各項原則評分均在4 分以上,即得到了絕大多數人的同意和支持,這有利于為明確算法科技倫理法制化的內容和范圍提供方向指引。

表5 算法活動應當遵循的倫理準則各項指標調查結果統計
4.2.2 調查問卷結論分析
通過上述調查問卷內容展示和結果統計,可得出以下結論:雖然絕大多數接受調查者對算法持有正面、偏正面的態度,認為算法總體上將造福人類,算法技術在司法、行政、消費娛樂等領域的應用能夠提高效率和便捷性、滿足用戶個性化的需求,但是接受調查者對算法技術的負面性所持態度也是高度一致的,認為算法技術會造成各種社會問題,引發削弱人的自主性、侵害社會公平與正義、標簽化效應、侵害個人隱私甚至集體隱私等倫理風險,且自身利益遭受侵犯時求助無門;同時,社會上也存在著一部分未曾使用過相關算法應用、未曾享受到算法技術帶來的各種福利與機會的群體,這與社會所倡導的共享理念存在著實際偏差,公眾一方面主動享受或不得不享受算法所帶來的便利,另一方面又對此存有或深或淺的擔憂。此外,調查結果顯示,算法活動應當遵守相關的倫理準則已經成為普遍共識,但算法科技倫理準則對算法的規制效果并不顯著,因而希望將算法科技倫理納入法制化范圍,通過加強科技倫理的教育宣傳、發揮各個協會與組織的作用、建立算法科技倫理規范體系等各種法制化途徑成為必要的選擇。
綜上所述,公眾對算法科技倫理及其準則文件的認知十分有限,對算法技術的廣泛應用存在著一定的擔憂,在自身合法權益受侵犯時難以得到有效救濟,并呼吁各主體積極承擔責任,希望采用算法科技倫理與法律二者有機結合的手段以促進算法的良性發展。因此,這為算法科技倫理的法制化研究提供了可行性與必要性支撐。
在對算法科技倫理法制化的必要性需求與因應邏輯進行論證后,應當構建配套的法律制度提高各項算法技術倫理原則的法律效力,將算法本身以及行為主體應當遵守的倫理要求、承擔的倫理責任轉化為法律要求、法律責任,確保算法活動合乎倫理。
算法科技倫理法制化的重要路徑便是推動算法科技倫理的專門立法。開展宏觀層面的立法活動,有利于加強倫理與法律的有機結合,實現從內到外全方位、全過程的算法治理,促進“硬法”與“軟法”的結合與協作;有利于整合分散的算法科技倫理文件,形成多層次的治理張力,構建多維度的算法科技倫理法制化體系。開展算法科技倫理專門立法,應當探析算法引發的倫理風險,綜合考慮不同環節、不同主體的利益關系,明確倫理原則、倫理關系、倫理責任、審查監督、獎懲機制以及救濟程序等內容。
關于倫理原則,當今國內外發布了各式各樣的倫理文件,然而立法不可能將所有涉及的倫理原則都納入法制化范圍。我國《關于加強科技倫理治理的意見》提出了增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明這五大科技倫理準則[28],這為明確算法科技倫理的各項原則提供了參考和借鑒。因此,結合本研究的問卷調研結果,從各有關倫理文件中總結出共同提及的倫理原則,目前提及次數較多的包括增進人類福祉、尊重隱私、公平公正、包容共享、安全可控、責任與問責制、透明可釋、開放協作,因此在立法過程中可以將這8 項倫理原則作出法律上的明確。鑒于倫理原則具有抽象性與模糊性,立法過程中還應體現其具體內涵和要求,對其進行官方解讀,為公眾提供明確的方向指引。
關于倫理責任、審查監督、獎懲機制以及救濟程序等,可以采取權利義務規范模式和確定程序規制模式[29]。第一種模式是以列舉和兜底條款的方式對某些主體應當履行哪些義務、承擔哪些責任以及對某些行為進行允許和禁止性規定,能夠高效且低成本地預防倫理風險,對違反倫理原則的行為進行懲戒。在這種模式下,倫理關系向法律關系轉變,倫理要求轉化為法定要求,倫理責任兼具法律責任屬性。第二種模式是對某些具體場景下的倫理違背事件進行程序性的規定,通過確立倫理反思、倫理審查、倫理監督、權利救濟等程序,在產生倫理糾紛時分配至各個相互制衡的決策機構使之得以解決,從而提高治理效率。具體而言,部分事項可以由司法機關對爭議進行審判以保障受害人的救濟權,可以由相關部門設定倫理許可條件或者實踐標準,以及可以由專門的倫理審查委員會進行審查監督等。
隨著算法技術與人的關系日益密切且倫理問題愈發凸顯,結合《關于加強科技倫理治理的意見》提出的建立科技倫理審查制度、嚴格科技倫理審查、開展科技活動應進行科技倫理風險評估或審查,有必要在原有的基礎上建立專門針對算法科技倫理的審查制度,這也是引領算法技術整體向善發展、及時解決算法倫理沖突以及促進算法科技倫理法制化最具成本優勢的路徑。
2017 年我國黨中央出臺的一系列重要文件中明確提出了區域倫理委員會的設置,在該政策的支持下,北京、上海等地已經成立了區域倫理委員會,與此同時全國性的科技倫理委員會已經建立,但其具體的運作模式以及職能義務等尚未公之于眾。此類通過法律確認的科技倫理審查機構已經廣泛應用于醫藥生物領域[30]。因此,我國可以成立算法科技倫理委員會,作為審查算法本身以及各個行為主體的活動是否合乎倫理的專門機構,同時考慮到政府制度的銜接成本,應當通過立法提高算法科技倫理委員會的正式化水平。這種方式亦廣泛被國外所采納,如丹麥于1988 年頒發《倫理委員會組建法案》建立丹麥倫理委員會,德國于2007 年頒發《道德委員會法案》(The Ethics Council Act)確立德國倫理委員會的基本建制。
對算法科技倫理委員會進行基本法律制度的設定,應當包括算法科技倫理委員會的設立標準、運行機制、登記制度、認證機制、權利義務等內容[31]。算法科技倫理委員會應當積極履行倫理審查的關鍵職能,依職權或依申請對研發的各類算法技術、算法應用和主體行為活動等進行倫理審查;根據倫理審查的結果或報告,可以對存在違背算法科技倫理的行為提出整改意見,對嚴重違反相關要求并造成一定后果的行為可以向司法部門提供相關情況說明,實現以算法倫理委員會為保障的秩序運行。
算法科技的發展應用誘發了一系列社會風險,加大了倫理治理與法律規制的難度,為此國內外出臺了眾多針對算法的倫理文件,算法科技倫理便在這一情景下應運而生。本研究通過剖析算法科技倫理的生成邏輯與內涵結構,發掘算法科技倫理因其外在形式的單一性、低效力性與內容要素的軟法性、倡導性而導致的自律規制失范現象,證成算法科技倫理法制化轉型的必然性;同時,以在線問卷設計實證調查方案,查明算法科技倫理法制化的必要性與可行性。此外,在算法科技倫理的法制化進路中,提出開展算法科技倫理專門立法、建立算法科技倫理審查制度等有效路徑,以法律強制的方式提升算法科技倫理的約束力與執行力,從而促進算法社會的良性運轉。