999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能算法的倫理危機與法律規制

2021-11-15 03:13:58鄭智航
社會觀察 2021年4期
關鍵詞:人工智能法律

文/鄭智航

引言

隨著互聯網、大數據、云計算等科學技術的發展,人力、腦力和算力融合得愈來愈緊密,以生活要素數據化和機器自動化決策為核心的人工智能算法得到了越來越廣泛的應用。人工智能算法使得機器能夠通過可讀的指令程序,根據網絡痕跡、位置信息、消費記錄等數據,對人的行為進行評價和預測。這種自動化決策方式在人員招聘、教育培訓、無人駕駛、投資咨詢、司法判決、智能診療、新聞推薦等諸多領域得到了廣泛運用,極大地降低了人們的決策成本,提高了工作效率。然而,人工智能算法獨特的運行邏輯導致法律賴以生成與存在的社會結構性場景發生了重大變化,加劇了決策者與相對人之間的“數字鴻溝”,造成個人權利與算法權力之間的失衡,從而誘發了一系列的倫理問題。這些問題在一定程度上顛覆了傳統的法律認知,增加了傳統法律治理的難度。要想增強人工智能算法法律治理的有效性,克服“人工智能時代的法律功能危機”,就必須回到人工智能算法這一基本原點,探求人工智能算法倫理危機產生的結構性因素,并在此基礎上分析既有法律治理手段存在的限度,從而為人工智能算法法律治理的轉型升級探明方向。

人工智能算法的倫理危機

人工智能算法獨特的運行邏輯正在深刻地改變著以往的生產方式和生活方式,并反客為主地對人的行為形成支配關系。人們可以借助于數據操縱與算法來實現控制人的目的。馬長山認為:“掌握了數據,就意味著掌握了資本和財富;掌握了算法(Algorithm),就意味著掌握了話語權和規制權。”這種具有隱蔽性的算法權力會給人們帶來系統性的不利后果,消解人的主體地位,侵犯公民的基本權利,誘發一系列的倫理危機。人工智能算法給以強調個人幸福和權利優先性為特點的現代倫理帶來了巨大挑戰,現代倫理以道德個人主義目的論方法論原則為指導,將個人幸福置于根本地位。這種方法論要求凸顯人的主體性地位,并用主體性原則來構建現代社會。它將“人為目的”的道德觀和權利優先性理念作為現代社會正義的基礎,將人的外在行為所直接產生的現實效應或實質結果,或者由它帶來的實際價值效應作為道德評價的依據。主體性、個體正義觀和實質結果判斷構成了現代倫理的基礎。然而,人工智能算法對作為現代倫理支撐的主體性原則、社會正義觀和實質結果主義提出了嚴峻挑戰。這種挑戰主要體現為人的主體性地位的消解、群組正義觀代替個人正義觀、人工智能在算法結果上的標簽化效應等。

人工智能算法法律規制遇到的挑戰

算法自動化決策在推動社會進步的同時,也帶來一系列的社會問題和法律問題。人們試圖通過既有的法律主體性制度來解決這些問題。這種法律主體性制度構想體現了進一步捍衛現代社會主體性倫理基礎的努力,但是,它難以適應人工智能算法運行的基本邏輯。這種“生硬”的制度“嫁接”,既難以在法學理論上實現邏輯自洽,也難以對人工智能算法的健康發展進行有效上導。

現代法律主體制度是建立在對人的哲學理解基礎上的。它強調人除了具有認知、判斷和選擇等能力以外,還具備道德、良心、良知、倫理等要素。因此,法律主體制度是以人具有獨立的人格為前提的,并將人作為一個不證自明的法律目的。運用法律主體制度來解決算法誘發的倫理問題與社會問題存在諸多障礙。首先,人類設計算法和發明作為算法載體而存在的人工智能體并不是為了創制一個目的性存在,而是要為人類生活服務。換言之,算法及作為算法載體而存在的人工智能體始終是一種工具性存在。盡管算法系統經歷了從物理系統到仿生神經網絡系統的發展,并不斷迫近人類的神經認知系統,但是,它“沒有上升到有生命的狀態,不具備生命所要求的能夠利用外界物質形成自己的身體和繁殖后代,按照遺傳的特點生長、發育并在外部環境發生變化時及時適應環境的能力”。而人自然生命的目的神圣性是法律主體制度建立的基礎。賦予作為算法載體而存在的人工智能法律主體地位,既會冒犯人的自然生命的目的神圣性,又顛倒了目的與工具的關系。其次,運用法律主體制度規制算法,無法實現權利義務統一性原則。權利與義務相統一原則是現代法律的一項基本原則,也是法律主體理論或制度的核心內涵。賦予作為算法載體的人工智能體法律主體地位,是一種授予權利的行為。但是,既有的法學理論無法回答人工智能體獨立承擔相應的法律責任的問題。最后,算法目前通過深度學習難以進化出人的自由意志和情感。現代法律主體制度深受康德自由意志學說影響,并將自由意志和情感作為法律主體的必備要件。隨著科學技術的發展,算法的學習能力得到大幅度提高,并形成了一定的語言和思維能力。但是,要想在短期內進化出反思能力,具有同人類一樣的自由意志與情感,則幾乎不可能。

為了規制算法權力,揭開“算法黑箱”,人們愈來愈傾向于運用透明性原則,因為透明性原則能夠彌補決策者與相對人之間形成的“數字鴻溝”,避免信息的過度不對稱導致技術劣勢一方依附于技術強勢一方,從而演變成數字經濟時代的精英統治。算法透明度主要包括算法源代碼的透明性和開放性;公布用于作出相關算法決策的輸入和輸出過程;以簡明易懂的方式公開輸入到輸出的中間過程,以便被決策對象充分知悉并認同算法的正當合理性等內容。它雖然在防止算法技術異化方面起到了一定的作用,但仍然會受到算法性質、公眾認知能力和算法自身的可解釋性等因素的影響。(1)就算法的性質而言,各國法院傾向于認為它是一種商業秘密。(2)就公眾的認知能力而言,絕大多數非專業人士都不具備讀懂算法語言的基本能力。透明性原則的核心是通過公眾的知曉和理解來防止決策的失誤和不公正。看懂和理解則是公眾監督的前提。人們依憑看懂和理解的信息,并結合生活中的常識判斷,能夠得出一個較為客觀公允的結論。然而,算法極強的專業性和嵌入性,極大地超越了普通人的常識判斷范圍,絕大多數非專業人士根本無法理解算法。換言之,人工智能算法是一個自我封閉的“孤島”,要想理解算法,就必須具備相應的知識體系和認知能力。因此,運用透明性原則來規制算法的效果不會十分理想。(3)就算法自身的可解釋性而言,它是運用透明性原則規制人工智能算法的前提。某一事物只有具有可解釋性,才既能夠在公眾面前得到有效的開示,又能使專業技術人員對自身行為的正當性進行有效辯解。從本質上講,算法是在特定的網絡架構模式中,通過計算機語言進行具體編程而組合成一套源代碼系統。簡單的算法具有可控性,是可以解釋的,但是,復雜的算法對于數據和硬件設施的依賴程度會很高,并且它們在不斷地進行學習和自我進化。

在人工智能算法中,數據與算法的關系極為密切,以至于“數據喂養著人工智能”成為一個基本的共識。計算機只有吸收大量的數據,算法才能運行起來,并得到學習和進化。而算法又能夠將數據加以轉化和控制,從而形成一種“準公權力”,這是算法異化的一個重要原因。因此,人們認為運用數據權的保護模式能夠有效地解決人工智能算法的倫理危機。具體來講,運用數據權來約束人工智能算法存在三個難題。第一,數據權的內容和歸屬界定困難。權利內容清晰和歸屬明確是權利有效行使的前提,而算法運用的數據非常復雜。它近似于一個倉庫,可以分為數據運營層、數據倉庫層和數據產品層等層級。不同的數據層對數據的管理和使用方式也不同,相應地涉及具體的權利內容也較為模糊。另一方面,平臺數據的權利主體難以通過對法律條文和法律教義的分析來明確,也難以基于正當性與后果主義的分析來界定,因為平臺數據既可以被認為是個人所有、平臺所有、個人與平臺共有,也可以被認為是互聯網空間的公共數據。第二,算法技術可以繞開數據權主體。隨著算法學習能力的不斷增強,它愈來愈能夠對海量的無結構數據(包括百度搜索記錄、淘寶購物記錄、手機全球定位系統即GPS信息等各種電子痕跡)進行分析和處理。個人身份的已識別或可識別狀態往往成為數據分析的結果而不是起點。特別是到了數據倉庫層和數據產品層,算法所處理的數據距離數據源中的原始數據愈來愈遠,因為算法在最接近原始數據的數據運營層就進行了去噪、去重、提臟、業務提取、單位統一、砍字段等多項工作。因此,算法技術繞開了數據權主體,致使“從數據是否已包含個人身份信息入手來規制算法無法達到保護個人權益的目的”。第三,數據權是一種以個人為中心的救濟模式,難以應對算法權力的復雜性。從本質上講,運用數據權制約算法權力的思路是一種以單個的個體為中心來對抗“準公權力”的思路。這種思路忽視了算法權力的技術性和資本性兩大基本特性。

算法權力的技術性增加了普通民眾的認知難度。算法權力的資本性,決定了普通民眾難以用數據權來制約算法權力。算法設計者和研發者往往是一支龐大的專業團隊,并且擁有雄厚的財力支持。無論是法官還是律師,都難以應對專業化的算法問題。這種認知上和財力上的懸殊,使個人數據權難以對抗日益膨脹的算法權力。

人工智能算法法律規制的基本路徑

人工智能算法獨特的運作邏輯致使運用法律主體制度、透明性原則和數據權等方式化解人工智能算法的倫理危機和社會危機的思路難以奏效。因此,應當調整傳統法律制度的規制理念,構建符合人工智能算法運作基本邏輯的規制路徑。

受效率主導邏輯的支配,算法設計者和開發者往往將注意力集中在吸上甚至迎合用戶上。這種偏好原則可能將用戶鎖定在“信息繭房”中,從而忽視了用戶的數字福祉(digital well-being)。這種數字福祉的范圍要大于數據權的范圍,體現在算法及作為算法載體而存在的人工智能體在認識、動機、結果、組織評價等多方面滿足善的要求。它能夠在社會提出的倫理原則或指導方針與算法設計者或開發者提出的目標技術之間進行一種反思性的平衡,并應該在特定數據技術的開發、部署和使用等各個關鍵階段都發揮核心作用。隨著網絡技術和算法技術的發展,人們愈來愈強調算法設計者和開發者應當依循“經由設計的數字福祉(digital well-being by design)”理念,將對用戶數字福祉的保障和促進融入產品和服務的設計中去。這種算法中嵌入數字福祉的做法在醫療保健、教育和就業、治理和社會發展、媒體和娛樂等領域愈來愈得到運用。特別是數據技術所具有的積極計算能力,促進了道德規范在算法設計過程中的嵌入,因為它建立在積極心理學研究的基礎上。

傳統的法律規制手段還是建立在國家與社會、公權力與私權利的二元結構基礎上的。它強調國家以自主性為核心的“專斷性權力”和個人基本權利所具有的排除公權力侵害的防御功能。具體到算法規制領域,它主要體現為試圖建立一套以結果責任認定為核心的政府事后監管模式和以個人為中心的權利救濟模式。這些方式和手段雖然在一定程度上能夠起到糾正算法偏差的作用,但是對于嵌入算法技術過程中的更為隱蔽的算法偏差的作用并不大。這需要我們重新認識國家與社會、公權力與私權利、行政權力與技術權力的關系,并建立一種“政府—平臺—商戶(消費者)、公權力—社會權力—私權利的三元結構”。三元結構中的國家與社會、公權力與私權利不再是簡單的消極對抗關系,政府權力也不應該是一種高專斷性權力。人工智能算法構造了一個信息社會,信息成為權力的中心,產生一種信息權力,這種信息權力制約和阻礙著以科層制為核心的政府權力的運作,并在事實上改變了政府權力的運作形態和人們對權力的認識。算法平臺具有的經營權、財產權和知識產權等一系列私權利會在這種信息優勢和技術優勢下演變為一種“準公權力”。政府在算法規制過程中,也需要借助算法平臺、程序員和人工智能專家的信息優勢和技術優勢,實現合作性治理。因此,算法平臺企業、程序員和人工智能專家不僅是政府監管的對象,也是政府監管的參與者、決策者和執行者。國家有關算法規制法律規范的制定和執行都離不開他們的積極參與,而且這種參與的深度和力度要遠遠超過二元結構中的公眾參與。

人工智能算法法律規制基本理念的轉變必然帶來法律規制路徑的變化。具體來講,人工智能算法的法律規制應當強調元規制治理,突出數據控制者的自我控制義務;加強政府、平臺和社會三方的合作治理,通過第三方參與實現對算法的協同治理;完善算法責任分擔機制,建立算法安全風險的保險制度;等等。

就算法的元規制治理而言,應當強調通過激勵機制來促使數據控制者針對問題進行內控式的自我規制。在此過程中,數據控制者應當通過數據保護影響評估和“經由設計的數據保護”等方式來履行數據保護義務。數據保護影響評估是對算法進行的一種事先規制。它強調數據控制者對軟件產品是否符合適用的法規標準、指南、計劃、規格和過程進行獨立評估。為了強化評估的作用,只有那些通過專家、公共機構和受算法決策影響的社區代表審查評估的算法,才能在一組實體之間共享或在公共站點上發布。在具體評估過程中,不但應當評估基于目的使用算法的必要性和相稱性,而且應當評估算法可能帶來的侵害自主權、差別性待遇、財產損失等風險。算法擁有者應當根據評估結果提出處理風險的預想方案。

隨著政府—平臺—商戶、公權力—社會權力—私權利三元結構治理理念的確立,除了政府需要改變過去單向度的“命令加控制”的管控方式外,還需要構建算法規制的合作治理路徑。在這種合作治理中,政府監管機構應當通過“提高標準化程度和自動化程度”,使用“司法測試和新技術”來敦促算法相關企業遵守法律法規和其他內控性質的規范。社會第三方力量應當提供全自動的算法風險分析和控制技術。算法平臺和企業應當嚴格履行防范算法風險的義務,不斷調整信息技術系統,制定個性化的內部算法風險管理流程。

算法系統的復雜性對傳統的以因果關系為基礎的法律責任體系形成了嚴峻挑戰。當某個產品匯聚多種算法系統時,要想找到損害結果與損害行為之間的因果關系,難度會更大。在未來相當多的情況下,通過傳統產品責任來解決智能算法及智能系統致人損害問題愈來愈不可能。吳漢東預測,未來社會以過錯責任為基礎建立的“風險分配”責任體系,將在某些領域不復存在。例如,對于算法上發的交通事故的認定,歸責事由只有結果的“對與錯”,而無主觀上的“故意”或“過失”。倘若讓算法及其智能系統的開發者或經營者承擔無過錯責任,就勢必增加產品的生產成本,阻礙算法技術的發展。因此,筆者主張逐步建立算法安全風險的保險機制。作為算法載體而存在的人工智能體的生產者或所有者應當購買一定份額的保險,以分擔算法上發的安全風險。

猜你喜歡
人工智能法律
法律推理與法律一體化
法律方法(2022年1期)2022-07-21 09:17:10
我校新增“人工智能”本科專業
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
法律適用中的邏輯思維
法律方法(2019年3期)2019-09-11 06:27:06
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 04:56:22
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
主站蜘蛛池模板: 一本久道热中字伊人| 91精品专区| 亚洲欧美日韩高清综合678| 婷婷开心中文字幕| 天堂成人av| 亚洲欧美一区二区三区图片| 99re这里只有国产中文精品国产精品 | 成人免费一级片| 国产特一级毛片| 成人国产精品一级毛片天堂 | 成人亚洲视频| 污视频日本| 一区二区欧美日韩高清免费| 精品99在线观看| 亚洲国产精品VA在线看黑人| 久草性视频| 久久精品中文字幕免费| 永久免费无码日韩视频| 日本91视频| 成人综合在线观看| 午夜限制老子影院888| 国产成人免费| 毛片基地视频| 国产中文一区二区苍井空| 一区二区影院| 亚洲无码高清免费视频亚洲 | 三上悠亚一区二区| 国产精品乱偷免费视频| 一级毛片不卡片免费观看| 亚洲精品视频在线观看视频| 精品亚洲欧美中文字幕在线看| 国产精品污视频| 国产精品久久久久无码网站| 四虎成人精品在永久免费| jizz国产视频| 白丝美女办公室高潮喷水视频| 午夜精品区| 欧美日韩免费在线视频| 波多野结衣第一页| 亚洲欧美综合另类图片小说区| 精品第一国产综合精品Aⅴ| 国产女同自拍视频| 亚洲一欧洲中文字幕在线| 国产va在线观看免费| 丰满人妻中出白浆| 精品国产一区二区三区在线观看| 亚洲国产成人在线| 国产亚洲精| 欧美成人免费一区在线播放| 丁香婷婷激情网| 亚洲三级色| 国产综合网站| 欧美亚洲中文精品三区| 国产日韩欧美精品区性色| 麻豆AV网站免费进入| 69av免费视频| 婷婷六月综合网| 久久精品国产91久久综合麻豆自制| a亚洲天堂| 日韩免费中文字幕| 国产人人射| 精品国产网站| 538国产在线| 国产美女免费网站| 在线观看网站国产| 沈阳少妇高潮在线| 欧美成人午夜在线全部免费| 婷婷99视频精品全部在线观看 | 国产日韩av在线播放| 青青草原偷拍视频| 黄色网在线| 久草中文网| 国产一区二区三区夜色| 在线综合亚洲欧美网站| 色婷婷综合激情视频免费看| 一级黄色网站在线免费看| 国产亚洲视频播放9000| 国产亚洲高清视频| 亚洲自拍另类| 国产色婷婷| 久久久久中文字幕精品视频| 极品私人尤物在线精品首页|