999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

商業秘密保護視域下算法權力濫用的規制研究

2023-05-30 14:20:47聞鋒
西部學刊 2023年10期

基金項目:本文系許昌學院2022年度科研項目“商業秘密保護視域下的算法規制問題研究”(編號:2022YB029)階段性成果

摘要:算法是為解決特定問題而采取的一系列步驟,是人工智能、大數據技術的基礎。算法在為現代社會生活帶來便利的同時,也在不斷重塑我們的社會,算法黑箱、算法繭房、算法偏見等一系列問題正悄然發生。面對算法帶來的一系列問題,學者將其歸因為算法的不透明,并探索算法公開、算法解釋、算法排他權等有益化建議,但均與算法作為商業秘密的私權問題相抵觸。算法不透明的本質是算法權力濫用,可通過構建第三方參與機制,防止和克服算法權力的濫用,協調算法不透明與商業秘密之間的沖突。

關鍵詞:算法;算法權力;算法透明;商業秘密;算法解釋義務

中圖分類號:D922.294文獻標識碼:A文章編號:2095-6916(2023)10-0100-04

今天,我們的生活幾乎都是由算法決定的。旨在解決問題、完成任務的算法,極大地解放了人類的勞動力、提升了工作效率,已滲入日常生活的各個方面。然而,算法在廣泛應用的同時,也引發了人們的擔憂。例如,旅行軟件對同一產品的不同用戶分別定價的“大數據殺熟”事件;外賣平臺通過利用算法變相縮減外賣騎手的休閑時間,導致外賣騎手的工作場景變得危險重重①;在美國,算法技術因被用于刑事案件的量刑而引發當事人對程序正當和公平權利受到侵犯的不滿。此外,算法所帶來的偏見、產生過濾氣泡、限制人類創造力以及引發失業等問題令人們擔憂。為了應對算法帶來的問題,一些國家和地區開始探索應對策略。例如,被稱為“史上最嚴”數據保護法的歐盟《通用數據保護條例》(GDPR),通過賦予社會公眾享有算法解釋權,以回應算法不透明所帶來的社會問題。我國《反壟斷法》(2022年)第九條規定,禁止經營者利用算法等從事壟斷行為。

一、問題的提出

在2020年9月公布的《最高人民法院關于審理侵犯商業秘密民事案件適用法律若干問題的規定》中,明確將算法納入了技術信息范疇,算法的商業秘密法律地位得到肯定。但對于如何在規制算法濫用的過程中防范出現對權利人商業秘密的侵犯,立法卻未做出明確規定。由此,一方面社會公眾要求算法的透明和公開,保證社會大眾的知情權,另一方面算法構成商業秘密,能夠作為對抗算法透明的抗辯理由。面對公開算法的現實需要,如何處理其與商業秘密保護之間的關系,是亟待解決的問題。

二、算法權力濫用引發的問題表現

通俗地說,算法可以看作用計算機程序實現的、基于數據分析、面向特定目標的一套指令或方案[1]。美國勞倫斯·萊斯格教授在其著名的《代碼2.0》一書中認為,算法不僅僅是計算機的代碼,還代表了網絡世界的規則。其中算法設計者掌握著解決問題的辦法和手段,社會公眾則必須遵守這一“法律”。算法設計者和運行者成為手握算法權力,掌控網絡世界的實際主宰。技術是中立的,由于算法體現的是設計者與運行者的意志與利益,經營者既可以運用算法權力為消費者提供更好的商品與服務,也可能用來侵害消費者的權利,由此就產生“算法權力”的濫用[2],帶來的問題如“算法黑箱”“算法繭房”“算法歧視”等。

(一)算法黑箱

“黑箱”是指既不能為人們打開,也不能通過外觀直接觀察到內部狀態的系統[3]。“黑箱”不僅意味著算法有我們不能觀察的“隱層”,還意味著我們無法理解機器和人工智能提供算法的邏輯。對于用戶來說,目前大部分算法只能看到數據輸入過程和輸出結果,中間不透明的過程只有少數“局內人”掌握,即“算法黑箱”。

在我國首例“大數據殺熟”案中②,面對算法黑箱,由個人承擔證明算法開發者在設計算法過程中存在惡意歧視的舉證責任幾乎無法實現,算法黑箱阻礙了司法公正的實現。事實上,從技術角度來看,算法決策過程其實并不是典型的黑箱機制,相反地,這種不透明性是算法被人為黑箱化的結果。

(二)算法繭房

“算法繭房”是指在信息傳播中,由于人們所知悉的信息并非全方位的,往往只會注意到自己選擇的東西和感興趣的領域。然而,如果算法利用這一點,久而久之會使社會公眾陷入如蠶繭一般的“算法繭房”之中。

當前算法設計邏輯主要是參照人們的興趣愛好,關注人們想要獲取什么來進行設計。這樣的設計邏輯是順應人們認知心理中的惰性,人們對信息的選擇權完全交給算法,進而會逐漸喪失自主性和判斷力。同時,推薦的內容具有高度的同質化,長此以往會限制人們接受信息的范圍,導致缺乏判斷性思考和解決問題的機會,不利于創新的發展與進步。

(三)算法歧視

“算法歧視”是指在利用算法過程中,進行收集、數據整合、生產與分發中所產生的歧視[4]。算法歧視問題在社會實踐中已逐漸顯現,例如,美國一公司開發的compas算法用來預測犯人的再犯罪率,同時為了防止種族歧視,在進行算法訓練時,去除了種族的屬性。但在投入實踐后,被訴至法院,理由是存在種族歧視。再比如,網絡平臺利用收集的個人用戶信息,通過精準畫像等方式,對不同消費群體的用戶分別定價。此外,算法偏見還表現在就業歧視、性別歧視和年齡等方面。

雖然算法技術是中立的,但是算法設計者卻具有主觀性,在設計中會將自己的觀點和價值加入其中。加之,人們對計算搜索的結果具有天然的信賴,一般不會質疑算法的結果,這會加劇算法偏見的常態化。

此外,算法權力濫用還表現在算法合謀、算法控制等多種形態,正在重塑人們的社會生活。

三、算法透明的實施路徑及成障原因分析

因算法權力濫用產生的問題,有學者歸結為算法的不透明。考慮到算法是作為私主體的商業秘密,公開算法需要兼顧權利人的私權,典型的破解路徑是算法公開制度、算法解釋權制度、算法排他權制度。

(一)算法公開制度

算法權力濫用尤其是算法黑箱帶來的不公開、不接受質詢、不提供解釋、不進行救濟等問題,促使學者們將規制算法濫用問題的思路定位到算法公開,以期提高算法自身的透明度,其中具有代表性的事件就是美國紐約市算法立法③。雖然該法案提出公布源代碼的主體范圍限定為政府機構等具有管理公共事務職責的主體,不包含私主體,但仍遭到很大的批評,被認為是一種激進的行為。尤其是源代碼的公開,可能會使企業擔心與政府簽訂合同,同時擔心算法被同行競爭者及不法分子利用,對企業和公共安全造成損害[5]。對于算法公開制度的激進做法,有學者提出算法部分公開,以修正完全公開制度的不足。算法部分公開制度具有一定的合理性,易于被接受,但仍存在一定的問題。主要表現在不能較好地界定公開算法的類型以及公開特定算法的范圍。立法中對算法部分公開的范圍、對象、時間節點等關鍵問題都難以適用明確統一標準,而適用個案審查方式來對上述問題進行確定則會耗費大量司法資源,因此算法部分公開制度難以得到有效落實。

(二)算法解釋權

算法解釋權制度首創于GDPR,在該條例序言第七十一條規定,自動化決策關聯到個人的應當受到法律約束,即應當在社會公眾對算法決策提出質疑時,為其提供具體信息及做好相應的解釋。2020年英國發布的《人工智能決策說明指南》,為算法解釋提供了指引。美國《公平信用報告法》和《信用機會平等法》規定了“不利行動告知”條款,要求貸方就不利的算法評分向金融消費者進行解釋,包括拒絕提供信貸、拒絕錄用或提供保險服務等其他信用評估輸出結果的具體原因等。我國《個人信息保護法》規定個人有權要求信息處理者予以說明。

可算法解釋權的適用存在一定問題。首先,算法可解釋性存在明顯限度,算法建立的數據可能無法解釋[6]。即便能夠解釋,但對于享有算法解釋權的社會公眾也很難理解。其次,算法解釋權所指向的行為性質和內容難以確定。算法解釋權指向的行為乃是算法開發者的解釋行為,然而此種解釋行為要達到何種效果、如何進行操作,立法均未規定明確標準,由此可能導致請求權人所要求的解釋基于技術無知等原因根本無法實現。最后,算法解釋權在行使過程中仍面臨商業秘密抗辯的問題。

(三)算法排他權

通過移植藥品數據制度中的管制性排他權制度,使算法擁有者通過公開算法獲取5年的市場排他權,以增加算法透明度,同時也能達到用市場手段代替政府監管的效果[7]。管制性排他權具有排除他人進入市場的屬性,能夠排除競爭對手在一定時間內獲取其數據,但同時其所保護的數據可以在市場上進行自由流轉和交易[8]。創設算法排他權制度可以在一定程度上彌補現行知識產權法對算法保護的不足,平衡算法擁有者與社會公眾之間的利益關系。

算法排他權屬于一項新的權利,其創設的理論基礎、權利內容等是否適當存在一定問題。首先,算法排他權的制度目標與具體架構與知識產權基本原理不符。這是因為算法排他權的直接目標是為了保護社會公眾利益,與知識產權法直接目標是為了私人權利進而達到保護社會公眾利益的目標不同,扭曲了私權保護的理念,同時也不符合公法介入私法的特點。其次,對于算法排他權規定的5年期限是否合理也存在一定的問題,能否提高算法擁有者的積極性?對于專利權保護期限最短也是10年,算法公開能否給權利人帶來足夠的經濟利益?但如果賦予算法排他權過長的期限,也不利于算法后續利用和開發。最后,一旦算法被公開,很可能遭到競爭對手的算計,使損害大于收益,危害到權利人的利益。

綜上,雖然GDPR賦予社會公眾以請求解釋權,但同時第六十三條規定了在行使知情權時不得侵犯到他人的商業秘密權和其他知識產權。德國聯邦最高法院曾明確提出,觸及商業秘密的披露數據主體的評分公式、統計數值和參考組等信息均不符合立法目的[9]。我國《算法推薦管理規定》第十六條規定告知義務的履行不得侵害到他人的知識產權。在我國司法實踐中,也偏向于保護企業的商業秘密。因此,規制算法濫用,如不能處理好算法透明與商業秘密間沖突關系的制度理論則難以落地。

四、規制算法權力濫用的路徑轉變及制度安排

規制算法權力濫用,需要確定算法權力濫用的本質,算法權力濫用本質上是人的權力濫用。雖然算法公開制度、算法解釋權以及算法排他權也是從規范人的權力濫用出發進行制度設計,但解決方法僅是著眼于算法公開透明,即沒有從算法權力濫用的本質進行剖析。規范算法的權力濫用并非一定要通過向社會公眾公開算法的方式解決。因此,有學者指出,破解公權力領域算法歧視的關鍵不在于技術層面如何避免形成歧視性算法決策,而在于權力層面如何避免歧視性算法決策上升為算法權力[10]。

規制算法的目的應是通過規制算法這一“介質”以實現監督上游算法開發者,同時使下游的被決策者得到應有的法律保護的效果。因此,為了平衡社會公眾與算法主體之間的利益平衡關系,確保社會公眾既不會因為算法權力背后人的權力濫用而受到侵害,算法主體的商業秘密也不再需要面向社會公眾進行公開。其解決辦法,即在算法主體與社會公眾之間引入第三方機制。由算法主體在算法商業化應用前向第三方主體進行備案,而無需向社會公眾進行公開。在發生糾紛后,經相關當事人履行相應手續后,由第三方主體通知算法權利主體向請求方公布算法的運作邏輯等基本信息。與此同時,通過簽訂保密合同等方式,由請求方履行保守商業秘密的義務。通過賦予算法的解釋義務,一方面起到監督算法主體權力濫用的效果,解決算法不透明的問題。另一方面也滿足了算法主體因為算法公開而承擔的不必要市場風險。

事實上,對于算法解釋義務的規制思路在我國立法中能夠找到相應依據。在《關于規范金融機構資產管理業務的指導意見》(以下簡稱《資管新規》)第二十三條中,就規定了金融機構在運用人工智能開展資產管理業務時,除了遵循投資者適當性、投資范圍、信息披露、風險隔離等一般規定外,還特別強調應當向金融監督管理部門報備人工智能技術模型的主要參數以及資產配備的主要邏輯。同時,為投資者設立單獨賬戶,充分提示算法的缺陷和使用風險。如果因違法違規或管理不當給投資者造成損失的,要承擔損害賠償的責任。并要求應根據不同產品投資策略研發不同的人工智能算法和程序化的交易,避免算法的同質化。如因算法同質化、編程設計錯誤、對數據利用深度不夠等導致算法異常或缺陷,金融機構應當進行及時干預,終止智能交易活動。按照《資管新規》規定,金融機構將算法主要參數和運行邏輯向金融監督管理部門披露,實現了對算法的干預,打開了算法的黑箱,是對算法透明的一種貫徹,能夠防止算法權力的濫用。同時體現了一種重要的思路,也就是在特定情形下,人工對于算法的介入成為處理人機關系的一個重要準則。在人工干涉算法的自動化決策過程中,并非都要面向社會進行公開才能實現算法的透明,按照《資管新規》規定向金融監督管理機構進行備案,也能規制算法權力濫用,實現算法透明。《資管新規》的規定為算法解釋義務在解決算法不透明與商業秘密保護沖突之間關系的科學性與可行性提供了適用基礎。

具體的制度搭建可以從三個方面著手:首先,明確算法解釋義務指向的對象。不同于算法解釋權,算法義務解釋的對象為第三方監管機構,而非面向社會公眾的個人。這樣一方面可以保障算法在向第三方監管機構解釋后,并未向社會公開,仍然符合商業秘密的屬性。另一方面監管機構的專業審核人員相較于作為被規制者的個體更加具備理解算法的能力,從而對算法是否有侵害個人信息風險、算法歧視等問題給出公允的評價;其次,對于算法解釋義務的解釋規則,采用的是事前解釋與事后解釋相結合,即在算法決策應用前對算法的主要邏輯、預期結果等予以說明,以及算法決策發生以后,根據平臺數據記錄而對具體決策予以解釋。在社會公眾對算法產生質疑時,尤其是涉嫌侵犯到特定主體利益時,在具體個案中解釋算法時,可以通過與利益相關人簽訂保守商業秘密合同等方式來進行;最后,限定算法解釋義務的限度,應以能夠證明算法不存在故意歧視等不正當行為為限。

注釋:

①平臺壓縮時間的主要依據是建立在大數據和人工智能基礎上的算法系統。

②被告沒有公開其算法,配送費計算算法究竟是如何根據變量的變化而調整配送價格仍是未知的。

③在2016年,美國紐約市嘗試通過立法方式強制要求政府披露算法源代碼,法案具體內容是要求政府在運用自動化決策系統分配福利、維護社會治安和進行處罰時,必須公布源代碼,最終獲得通過。

參考文獻:

[1]彭蘭.算法社會的“囚徒”風險[J].全球傳媒學刊,2021(1).

[2]廖建凱.“大數據殺熟”法律規制的困境與出路——從消費者的權利保護到經營者算法權力治理[J].西南政法大學學報,2020(1).

[3]黃梓航.算法權力歧視下的平等權保護[J].西部學刊,2021(9).

[4]高麗華,劉堯.人工智能背景下的“算法歧視”及其治理[J].新聞戰線,2021(22).

[5]李曉輝.算法商業秘密與算法正義[J].比較法研究,2021(3).

[6]汪慶華.算法透明的多重維度和算法問責[J].比較法研究,2020(6).

[7]梁志文.論算法排他權:破除算法偏見的路徑選擇[J].政治與法律,2020(8).

[8]梁志文.管制性排他權:超越專利法的新發展[J].法商研究,2016(2).

[9]林洹民.個性化推薦算法的多維治理[J].法制與社會發展,2022(4).

[10]胡晶晶.破解公權力領域的算法歧視:權力正當程序的回歸[J].知識產權,2022(4).

作者簡介:聞鋒(1993—),男,漢族,河南信陽人,單位為許昌學院,研究方向為知識產權法學。

(責任編輯:張震)

主站蜘蛛池模板: 国产一在线观看| 成年女人a毛片免费视频| 国产一级毛片网站| 日本人真淫视频一区二区三区| 色婷婷天天综合在线| 911亚洲精品| 国产精品偷伦视频免费观看国产 | 成人小视频网| 国产精品露脸视频| 亚洲综合九九| 国产精品国产三级国产专业不| 国产拍揄自揄精品视频网站| 日韩av无码精品专区| 鲁鲁鲁爽爽爽在线视频观看 | 一级一毛片a级毛片| 国产女人18水真多毛片18精品| 直接黄91麻豆网站| 色婷婷亚洲十月十月色天| 欧美另类视频一区二区三区| 国产成人免费高清AⅤ| 国产三级毛片| 一本二本三本不卡无码| 婷婷丁香色| 亚洲男人天堂久久| 国产美女精品人人做人人爽| 欧美成人午夜在线全部免费| 2020久久国产综合精品swag| 熟妇丰满人妻av无码区| 久久久噜噜噜| 久久香蕉国产线看观| 国产成人精品高清在线| 日本高清成本人视频一区| 91精品啪在线观看国产| 国产成人啪视频一区二区三区| 真人高潮娇喘嗯啊在线观看| 黄色网页在线播放| 波多野结衣在线一区二区| 专干老肥熟女视频网站| 原味小视频在线www国产| 婷婷激情亚洲| 一区二区三区国产精品视频| 国产成人狂喷潮在线观看2345| 亚洲中文字幕精品| 东京热高清无码精品| 无码福利视频| 亚洲欧美日韩另类| 2020国产精品视频| 亚洲视频在线网| 国产在线97| 91久久精品国产| www.亚洲一区二区三区| 伦伦影院精品一区| 欧美色图第一页| 国产色图在线观看| 欧美在线一二区| 国产精品美人久久久久久AV| 久久久久久久久18禁秘| 精品欧美一区二区三区久久久| 亚洲五月激情网| 免费a级毛片18以上观看精品| 国产精品污污在线观看网站| 波多野结衣爽到高潮漏水大喷| 久久黄色视频影| 91在线高清视频| 激情六月丁香婷婷四房播| 午夜免费视频网站| 久久久成年黄色视频| 九九香蕉视频| a级毛片一区二区免费视频| 亚洲香蕉伊综合在人在线| 国产91精品调教在线播放| 在线永久免费观看的毛片| 中文字幕永久视频| 九九精品在线观看| 欧美一区二区啪啪| 色婷婷亚洲综合五月| 亚洲日韩图片专区第1页| 999福利激情视频| 亚洲天堂日韩av电影| 欧美 国产 人人视频| 午夜啪啪福利| 国产一在线观看|