999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

算法推薦網絡服務提供者的權力異化及法律規制

2022-04-07 09:04:44鐘曉雯
中國海商法研究 2022年4期
關鍵詞:用戶信息

鐘曉雯

(西南政法大學 民商法學院,重慶 401120)

一、網絡服務提供者的權力取得依據

“權力”是社會科學中的基本概念,其本質體現為“意志自由”和“支配力”,其中“意志自由”指向權力主體的內部效力,“支配力”指向權力主體與權力受體的外部關系。從內部效力來看,權力的本質表現為權力主體的意志自由。馬克斯·韋伯(Max Weber)曾描述“權力”為“一個人或若干人在社會行為中實現自己意志的機會,甚至不顧參與該行為的其他人的反抗”。[1]即權力主體能夠排除其他反抗意志,以自我決定和自我控制的方式實施自己的意志,但這需要以犧牲權力受體的意志自由為代價。如此一來,就衍生出了權力主體與權力受體的外部支配關系。支配力是權力的核心要素,權力主體的支配力來源于其占有的資源優勢,如政府等公權力機關憑借統治資源形成對社會主體的支配力;私人資本憑借經濟資源形成對勞動者的支配力等。[2]將這一結論移植于網絡空間,即可發現,網絡服務提供者憑借技術資源形成了對用戶的支配力,但這僅為事實上的權力,尚缺乏行使的正當性依據。從現有法律與網絡服務實踐來看,立法與網絡服務用戶協議實際上授予了網絡服務提供者資格審查、信息監管和處置,以及規范用戶的權力,恰好彌補了網絡服務提供者行使私權力缺乏正當性依據的缺陷。

(一)法律授權基礎:網絡服務提供者的資格審查、信息監管和處置權力

《中華人民共和國民法典》(簡稱《民法典》)、《中華人民共和國網絡安全法》(簡稱《網絡安全法》)和《中華人民共和國電子商務法》(簡稱《電子商務法》)等法律文件授予了網絡服務提供者資格審查、信息監管和處置的權力。例如《民法典》第1195條明確了網絡服務提供者在接到權利人提供的構成侵權的初步證據及其真實身份信息的通知時,有義務將該通知轉送相關網絡用戶,并采取刪除、屏蔽、斷開鏈接等必要措施(“通知—必要措施”規則);《網絡安全法》第47條要求網絡服務提供者應當承擔信息監管義務,在發現具體違法信息時,應采取停止傳輸、消除等必要處置措施;《電子商務法》第38條明確電子商務平臺經營者負有對平臺內經營者的資質資格進行審核的義務,以及在平臺內經營者侵害消費者合法權益時,負有采取必要措施的義務等。單從文義解釋上看,上述條款表達的是國家課以網絡服務提供者的義務,但從反向視角來看,這也可以理解為是一種授權。網絡服務提供者負擔的資格審查、信息監管等義務,本質上與物理空間中行政機關采取行政許可、接到報案后對受害人進行行政救助等情形一致,是一種借助權力實現社會監管、權利救濟的機制。

網絡空間以網絡服務提供者為輻射中心形成了自上而下的“行政主管部門—網絡服務提供者—用戶”的權力邏輯關系,法律將本屬于“行政主管部門”的權力部分授予了網絡服務提供者。這是因為,相較于行政主管部門囿于網絡空間的虛擬性而難以追蹤或控制相關違法行為的劣勢,網絡服務提供者能夠利用其占有的技術資源優勢迅速作出因應,“根據危險控制理論,離危險源越近的人,越容易控制危險的發生”。[3]因此,網絡服務提供者基于其技術資源優勢,取得了源自行政主管部門的部分權力,可對用戶發布的信息等進行審查、監管和處置。

(二)意定授權基礎:網絡服務提供者規范用戶行為的權力

意定授權指向網絡服務用戶協議,即網絡服務提供者與用戶間簽訂的,載有雙方服務關系及其權利義務的格式合同。網絡服務用戶協議通常為電子合同,傳統紙面上的簽字蓋章也逐漸演化為電子簽章。基于電子商務法中的功能等同原則,以數據電文形式訂立的電子合同與以傳統書面形式訂立的紙質合同具有同等法律效力。網絡服務提供者規范用戶行為的權力依據主要體現在協議內容上。盡管不同的服務協議內容設置各異,但協議內容多以規范用戶行為和免除網絡服務提供者責任為主。

以微信APP的《軟件許可與服務協議》(簡稱《協議》)為例,《協議》第8條“用戶行為規范”針對微信用戶行為從五個方面作了詳盡規定:“信息內容規范”“軟件使用規范”“服務運營規范”“對自己行為負責”以及“違約處理”;其中第8.1條“信息內容規范”以“列舉+概括”的方式明確約定了微信用戶行為的邊界,即約定用戶使用微信過程中禁止制作、復制、發布和傳播的信息內容范圍;第8.5條明確約定騰訊公司在用戶違反約定的行為規范時,有權不經通知隨時采取刪除、屏蔽相關內容及賬號封禁等必要措施。網絡服務用戶協議對網絡服務提供者的授權除體現在規范用戶行為上,也體現在網絡服務提供者的責任免除上。《協議》第10.3條規定,騰訊公司和用戶共同承擔維護軟件安全與正常使用的責任,但騰訊公司不對用戶終端設備信息和數據安全的保護承擔完全保證責任。由此可見,網絡服務用戶協議名義上以平等自由為基礎,實則充斥著大量約束用戶行為與免除網絡服務提供者責任的條款。

總體而言,網絡服務提供者基于技術資源優勢,以法定和意定的方式取得了針對用戶的權力,一方面能夠較之行政主管部門高效治理網絡違法行為或信息;另一方面用戶以協議的形式讓渡部分權利至網絡服務提供者,使其能夠在特定范圍內對相關行為作出必要規范,確保用戶權利有序行使。

二、算法推薦網絡服務提供者的權力異化表象

正如霍布斯所總結的,人類有著“得其一思其二、死而后已、永無休止的權勢欲”,[4]網絡服務提供者也并未按照預設軌跡運行權力,而是開始擴張權力。算法推薦強化了網絡服務提供者占有的技術資源優勢,更加劇了其權力擴張與濫用的趨勢,具體表現為網絡服務提供者利用算法推薦侵犯用戶合法權益,以及構建隱形規訓和統治空間。

(一)侵犯用戶合法權益

網絡服務提供者利用算法推薦侵害用戶的合法權益,在隱私權、知情權以及人格尊嚴上表現得尤為明顯。

其一,侵害用戶隱私權。隱私權是自然人與生俱來的權利,該項權利已被明確列入法律。《民法典》第1032條第2款對“隱私”作了界定:“隱私是自然人的私人生活安寧和不愿為他人知曉的私密空間、私密活動、私密信息。”因此,對隱私權的侵害既表現為個人私密信息的泄露,亦表現為對“私人生活安寧”的破壞。在個人私密信息的泄露上,由于算法實質上是一種分析利用數據的智能技術,即算法通過分類整理數據并依據計算模型作出算法決策,數據的體量直接決定了算法所能達到的深度,數據的精準度直接影響著算法決策的精確度。因此,算法的運行需要收集海量數據,但這些數據收集可能并未獲得用戶的事先同意。不同的算法所針對的數據類別存在差異,但未經用戶同意的數據收集行為必然侵犯了用戶的隱私權。比如搜索引擎的算法推薦應用中,搜索引擎的決策過程與決策結果(搜索結果)所依據的是算法對用戶的“個人畫像”,用戶在搜索時所輸入的關鍵字等數據僅是一個索引,“個人畫像”的形成更多的是依賴用戶的搜索歷史與瀏覽記錄,甚至是聊天記錄。倘若在未經用戶同意前即對這些數據進行收集,將侵犯用戶的隱私權。[5]

算法對個體隱私權的侵犯還表現為對“私人生活安寧”的破壞。“北京百度網訊科技公司與朱燁隱私權糾紛”(1)參見江蘇省南京市中級人民法院(2014)寧民終字第5028號民事判決書。即為典型案例。在該案中,朱燁以“減肥”“豐胸”為關鍵詞在百度搜索引擎展開搜索后,其在瀏覽網頁時會頻繁出現關于減肥、豐胸的廣告。在這一過程中有幾點信息是可以確認的:朱燁的搜索關鍵字被搜索引擎所記錄,該搜索記錄被搜索引擎以外的廣告公司獲取(當然也可能是搜索引擎本身,但這種利用已經背離了用戶使用搜索引擎的初衷,而且這種推送可能多次發生在不同對象中),廣告公司根據該搜索記錄對朱燁進行“畫像”并根據“畫像”向朱燁不斷推送廣告。在這些過程中,搜索引擎獲取朱燁的搜索關鍵詞是被許可的,因為這是算法展開分析與決策的前提條件,但搜索引擎將關鍵詞的相關數據轉移至廣告公司,以及廣告公司向用戶持續直接地推送廣告的行為,無疑侵犯了用戶的“私人生活安寧”。

其二,侵害用戶知情權。知情權的行使關乎公平、正義和自由。算法推薦通過收集、篩選并整理個體在網絡空間留下的數字痕跡(個體注冊信息,用戶閱讀、搜索、瀏覽、評論記錄等),能夠精確勾勒出個體的興趣和偏好圖譜,形成精確的“個人畫像”。利用該“個人畫像”,各種消費平臺能夠將契合用戶興趣和偏好的信息精準分發至目標人群。可以說,個體消費者對于購物、用餐、出行、酒店的選擇基本全部依賴算法推薦。然而個體卻對其“個人畫像”形成的邏輯、根據(包括平臺抓取的數據類型、特征,形成畫像的具體維度等)以及內容毫不知情,這顯然侵犯了其知情權。

其三,侵害用戶人格尊嚴。個體人格尊嚴的侵害與算法推薦衍生的算法歧視密切相關。算法歧視已經成為算法時代下的常見風險形式,其充分證明了算法并非是技術中立的活動。算法歧視的產生主要來源于兩方面:一是算法抓取數據中產生的歧視。數據對于算法推薦結果具有基礎性作用,如果數據本身存在偏差,或者算法對于數據的選取出現偏差或側重,則可能導致推薦結果呈現歧視性。例如亞馬遜招聘系統將高薪職位更多推送給男性求職者的歧視現象,其根源在于該算法選用的原始數據是亞馬遜公司過往員工的相關數據。在亞馬遜公司的用工歷史上,男性員工明顯多于女性,由此導致算法推薦的結果偏重于男性。二是算法的設計/部署產生的歧視。算法在很多時候并非是一種完全價值中立的科學活動或數學活動,相反,其總是與特定的價值立場相關,蘊含著價值判斷。[6]算法設計/部署者往往通過算法指令摻雜自己的價值觀,從而導致歧視現象產生。

(二)構建隱性規訓和統治空間

算法推薦能夠通過收集分析用戶在網絡空間中留下的數字痕跡(注冊信息、瀏覽日志、歷史評價記錄等),挖掘用戶的興趣偏好,精準勾勒出用戶的“個人畫像”,并對用戶進行個性化的信息推薦與分發,從而影響算法相對人,由此算法也具有了一定的權力(“算法權力”)。算法權力的表象是技術權力,其背后隱藏的是資本權力。[7]當算法權力滲透到人類生活的方方面面,即會在某種意義上形成一種隱性規訓和統治空間(“算法規訓”和“算法統治”)。

算法規訓首先表現在對用戶價值觀的影響上。人的價值觀的形成受到多種因素影響,其中新聞媒介的影響力不容小覷。在紙質傳媒時代,新聞的內容是經過專業編輯選擇的,其中的意識形態與價值觀念也當然經過了選擇。具有普世意義的價值觀更容易得到采納與傳播,并影響終端用戶,促進用戶正確價值觀的塑造。此外,紙質傳媒內容的豐富性,有利于讀者全面獲取信息。依據信息論的觀點,一個人掌握的信息越充分,其在進行個人價值實現方面的決策時就越能處于有利地位并趨于理性,但在算法分發新聞的情況下會出現截然相反的情形。

算法分發新聞會根據用戶的初始選擇對用戶主動推送相關新聞,在算法分發已成為網絡新聞最主要的分發方式的情況下,其優勢與劣勢同時出現。盡管算法分發新聞只是對同類、偏好新聞的推送,并不創造新的內容,但同類推薦會形成封閉的信息空間,隔絕多元信息穿透傳播的可能性,致使用戶接收到的信息趨于同質化,逐漸形成信息繭房并衍生回音室效應。“信息繭房”和“回音室效應”的概念由凱斯·桑斯坦(Cass R. Sunstein)提出,他認為盡管互聯網技術可以促使人們逃離地理學上的繭房和回音室,但互聯網中的個性化信息服務過濾了多元化的觀點,不同網絡群體更傾向于選擇和獲取自己感興趣或與自己觀點相同/相似的信息,并忽視與外部世界的交流和溝通。這種持續衍化的群內同質和群際異質現象會產生“信息繭房”效應,即如同置身于蠶繭般作繭自縛,進而形成“回音室效應”。[8]“回音室效應”意指信息過濾機制使人們只獲取到他們感興趣或認同的信息,長期以往,當這些信息中所蘊含的觀點被不斷重復并加深時,人們在這個信息封閉的圈子中將只能聽到自己的“回聲”,變得容易固守偏見甚至誤將偏見視為真理,進而排斥和拒絕其他的合理性觀點和意見。[9]“信息繭房”及其衍生的“回音室效應”會導致用戶的閱讀范圍受限,尤其是致使塑造人們價值觀的信息范圍越來越窄,進而導致個人可能在非理智的情況下作出決策。例如某用戶可能只是因心情煩悶而點擊了有關抑郁癥的新聞,卻導致類似新聞大量推送,最終可能致使該用戶逐漸失去生活的希望并走向極端。此外,分發新聞的算法也可能被嵌入算法設計/部署者的價值觀念或主觀意圖,類似于劍橋分析公司干預美國總統選舉一樣,會在潛移默化中影響用戶選擇。算法推薦網絡服務提供者對用戶的算法規訓也就此形成。

算法規訓還表現為推薦算法對用戶的行為選擇的干涉。網絡服務提供者可以利用算法收集、分析用戶的行為痕跡從而逐漸掌握用戶習慣和偏好,并依據用戶習慣和偏好定制契合或足以誘導用戶行為的推薦。用戶可能無法拒絕這種具有誘惑力且似乎尚未超出自己能力范圍的推薦,于是消費習慣開始發生變化。這種變化實則是算法推薦在人的行為領域中產生的規訓作用。

當算法規訓大量出現時,算法推薦相當于依靠自身影響力形成了一套行為準則。它對個體行為進行的預測與干預,成為現實中強有力的行為規范。[10]當個體成為算法下可被預測和計算的客體,算法由此可以控制人的生活,消除個體行為的不確定性,肆意賦值個體,并形成國家權力的替代性權力。[11]擁有算法推薦的網絡服務提供者也因此具備了在網絡中構建隱性規訓和統治空間的權力。

三、算法推薦網絡服務提供者的權力歸化困境

網絡服務提供者當前呈現出利用算法推薦侵犯用戶合法權益,構建隱形規訓和統治空間的權力異化現象。存在權力異化即需要進行權力歸化,但當前算法推薦網絡服務提供者的權力歸化面臨著法律與技術困境。

(一)法律困境:規制算法推薦網絡服務提供者的制度漏洞

網絡服務提供者的主要職能是利用自身占有的技術資源為用戶提供信息傳播中介服務,即為公眾搭建一個信息交流平臺。鑒于網絡空間中存在海量數據和信息,由網絡服務提供者對用戶發布的全部信息負主動審查義務既不可能也不合理,故立法明確規定,當網絡服務提供者已盡到合理注意義務,在接到侵權通知后采取了必要措施的,可免除相關法律責任。但這一規范在規制算法推薦網絡服務提供者時存在罅隙,此處需要結合算法推薦的類型作進一步分析。

1.算法推薦的主要類型

學理研究通常從技術角度對算法推薦進行分類,分為基于內容的算法推薦和協同過濾的算法推薦,其中基于內容的算法推薦是根據用戶先前的消費、瀏覽或閱讀過的內容之相似度來推薦內容(例如,推薦的圖片X會具有與用戶先前查看的圖片Y和Z相似的標題);協同過濾的算法推薦則根據相似用戶消費的內容進行推薦(例如,A、B、C喜歡E;D作為與A、B、C相似的個體,可能也喜歡E)。但筆者對算法推薦的分類是基于非技術層面的因素,即以算法推薦所依賴的數據集的來源為依據,將其類型化為三種:一是公開型算法推薦;二是精選型算法推薦;三是封閉型算法推薦。[12]公開型算法推薦所依賴的數據集主要由用戶或廣告商直接提供或通過其他來源渠道自動引入/聚合。這些數據集并未由平臺進行專門選擇(盡管平臺內部也會產生數據且用于算法推薦)。目前谷歌、YouTube、Facebook、Reddit、Instagram和亞馬遜采用的都是公開型算法推薦。例如,YouTube的用戶上傳的任何視頻通常都被默認帶入推薦系統。區別于公開型算法推薦,精選型算法推薦所依賴的數據集來源于經由平臺策劃、批準或許可而形成的內容池,其主要用于涉及行政許可的傳統媒體領域,如音樂、電影或電視節目等,Netflix即是采用精選型算法推薦的典型示例。區別于前兩類算法推薦,封閉型算法推薦是由平臺本身或運營該站點的組織生成欲推薦的內容。例如,新聞機構向用戶提供的個性化故事和文章提要即是由組織本身制作或委托制作的。

2.“紅旗”規則難以適用于公開型算法推薦

《民法典》第1195條確立了有關網絡服務提供者法律責任的“通知—必要措施”規則(也被稱為“通知—刪除”規則),明確了網絡服務提供者在接到權利人關于網絡用戶利用網絡服務實施侵權行為的通知時,應當采取包括刪除、屏蔽、轉通知等在內的必要措施(“轉通知”在理論研究中是否屬于“必要措施”的范圍尚存在爭議)。在《民法典》頒布之前,《電子商務法》為加強對網絡知識產權的保護,已經在第42條中規定了知識產權權利人與網絡服務提供者間的“通知—必要措施”規則。《電子商務法》第42條與《民法典》第1195條是一脈相承的,《民法典》第1195條相當于擴大了權利主體范圍,將“通知”的權利主體從《電子商務法》中的“知識產權權利人”擴張至所有“權利人”。早期對網絡服務提供者采用“通知—必要措施”規則主要有兩方面原因:一是在危險控制理論下,網絡服務提供者類同于物理空間中的公共經營者,對網絡侵權危險的控制能力較強,由其履行注意義務具有經濟學上的成本優勢;二是出于促進互聯網產業經濟發展的考量,立法以“必要措施”的履行作為免責條件,旨在減輕網絡服務提供者的注意義務。故“通知—必要措施”規則看似為網絡服務提供者的法律責任規范,實則將其視為網絡服務提供者的免責條款更為恰當。因此,該規則也被稱為“避風港”規則。

在“避風港”規則的保護下,網絡服務提供者接到侵權通知后及時采取了必要措施的,可免除其法律責任。但在以下情形中,網絡服務提供者仍然要承擔侵權責任:網絡服務提供者知道或者應當知道侵權行為存在且未采取必要措施的,需承擔侵權責任。此即“紅旗”規則。“紅旗”規則規定于《民法典》第1197條,根據該條規定,只有在侵權行為顯而易見如“紅旗飄揚”時,網絡服務提供者才需要與實施侵權行為的用戶共同承擔連帶責任。當前司法實踐將“紅旗”規則的適用標準限定于包含定位信息的特定侵權內容的知道(應知/明知)上,例如《最高人民法院關于審理侵害信息網絡傳播權民事糾紛案件適用法律若干問題的規定》(簡稱《規定》)第12條(2)《規定》第12條規定:“有下列情形之一的,人民法院可以根據案件具體情況,認定提供信息存儲空間服務的網絡服務提供者應知網絡用戶侵害信息網絡傳播權:(一)將熱播影視作品等置于首頁或者其他主要頁面等能夠為網絡服務提供者明顯感知的位置的;(二)對熱播影視作品等的主題、內容主動進行選擇、編輯、整理、推薦,或者為其設立專門的排行榜的;(三)其他可以明顯感知相關作品、表演、錄音錄像制品為未經許可提供,仍未采取合理措施的情形。”列舉的應認定網絡服務提供者為“應知”的相關情形,都暗含了網絡服務提供者必須知悉侵權內容所在位置。因此,網絡服務提供者僅寬泛地知悉其平臺內存在侵權行為并不會觸發“紅旗”規則。

總的來說,當前中國對網絡服務提供者采用的是“避風港”規則與“紅旗”規則并行的規制模式,但該模式在規制算法推薦網絡服務提供者時存在“真空地帶”。封閉型算法推薦因其依賴的數據集來源于平臺本身,當其造成侵權結果時,依據侵權責任法的一般規則即可解決。精選型算法推薦依賴的數據集需要經由平臺選擇,即經由網絡服務提供者審查編輯,此種情形下,一旦造成侵權結果而網絡服務提供者未采取必要措施的,可以認定網絡服務提供者明確知悉侵權內容所在的定位信息(《規定》第12條中亦列舉了這一情形),從而歸入“紅旗”規則的調整范圍。但在規制公開型算法推薦服務提供者時,“避風港”規則和司法系統寬松的責任豁免傾向會導致“紅旗”規則被實質性架空。其一,在“避風港”規則下,公開型算法推薦網絡服務提供者被免除了對于用戶或廣告商直接提供或通過其他來源渠道自動引入/聚合的數據集的事先審查義務,此時公開型算法推薦服務提供者將缺乏主動發現和處理侵權行為的制度動因。其二,如前所述,司法實踐中援引“紅旗”規則的前提是網絡服務提供者明確知悉平臺內侵權內容的定位信息,而公開型算法推薦網絡服務提供者因毋須對來源數據集進行審查編輯,自無法直接認定其明確知悉平臺內侵權內容的定位信息。

(二)技術困境:算法的“黑箱”與價值內嵌邏輯

1.算法的“黑箱”邏輯

控制論中對“黑箱”作了定義:“所謂黑箱是指這樣一個系統,我們只能得到它的輸入值和輸出值,而不知道其內部結構。”[13]換言之,對于“黑箱”,人們只能觀測到輸入值和輸出值,但無從了解其內部的復雜性工作。“黑箱”一詞也被控制論者用以表示“任何一部過于復雜的機器或者任何一組過于復雜的指令”。[14]科技實踐中的“黑箱”指代的是已經被廣泛接受為真實的、有用的科學理論或技術產品(也被稱為“‘自然’的因素”),它將復雜且抽象的科學理論或技術產品作為一個不需解析的整體進行討論,阻止人們對其內部的復雜性工作進行探究、質疑或爭論,從而有助于科技的廣泛傳播。此外,科技的實踐應用一旦成功,也會進一步固化其“黑箱”狀態,蓋因科技企業會將此技術作為商業秘密而避免向外界擴張適用或解釋。算法作為人工智能時代的新技術,天然具有“黑箱”性質,這與算法的技術運行原理密切相關。從技術原理層面觀察,算法是一種計算機程序,其是在數據采集和數據模型訓練的基礎上,依據已設定的數學規則進行運算并輸出結果。簡單來說,算法包括了“輸入—運算—輸出”三個步驟,是“程序設計+數學規則”的集合。即便人們能夠獲悉算法的輸入數據和輸出結果,但對于算法內部的運算過程也無從得知,由此便形成了算法“黑箱”。

算法所形成的“程序設計+數學規則”的高度技術性和復雜性,導致非算法專業人士尤其是普通公眾,無法掌握或理解算法的運行和決策原理。這掩蓋了網絡服務提供者在運行算法過程中的一些潛在風險,同時也導致社會個體難以發現算法技術運行過程中的問題并參與到對其的質疑和爭論中。換言之,算法“黑箱”的技術壁壘導致非算法專業人士無法探究算法推薦網絡服務提供者是否存在過錯,這足以阻礙對算法推薦網絡服務提供者過錯責任的歸責。即便是采用無過錯責任原則,算法“黑箱”的技術壁壘也會導致司法實踐難以認定損害結果與算法運行間是否存在因果關系,不僅當事人舉證與論證困難,作為非算法專業人士的裁判者也無法作出正確判斷。

2.算法的價值內嵌邏輯

當前不少研究提出了算法的“技術中立”的原假設,但實踐中一旦算法走向應用,各種利益與價值取向的交織都使其難以保持中立。技術中立原則最初確立于“環球電影訴索尼案”中,即只要一項技術構成“實質性非侵權使用”,無論這種技術是否被用于合法或有爭議的目的,技術服務提供者都不必對用戶實施的或可能實施的侵權行為承擔責任。但此后的實踐表明,部分技術服務提供者明知或應當知道自己的用戶會利用自己提供的技術實施侵權行為,仍持放任態度。此時,以“實質性非侵權用途”為標準免除技術服務提供者的法律責任既不公平也不合理。“Napster案”的判決遂引入了“幫助侵權”的判斷標準,即如果明知一種行為構成侵權,仍然“引誘、促成或實質性幫助他人進行侵權行為”,就應當作為“幫助侵權者”承擔侵權責任。在“索尼案”(3)參見Sony Corporation of America er al. v. Universal City Studios, Inc.,et al.,464 U.S.417 at 498 (1984)。中,少數派法官指出:“沒有人會單獨為非侵權的目的去購買產品,制造商明顯是有意從侵權行為中獲利,要求其承擔責任是合適的。”確立“引誘侵權”規則的“Grokster案”(4)參見MGM Studios Inc. v. Grokster Ltd., 545 U.S.(2005)。判決也明確提出:第一,被告的目的在于吸引之前的Napster用戶;第二,被告未嘗試開發建立一定的過濾軟件來防止使用者下載、傳播受版權法保護的作品,同時也沒有盡到相應的監管責任,證明被告主觀上有為其用戶提供侵權之便的意圖;第三,被告是通過出賣廣告空間來獲利的,所收取的廣告費與軟件的用戶數量成正比。[15]

算法作為技術勃興的產物,在推動人類生產和生活方式顛覆性變革的同時,其中立性同樣受到質疑。算法在實踐應用中會無可避免地呈現出偏向性,這與其運行過程中的價值嵌入邏輯密切相關。代碼的內嵌規則決定了算法會隱藏人的自主意識,算法部署或使用者在算法部署/使用過程中或多或少會嵌入自身的價值觀念或主觀意圖。例如,數據集選取、變量選擇、權重設定、架構設計等均是算法部署者在設計算法任務時需考量的因素,且可能受到個人價值觀念或主觀意圖的影響。部分算法推薦網絡服務提供者可能出于增強用戶粘性、達到流量最大化、攫取商業利益的目的,肆無忌憚地在運用算法技術時嵌入利潤導向的價值傾向,更甚者不惜制造“臟數據”,污染網絡生態場域。[15]值得注意的是,當算法部署者或使用者在算法中嵌入自身的價值觀念或主觀意圖后,算法在其后續的技術更新迭代過程中仍會沿襲且不斷深化和放大此種價值傾向。因此,在算法價值內嵌的運行邏輯下,算法推薦網絡服務提供者能夠通過設計/部署算法,賦予算法以特定價值,并通過算法運行達到約束甚至支配他人行為的效果。此時,在算法“黑箱”的加持下,非算法專業人士難以甚至無法獲悉算法推薦網絡服務提供者是否在設計/部署算法時嵌入了其自身的價值觀念或主觀意圖,以及嵌入的價值觀念或主觀意圖是否合法,更無從提及對此種行為的規制問題。

綜上所述,算法的“黑箱”與價值內嵌邏輯所構成的技術壁壘成為了算法推薦網絡服務提供者權力歸化的困境之一。

四、算法推薦網絡服務提供者權力歸化的應然路徑

(一)強化算法推薦網絡服務提供者的注意義務

算法時代下的相關利益關系已經發生了變化,因此,不應一味減輕網絡服務提供者的注意義務。相反,應當強化其注意義務,理由如下。

1.算法推薦網絡服務提供者極強的信息管理能力

在民法的語境下,網絡服務提供者的注意義務實乃物理空間內公共場所經營者的安全保障義務在網絡空間的延伸。立足民法安全保障義務的相關理論,“善良管理人”這一概念可以為網絡服務提供者的注意義務之高低提供基準線。“善良管理人”的注意義務要求具有特定職責的行為人應當承擔與其專業思維、認知能力相匹配的注意義務。[16]引申至網絡空間中,網絡服務提供者信息管理能力的強弱將直接決定其注意義務的高低,而算法推薦的運行機制賦予了網絡服務提供者極強的信息管理能力。算法推薦的運行機制遵循以下四個步驟:首先,智能推薦算法對推薦內容進行編輯、審查、識別、篩選和分類(編輯、審查推薦內容僅出現在封閉型推薦算法和精選型推薦算法中);其次,智能算法收集、分析用戶的行為痕跡后,對用戶進行標簽化并勾勒用戶的“個人畫像”;再次,以形成的用戶標簽和“個人畫像”為根據向其推送相應的信息;最后,結合用戶的行為與反饋,對此前形成的用戶標簽和“個人畫像”進行修正,并根據修正后的用戶標簽和“個人畫像”再進行內容推薦。[17]在這一閉環式的運行機制中,網絡服務提供者作為推薦算法的設計/部署者,實際上直接控制了用戶所能接收到的信息范圍和內容,具有極強的信息管理能力。因此,算法推薦網絡服務提供者極強的信息管理能力決定了其應當承擔較重的注意義務。

2.算法推薦網絡服務提供者在言論表達和控制中的“把關人”角色

網絡服務提供者運用其掌握的算法推薦技術,可以干預和控制言論表達的所有環節。有學者認為網絡服務提供者充當著數字環境中的“結構性角色”,將其權力歸結為四個方面:一是管理網絡空間公共表達與參與平臺,決定信息流向;二是管理用戶活動空間與數據,知悉傳播主體的行為;三是控制用戶網絡活動;四是突破國家邊界。[18]上述四個方面實際上基本涵蓋了“信息獲取—言論表達—言論傳播”的全過程。在算法推薦技術的加持下,網絡服務提供者的言論控制和保護權力被放大,蓋因算法推薦技術的設計標準、運行規則等均由服務提供者自行制定。掌握了算法推薦技術的網絡服務提供者不僅能干預言論表達的所有環節,甚至能夠決定用戶得以發表的言論范圍、內容及其影響射程。此外,網絡服務提供者還部分承擔了類同于言論“裁判”的司法功能,尤其是社交網絡平臺,往往會制定相關言論規則,在糾紛發生時通過聆聽各方的主張、申辯和解釋,進而作出具有實質意義的“裁判”結論(刪除相關言論、禁言等)。[19]因此,基于算法推薦網絡服務提供者在言論表達和控制中的“把關人”角色,有必要強化其注意義務。

3.網絡服務提供者與內容生產者對同一內容的利益回報存在價值差

當前已進入流量經濟時代,海量的內容生產者誕生并相互競爭,這致使內容生產者欲獲得合理利益回報的難度加大。相反,流量經濟使得呈現內容的網絡服務提供者能夠通過精準分發和傳播內容獲取高額利益。概言之,權利人的利益回報與網絡服務提供者的利益回報處于不對等狀態。但社會發展依賴的是創作者的高質量創作內容,而非網絡服務提供者對內容的精準分發和傳播。此外,強化算法推薦網絡服務提供者的注意義務已有立法雛形——《規定》第11條第1款即明確了網絡服務提供者從網絡用戶提供的作品中直接獲得經濟利益的,要承擔較高的注意義務。總體而言,對于同一內容,內容生產者與網絡服務提供者間的利益回報存在價值差,其中網絡服務提供者屬于資源優勢方,為平衡二者間的利益關系,有必要對網絡服務提供者課以較高的注意義務。

4.強化算法推薦網絡服務提供者的注意義務符合法經濟學原理

1947年美國法官勒尼德·漢德(Learned Hand)在“美國訴卡洛爾·波音拖船公司案”中提出了“漢德公式”。根據漢德公式,當B(Burden)

(二)廓清算法推薦網絡服務提供者的算法透明義務

算法推薦網絡服務提供者的私權力之所以難以歸化的主要技術困境是,算法技術天然具有“黑箱”特性。解決“黑箱”問題的最直接方法就是打破“黑箱”,讓算法在陽光下運行。由此,學者們紛紛提出了算法透明理論。目前關于算法透明的解釋有廣義與狹義之分,辨析的關鍵在于算法透明與算法解釋的關系。在算法透明的狹義解釋下,算法透明與算法解釋是相對獨立的治理維度,二者在自身功能和關注點上存在差異:狹義的算法透明關注源代碼等信息的公開,是算法解釋的前提和基礎;算法解釋則更側重可理解性,即著重以通俗易懂的方式向算法相對人或社會公眾解釋算法決策的原理、決策樹和邏輯關系等。[21]在算法透明的廣義解釋下,算法透明和算法解釋并非兩個獨立的治理維度,而是二者融合成為“可理解的算法透明”,即廣義的算法透明涵括了算法解釋,不僅關注源代碼等信息的公開,同時側重以通俗易懂的解釋方式達致算法決策的可理解性。[22]153-154筆者采用的是算法透明的廣義解釋。

1.算法透明的功用

透明原則初始是WTO法律制度的基本原則,主要用以要求政府在市場監管過程中公開其管理和服務市場的相關信息,旨在克服因政策變動導致的市場風險,以及防止市場歧視、為市場運行提供可預見性規則和審議依據。[23]算法透明的提出亦是出于防止算法妨害、建立算法信任,以及為算法審議和問責提供可視化依據之目的。然而,對于算法透明的功用,學者們提出了不同的觀點。持算法透明反對論的學者們主要基于三大類原因:一是算法透明損害相關利益,其中涉及損害商業秘密制度的效能、為他人制造規避或“戲耍”算法的機會、泄露個人隱私或誘發個人信息安全問題等;[22]155二是算法透明不可能,這是一種源于不理解技術產生的遐想;[24]165三是算法透明無意義,因算法技術極其復雜,即便公開算法代碼和數據等信息,普通公眾也難以理解其中的運行原理。

然而,算法透明不僅可能而且可行。首先,算法透明的實現方式不僅僅局限于對算法源代碼、數據等信息的公開。從當前的立法例來看,從標示義務到向監管部門報備參數,一直到向社會公開參數都是算法透明的重要方式。[24]173其次,普通公眾難以理解算法技術中蘊含的復雜原理并不意味著算法透明無意義,而僅僅反映出當前算法設計/部署者缺乏以傳統直觀、通俗易懂的文字、文法和語言來解釋算法的能力。最后,算法透明在技術上具有可行性,反向工程學即為實現算法透明的重要技術手段。反向工程學可通過輸出結果逆向測試的方式打開算法“黑箱”。目前國際上已有相關示例:前谷歌公司工程師堯姆·沙洛(Guillaume Chaslot)在2018年創辦了算法透明網站(algotransparency.org),并于該網站上公布了其利用反向工程學破解了YouTube如何利用算法扭曲事實的真相。

算法透明主要在知情權和可問責性兩個維度發揮作用。其一,算法透明能夠賦予算法服務對象相當程度的知情權。此種知情權既可以是事前的,也可以是事后的:通過事前知情,能夠起到預防算法妨害之功用;通過事后對算法決策提出公平性和合理性之質疑,能夠為被侵權者提供救濟途徑。其二,算法透明可以讓算法設計/部署者具有可問責性,即在算法透明的要求下,當算法運行過程中出現精確性與公平性之偏差,監管者可以依據所披露的算法相關信息來判定算法設計/部署者的責任。此外,由于算法是一種技術機制,即便其天然具有“黑箱”性質,但相較于人類決策者的內在偏見和私念,技術工具仍然更具有可視化的透明標準,也更易于監督。

需要注意的是,從表面上看,算法透明義務的明確似乎是一種顯而易見的破除算法“黑箱”的方案,蓋因可借助該義務要求算法設計/部署者告知用戶算法的工作原理,并在適宜情形下賦予用戶相應的權利。但應當警惕陷入“透明度謬誤”。算法透明僅僅是一種補救措施,其實際上只是向用戶個體提供了不具有實體權利的相關算法信息,卻無法提供賦權和控制的預期效應。算法透明并不能真正解決算法“黑箱”問題,但它可以作為一個潛在的有用因素,即將其視為促進其他規則和監管的一般原則,用以支持諸如用戶算法解釋權、算法問責機制等相應的制度建設。

2.算法透明的限度

鑒于算法透明涉及多方利益——商業秘密、個人隱私和個人信息安全等,其在踐行中應當設置相應的限度。行政法中的兩種透明類型或可為算法透明的限度提供參考:“魚缸透明”和“理性透明”。

“魚缸透明”側重于公眾獲取政府掌握的信息和政府工作的信息,即公眾能夠窺視政府內部,獲取有關官員正在做什么的信息。它的具體實現方式包括舉行聽證會、公開檔案和記錄以及網上公開等,其目的是確保受政府決策影響的人能夠監測官員正在做什么,并在知情的基礎上作出回應。與“魚缸透明”強調公眾獲取有關政府正在做的事情之信息相比,“理性透明”更強調了這些信息的有用性,即政府是否揭示了它采取行動的原因。“理性透明”側重的是行為正當性,即政府需要通過給出理由來解釋其行動的正當性。[25]從表征來看,“魚缸透明”和“理性透明”似乎分別保障的是形式透明和實質透明,但實質上“理性透明”涵蓋了“魚缸透明”的要求,蓋因政府要公開解釋為何采取某一特定行動,就必須披露它實際上采取了什么行動,以及它采取這一行動所收集到的事實和進行的相關分析。對于以機器學習為基礎的算法技術而言,算法設計/部署者可能能夠實現“魚缸透明”,即確保受算法決策影響的人能夠監測算法正在做什么,并在知情的基礎上作出回應,但卻難以實現“理性透明”,主要原因在于算法設計/部署者難以充分解釋算法決策的內在邏輯及其決策結果的來源。但“理性透明”是算法透明的追求目標,也是解決算法“黑箱”實質難題的關鍵。因此,“魚缸透明”可以說是算法透明目前應當達到的限度,而“理性透明”則是算法透明未來的發展方向。

3.算法解釋的標準

“算法解釋能夠直面算法設計并破解算法黑箱,從而在法律問責過程當中發揮作用。”[14]因此,算法透明需要以算法解釋為技術支撐。算法解釋有“完全解釋”與“可信解釋”之分。具體而言,“完全解釋”要求解釋算法從輸入到輸出的全過程,即人工智能系統如何運行、如何與數據進行交互的背景信息等,包括要求算法設計/部署者公開數據、參數甚至是源代碼。“可信解釋”與“完全解釋”側重點不同,“可信解釋”側重對決策結果的解釋,即關注決策時對人產生具體影響的相關因素之解釋,而非對算法整個運行過程和技術模型的解釋。倘若說“完全解釋”側重于對“系統功能”的解釋,那么“可信解釋”則側重于對“特定決策”的解釋,其不糾結于算法模型的可解釋性,而是將重心轉移至向個人解釋特定決策結果,證明決策結果的合理性即可。

在算法時代(特別是自主學習形態),“完全解釋”不具有技術上的可行性和應用上的現實性。就技術層面而言,算法是以機器學習為基礎的,機器學習作為一種自動化決策方法,其決策規則由數據驅動,源代碼的公布只是暴露了使用的機器學習方法,而無法解釋決策過程。[26]有效的學習算法模型包含海量數據和代碼,且會根據輸入的數據動態調整內在決策模式并迭代代碼內容,加之算法模塊在運行過程中會持續復雜化和深度擬人化,故算法設計/部署者通常難以說明算法的決策過程。就應用層面而言,算法研究和應用的主體主要為大型互聯網企業,驅動它們開發應用算法的根本原因正是算法技術應用背后的巨大商業利益。因此,算法技術也被這些大型互聯網企業視為商業秘密,而算法“黑箱”很大程度上則作為一種防止商業秘密外泄、自我防護的技術手段存在。倘若采用“完全解釋”的標準,必然會增加互聯網企業的成本,削弱其競爭優勢。從長遠來看,合規成本的增加和獲利的減少必然會打擊企業投資算法的積極性,不利于科技發展。

算法透明抑或算法解釋并非為了擠壓算法的發展空間,而是為了實現算法權利人與相對人間的利益平衡,故算法解釋應以“可信解釋”為標準,當算法設計/部署者通過源代碼公開、運算原理與過程解釋、信息輸入與反饋及校驗等方式,并借助可視化分析、特征關聯等技術消解了相對人的疑慮,可認定為實現了“可信解釋”。此外,“可信解釋”不僅是技術標準,也是算法責任認定的證明標準。為實現“可信解釋”,算法部署者還可通過在軟件框架內增加可解釋技術接口,或提供指標評估模型等方法增強算法可信解釋能力,這不僅有利于算法追責,也有利于算法風險預防與運行監管。

五、結語

算法推薦的治理是算法時代的重大命題,算法推薦網絡服務提供者基于技術資源優勢取得了私權力,但技術并不必然具有中立性。基于代碼內嵌規則,算法設計/部署者或多或少會在算法中嵌入其價值觀。因此,算法推薦網絡服務提供者的權力呈現異化態勢,法律應當對此權力異化現象及時作出因應。規制算法推薦網絡服務提供者的目的并不在于徹底消除其私權力,而是為了廓清算法推薦的技術運行邏輯和價值負荷序列,通過系統化的思考和制度化的規范,促使算法推薦以技術工具的形態造福人類。

猜你喜歡
用戶信息
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
關注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
關注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
Camera360:拍出5億用戶
創業家(2015年10期)2015-02-27 07:55:08
100萬用戶
創業家(2015年10期)2015-02-27 07:54:39
如何獲取一億海外用戶
創業家(2015年5期)2015-02-27 07:53:25
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
信息
建筑創作(2001年3期)2001-08-22 18:48:14
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 色婷婷电影网| 欧美成人A视频| 999福利激情视频| 亚洲成综合人影院在院播放| 成人福利在线免费观看| 国产va欧美va在线观看| 亚洲va欧美va国产综合下载| 99视频在线看| 国产欧美日韩免费| 国产丝袜第一页| 人人澡人人爽欧美一区| 亚洲综合在线最大成人| 国产国模一区二区三区四区| 精品国产网| 亚洲精品日产AⅤ| 欧美一区二区三区欧美日韩亚洲| 另类欧美日韩| 久久6免费视频| 99久久精品免费看国产免费软件| 国产91色在线| 一本色道久久88| 亚洲an第二区国产精品| 日韩精品一区二区三区中文无码 | 亚洲精品不卡午夜精品| 亚洲区视频在线观看| 亚洲欧美精品在线| 亚洲人妖在线| 中文字幕无码av专区久久| www成人国产在线观看网站| 成人日韩精品| 日本欧美成人免费| 中文无码精品a∨在线观看| 九色在线视频导航91| 亚洲午夜片| 久久久久国产一级毛片高清板| 99视频精品在线观看| 青青草一区二区免费精品| 一区二区三区精品视频在线观看| 国产自视频| 国产一区二区丝袜高跟鞋| 中文字幕 91| 亚洲无码视频一区二区三区| 91欧美在线| 青青青草国产| 日韩高清中文字幕| 国产在线精彩视频二区| 丁香婷婷激情综合激情| 免费中文字幕一级毛片| 欧美成人区| 精品伊人久久久大香线蕉欧美| 欧美国产日产一区二区| 国产精品男人的天堂| 色婷婷视频在线| 呦系列视频一区二区三区| 97精品久久久大香线焦| 国产精品林美惠子在线观看| 久久亚洲国产视频| 免费A∨中文乱码专区| 国产在线自乱拍播放| 97视频在线精品国自产拍| 国产精品页| 免费观看无遮挡www的小视频| 久草热视频在线| 国产99欧美精品久久精品久久| 一本大道香蕉中文日本不卡高清二区| 尤物国产在线| 亚洲自偷自拍另类小说| 99精品影院| 免费国产高清精品一区在线| 日韩乱码免费一区二区三区| 中国一级特黄大片在线观看| 国产色爱av资源综合区| 欧美一级高清免费a| 亚洲综合色在线| 97色婷婷成人综合在线观看| 蜜臀AV在线播放| 国产女人爽到高潮的免费视频 | 热99re99首页精品亚洲五月天| 成人午夜视频网站| 亚洲欧美国产五月天综合| 在线无码av一区二区三区| 国产专区综合另类日韩一区 |