◆魏冰潔 李長征
智能推薦算法真的可行嗎
◆魏冰潔 李長征
(上海政法學院 上海 201799)
智能推薦算法極大提高了信息傳播的覆蓋率和到達率,減少了用戶獲取所需信息的難度和成本。但仍存在易使受眾陷入“信息繭房”掉入“過濾器泡泡”的陷阱,對受眾信息需求存在偏見,對受眾信息隱私構成風險,公共性價值缺失等倫理失范現象和問題。本文結合域外的相關規定,以及我國《個人信息保護法(草案)》,比對企業之間在此方面的具體規定,提出智能推薦算法的正向重構,應該遵循反歧視原則、以人為本原則、知情同意原則,從建立反算法歧視制度、互聯網平臺首頁開設數據刪除端口、用戶定期確認是否繼續使用智能推薦等方面入手,規范對個人信息的保護,真正使智能推薦算法落到實處,滿足用戶對于獲取信息的需求。
智能算法;個人信息保護法(草案);不受自動化決定約束權;對策
隨著互聯網應用的大規模普及以及智能設備數量的大幅增加,大量的數據庫和互聯網記錄了人們的各種信息,但大多數人并不知情自己的哪些信息被儲存,也不知道誰會有權對這些信息進行訪問,以及如何使用、共享或利用這些信息,相關的安全與隱私問題日益凸顯。例如,顧客上網買過輪椅,即使是替他人購買或者本意并非購買,系統之后也會一直推薦與殘疾相關的器材、藥物、服務等。當一個互聯網系統基于用戶瀏覽歷史而對弱勢群體進行“個性化定制”時,數據算法便會將條件和歧視擴大化。
人工智能AI概念是在1956年的達特茅斯會議上首次提出的。近些年來隨著算法技術快速發展和大數據的廣泛應用,智能推薦算法已經進入我們每個人的日常生活中。用戶用手機搜索和使用過的界面,手機都會留有記錄,智能推薦算法可以根據用戶的瀏覽歷史,分析篩選出用戶感興趣的品類進行優先推薦。甚至當用戶沒有進行搜索,只是在與他人交談中提到了某一物品,當打開手機的軟件應用時,軟件已將相關物品的購買廣告擺在了首頁推薦位置。這是因為,該應用已經獲得了用戶手機錄音功能的授權,即使在用戶退出該應用軟件的時候,應用軟件也會私自打開手機的錄音功能,對用戶的日常對話進行智能分析,從而以此為數據,為用戶進行更加精準的智能推薦。
如此基于智能推薦算法技術的應用程序具有以下特點:一是及時性,軟件會根據自己收集到的用戶信息,及時進行加工整理和分析,做到及時針對用戶的需求進行推薦,這也是相關應用程序得以存在的首要前提;二是個性化,有共性就會有個性,而每款不同的應用程序針對同一用戶的相同需求提供的個性化推薦,則是對軟件進行優勝劣汰的根本遵從;三是實時反饋性,思想是跳躍轉換的,則其產出的信息亦是實時變動的,如果軟件程序堅守從一而終,針對用戶的原始需求一味地進行推薦,則等待它的只能是被拋棄和淘汰。
智能推薦算法技術已廣泛應用在新聞類軟件、購物類軟件、短視頻類軟件等。今日頭條、快手、抖音等都是依靠智能推薦算法向用戶提供個性化的內容推送;淘寶、京東、拼多多等亦是通過此技術將商品的廣告和鏈接精準的投放給不同用戶;滴滴、美團打車、高德地圖等更是可以根據用戶的實時位置,準確的推斷出用戶的上車地點及打車的目的地……隨著智能推薦算法技術的逐漸成熟,此種收集、分析用戶信息并進行個性化訂制及精準投送的商業模式為各大科技公司帶來了巨大的附加利益,如北京字節跳動科技有限公司,同時也一定程度上提高了用戶的滿意度,增加了用戶黏性,實現雙贏的局面。
科技是一把雙刃劍,智能推薦算法在得到廣泛應用的同時,其所帶來的負面效應也不容忽視。突出問題主要包含以下幾點:一是會造成話語體系失控,作為互聯網上訪問量最大的十個網站之一的推特,在去年被爆出其公然宣布刪除超過17萬個與中國“國家當局相關”的賬號,誣稱這些賬號用于散播有關新冠肺炎疫情、香港局勢等問題的虛假信息,本應是用戶可以平等自由地分享自己動態和想法的平臺,但由于軟件程序的精準定位,平臺往往會抹去與自身想法所背道而馳的言論,從而可以達到操縱輿論的境界;二是導致信息繭房的形成,可能用戶最初進行搜索時只是基于自己的一點好感或是一絲興趣,但由于算法的定位與不斷地進行推薦,會使事物愈發兩極分化,側重點不斷增強,從而使用戶的心理預期倍數增長,極端事件也愈演愈烈;三是帶來隱私的侵犯,用戶在每使用一款軟件時都會對該軟件進行相應的授權或完善自己的信息資料,但是該軟件在得到每位用戶的隱私數據后如何應用信息無人知曉,并且當用戶不想再使用此軟件,將軟件退出登錄并卸載后,此前登錄填寫過的信息是否可以做到一并刪除仍值得深究,同樣如果用戶購買或使用的不想為外人所知的事情,此時軟件程序依舊在智能推薦,是否會加重用戶的使用負擔;四是會帶來對用戶的偏見和歧視,每位用戶的收支能力不一,但當軟件程序捕捉到該區別再進行智能推薦時,就會呈現出不同的用戶使用同一款軟件實施相同的行為,但帶來的結果卻是天差地別,此行為是否已侵犯公民的合法權益,如果有心存歹念的人利用此種技術,則造成的損失后果又將由誰來承擔。
歐盟采用的是數據中心的反歧視路徑。根據歐盟GDPR第七章對數據主體權利自動化個人決策相關權利的規定中,數據主體有權不適用完全基于自動化處理(包括畫像)的決策,如果前述決策產生與數據主體有關的法律效果或者對數據主體產生類似的重大影響。根據荷蘭的執行法草案的解釋性備忘錄草案,該條款禁止使數據主體適用完全基于自動化處理活動的決策。該條款并不禁止畫像或使用自動化處理活動,但是如果用于作出針對數據主體的決策,這些活動應該與人為干預結合使用。
在歐盟或成員國法律明確授權的情況下(包括出于監控欺詐和逃稅目的),如果對于在控制者和數據主體之間簽訂或履行合同而言是必需的,或者如果數據主體已給予明確同意,則允許進行自動化決策。對該條款所涉及的任何處理,都應當采取適當的保障措施,包括向數據主體提供具體信息以及要求人為干預、表達其觀點、要求對此類評估后作出的決策進行解釋以及質疑此類決策的權利。基于敏感數據的自動化決策進一步受到限制,只有在獲得明確同意的情況下或者根據歐盟或成員國法律對于維護重大公共利益處理是必需的情況下才能進行。具體來說,根據GDPR,只要允許自動決策,就必須為數據主體提供適當的保障措施。GDPR明確規定了應提供最低限度的措施:一數據主體至少應有權申請具有人為干預權力的控制者;二數據主體有表達觀點的權利;三數據主體有反對該自動化
決定的權利。
GDPR 沒有專門針對出售個人信息的條款約定,但賦予了反對處理個人信息或撤銷同意的有限權利。GDPR第21條規定,若個人數據處理是用于直銷(direct marketing)的目的,數據主體有權隨時拒絕為此類營銷目的而處理其個人數據的行為,包括一定程度上關聯到這種直銷的分析行為。同時,第7條也規定了數據主體有撤銷同意的權利。
美國采用的是算法責任中心的反歧視路徑。2019年4月國會議員提出的《算法責任法案》采取了結果監督路徑。CCPA向消費者賦予了“選擇退出權”(Opt-Out Right),如果經營實體將個人信息轉移給第三方并收取金錢或其他對價,即屬于出售個人信息,則該實體必須向消費者披露其個人信息可能被出售,并且消費者有權選擇在出售信息中排除其個人信息。而對于16歲以下未成年人,企業必須取得其確定性的同意授權,才可以出售其個人信息。
此外,為保障消費者的“選擇退出權”,CCPA規定即使消費者行使了該權利,相關企業也不得因此歧視消費者,包括但不限于不能拒絕為其提供產品或服務,或在價格和服務質量上區別對待該消費者等。但是,受管轄企業仍然可以通過為消費者提供經濟激勵的方式,獲得消費者對企業收集、售賣其個人信息的許可。
CCPA并不是第一個授予個人選擇退出組織使用或披露其信息的權利的法律。其他聯邦法律,包括《金融服務現代化法案》(“GLBA法案”)和《控制非自愿色情和促銷攻擊法案》(“CAN- SPAM法案”),都包含了某些選擇退出的要求。
2020年10月21日,中國人大網公布《中華人民共和國個人信息保護法(草案)》(以下簡稱“《個人信息保護法(草案)》”)全文,并對其公開征求意見。《個人信息保護法(草案)》于2020年10月13日經第十三屆全國人大常委會第二十二次會議進行了初次審議。作為首部專門規定個人信息保護的法律,《個人信息保護法(草案)》在正式出臺后,將成為個人信息保護領域的“基本法”。《個人信息保護法(草案)》全文共八章,內容包括總則、個人信息處理規則、個人信息跨境提供的規則、個人在個人信息處理活動中的權利、個人信息處理者的義務、履行個人信息保護職責的部門、法律責任和附則。
《個人信息保護法(草案)》第二十五條 利用個人信息進行自動化決策,應當保證決策的透明度和處理結果的公平合理。個人認為自動化決策對其權益造成重大影響的,有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。
通過自動化決策方式進行商業營銷、信息推送,應當同時提供不針對其個人特征的選項。
由此可以看出《個人信息安全法(草案)》第25條拓展了權利保護的范圍,賦予數據處理者保證決策的透明度和處理結果的公平合理的義務;同時規定了救濟途徑為“個人認為自動化決策對其權益造成重大影響的,有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。”賦予了數據主體對算法結果具有要求解釋權和拒絕權。強調自動化決策的透明和處理結果的公平合理,并為個人提供了救濟途徑。
隱私政策是指互聯網平臺提供和制定的,對其對個人信息的收集、存儲、使用、共享及轉讓等對個人信息的處理進行說明,以鏈接和頁面顯示的形式向用戶明示,要求同意方能使用平臺應用的協議。通過對十家社交平臺隱私政策的基本情況進行對比,發現大部分平臺有獨立的隱私政策,但未明確隱私政策的生效日期和存檔歷史版本,因為沒有新舊版本的對比,用戶便無法清晰了解條約中有哪些實質性內容進行了修改,也就無法做出新的同意。有的平臺沒有為用戶提供明確的聯系方式,平臺提供具體的聯系方式可以為用戶的隱私權益進行救濟,以便用戶就隱私政策的相關問題展開資訊,也是平臺負責任的具體體現。所有的平臺都明確了對用戶免責的聲明,有些平臺將該條款單獨列出,有些將免責的意思零星表示在隱私政策的具體條款中,如果平臺過度強調免責,反而會成為不負責任的表現。
企業的運營模式首先是用戶進行注冊,或是對相關程序軟件等進行授權,那么企業便擁有了用戶的基礎數據。接著企業會對收集到的大量數據進行分析整理,而這個分析整理的過程及最后呈現的結果都屬于該企業的智力成果,即強調數據的財產性價值。與此同時,企業為了使自身能夠實現較好較快發展,會在對個人的信息進行收集整理之后,根據對用戶的整體評價,及時為用戶進行推送,為用戶節省時間精力成本,提供一個良好的使用體驗,進而不斷擴大自身軟件的影響力和號召力。
舉例來說,在金融借貸場景下,如果依據數據模型自動決定個人貸款額度的,個人可以要求個人信息處理者作出說明并有權拒絕僅以數據模型自動決策的方式作出的決定,相對應的,在個人依據本條提出權利主張的情況下,個人信息處理者可能需要對個人的貸款額度進行人工復核。即個人在做出決定時是基于自己的意識思考,而并非受他人意見所以左右。并且更為重要的是系統在為用戶進行推薦時必須要對過程對結果公開透明,要有的放矢地去完成相關事情。當然,為了防止個人濫用本條的規定,本條對適用情形也進行了限制,即“對其(個人)權益造成重大影響的”,防止個人隨意拒絕自動化決策的處理后果或者提出異議而加重企業的負擔。
《中華人民共和國電子商務法》第十八條則首次提出平臺的推薦算法搜索結果,應提供非個性化推薦的一般結果,即不針對消費者個人的普通搜索結果。具體條文寫道,“電子商務經營者根據消費者的興趣愛好、消費習慣等特征向其提供商品或者服務的搜索結果的,應當同時向該消費者提供不針對其個人特征的選項,尊重和平等保護消費者合法權益。電子商務經營者向消費者發送廣告的,應當遵守《中華人民共和國廣告法》的有關規定”。《個人信息安全規范》第7.5條b項也有類似規定:在向個人信息主體提供電子商務服務的過程中,根據消費者的興趣愛好、消費習慣等特征向其提供商品或者服務搜索結果的個性化展示的,應當同時向該消費者提供不針對其個人特征的選項。
平等權是憲法規定的公民的基本權利,但是數據算法逐漸對人們進行機械地分割,也改變了歧視的產生方式,因此算法設計者在對歧視進行規制時要進行多方面的加強,強調倫理植入。誠如學者所言:“對算法嵌入倫理道德的價值是有必要的,它強調設計符合倫理原則的算法,為人類提供幫助或者算法自身在某種程度上具有倫理決策的能力。”通過以反算法歧視理論價值和反歧視目標定位為基本遵循,貫徹“通過設計實現公平”的規制原則,根據算法歧視的類型和特征建立反算法歧視制度。
首先,應規范算法模型的數據類型。為了實現算法自動決策的形式平等,應當建立算法模型的事前數據清潔制度,明確算法模型設計者的數據清潔義務和責任,禁止將具有顯著歧視性特征的數據作為算法模型的分析數據。在系統對用戶的數據進行采集時,應自動忽略帶有顯著歧視性的數據,如藥品、殘疾人用品、計生用品等采購信息;疾病診療、運動復健、殘障用品使用教學等視頻的觀看記錄;手機價格、月度消費情況等直接或間接反應用戶經濟狀況及消費能力的信息。通過強制算法模型自動略去或主動刪除會造成歧視性的影響因子,可以有效遏制算法歧視。
其次,應建立數據動態審查機制。由于算法模型能夠發現海量數據之間潛在的相關性,并在算法訓練和運行過程中,產生算法設計者意想不到的歧視后果。所以需要建立數據動態審查機制,時刻監控數據在傳送過程中可能引發的誘變。
另外,應建立算法歧視影響評估制度。因歧視的高度隱蔽性,歧視的判斷和識別在數據算法的具體操作中變得異常困難。因此,在具體制度的建構上,可以參酌環境影響評價制度,建立算法歧視影響評估制度。即在算法模型設計完成后,投入使用前由專門機構對該算法模型可能帶來的潛在風險進行事前的評估,如果經過評估過后,會帶來歧視性的風險則不允許該算法模型投入進行使用。上述算法歧視制度的建立,能夠形成一套貫穿于算法模型設計和算法自動決策全過程的算法歧視識別與規制方案,有助于緩解算法自動決策造成的歧視,并在很大程度上實現算法公正。
在算法推薦模式下,用戶缺乏主動的調整權和選擇權,即使對智能推薦的信息不滿意也缺乏必要的反饋溝通機制,以至于情緒積累到一定程度產生對平臺的反感甚至棄用。另外,用戶群體中擔心個人信息遭到泄露的更是不占少數,一則因為用戶并無法看到自己的哪些信息被收集,這種未知本就是恐懼的來源。二則因為信息泄露的案例比比皆是,且我國對個人信息保護的立法還不夠完善。因此互聯網平臺開放數據查看和刪除端口既能增加用戶的安全感,又對用戶的選擇權、平等權提供了保障。
對于用戶個人來看,推薦算法的長期使用可能會給用戶造成“信息繭房”的效果,導致用戶難以接觸到新的觀點和新鮮事物并且對于自身所見的世界并非全部世界這一事實渾然不知。因此,算法技術不能忽略用戶作為人的復雜性,應以“以人為本”為原則,綜合考慮人的行為、情感等要素。互聯網平臺在顯著位置開放個人數據查看和刪除端口,能有效防止用戶陷入“信息繭房”,不斷提醒用戶獨立思考。
網絡平臺在收集用戶數據時,應當定期發放調查問卷。問卷調查作為一種最簡單、最直接明晰顯示問題的方式,應在網絡平臺廣泛應用,成為平臺與用戶溝通的主要方式。問卷調查的優勢在于直觀、便捷、易統計。對于平臺來看,運營成本、維護成本、用戶黏度、用戶滿意度都是需要考慮的重點,每一份問卷調查的發出都是平臺完善自身,增加用戶黏度的機會。對于用戶來看,個人敏感信息是否被收集、信息是否被泄露、平臺的推薦是否為個人所愿都是關心的重點,每一份問卷調查的填寫都是個人法定權利的運用、對平臺收集信息行為的監督和是否繼續使用智能推薦的再選擇。
該調查問卷主要是使用戶明晰自己的哪些數據被收集,并調查用戶對于所用智能推薦的接受度和滿意度。此種方法不僅便于用戶更好進行選擇,也便于平臺優化內部管理,能夠為每位用戶做到更精確的定位,從而可以準確進行推薦,節省兩方之間的成本損耗。為使調查問卷起到應有效果且不成為用戶的負擔,頻率應以半月一次為宜,問題數量應在十個以內。且用戶應有權利隨時更改問卷頻率和問卷內容。
綜上,公平、平等一直是人類發展的不懈追求,當前我們邁入大數據算法驅動的人工智能時代,但是人類反對歧視、追求平等的美好前景不會因此發生改變。我們承認科技的發展為人類的生活帶來了便利,但我們不能陷入“技術烏托邦”中,而應看到大數據算法模型潛藏著的歧視與偏見。如此便需要社會共治,政府充分發揮模范帶頭作用,建立反算法歧視制度,規制數據的安全市場;企業肩負起社會責任,制定明晰的隱私政策,并及時與用戶做好溝通交流,將自己的行為公開化、透明化;用戶應當積極主張自己的合法權益,對于自身使用過程中遇到的問題及時進行反饋。進入大數據時代,我們必須認真對待,并透過倫理、制度和技術多維度的共同合作,尋找適當的治理方案,加以有效應對和解決。
[1]吳銘. 警惕陷入“信息繭房”[N]. 解放軍報,2021.
[2]孟翀,王以寧.教育領域中的人工智能:概念辨析、應用隱憂與解決途徑[J].現代遠距離教育,2021.
[3]盛小平,楊紹彬.GDPR對科學數據開放共享個人數據保護的適用性與作用分析[J].圖書情報工作,2020.
[4]孫躍元.《通用數據保護條例》框架內的自動化決策與數據保護[J].網絡安全技術與應用,2020.
[5]張申. 淺談美國加利福尼亞州消費者隱私法[N]. 人民法院報,2019-07-12(008).
[6]賈章范.論算法解釋權不是一項法律權利——兼評《個人信息保護法(草案)》第二十五條[J].電子知識產權,2020.
[7]張秀蘭.網絡隱私權保護研究[M].北京圖書館出版社,2006.
[8]梁曉靜. 社交平臺隱私政策研究[D].上海:華東政法大學,2019.
[9]張凌寒.《電子商務法》中的算法責任及其完善[J].北京航空航天大學學報(社會科學版),2018.
[10]郭林生.論算法倫理[J].華中科技大學學報(社會科學版),2018.
[11]張濤.自動化系統中算法偏見的法律規制[J].大連理工大學學報(社會科學版),2020.
[12]張恩典.反算法歧視:理論反思與制度建構[J].華中科技大學學報(社會科學版),2020.
還存在不足和改進之處,因為時代在不斷更新,各個平臺的業務能力也會隨時發生更改,因此平臺需要及時更新隱私政策,同時為用戶快速知曉提供便利。以此提升用戶的使用體驗,再反饋到平臺,促進兩方之間的信任與維系。