摘要:隨著互聯網技術的普及,越來越多的人進入被算法影響的環境。算法除了輔助人們高效處理各種復雜情況,也帶來了一些負面影響,可能會對人的權利、心理健康等方面產生惡劣影響。本文將已產生的算法問題按照算法至上、算法歧視、算法黑箱進行分類,并剖析各類算法問題產生的根本原因,以期為我國算法治理領域提供新思路。
關鍵詞:互聯網技術;算法問題;算法治理
第50次 《中國互聯網絡發展狀況統計報告》顯示,截至2022年6月,我國網民規模為10.51億。網民人均每周上網時長為29.5個小時,較2021年12月提升1.0個小時。[1]從數據來看,人們上網時間越來越長,無論是何種目的、何種方式、何種設備使用互聯網,都繞不開算法。處處存在的算法在方便人類的同時,也產生了許多不容忽視的問題,正成為威脅人們精神狀況和認知的潛在因素。科學地認識算法產生的衍生問題及其產生原因,采取合理的辦法進行規避,是人們在高速發展的信息社會中逆轉被動地位的有效選擇。
一、算法至上
算法讓人的喜好無所遁形。用戶在某電子商務平臺買過商品,其他各種電子商務平臺都會在用戶打開頁面的一瞬間推送相關商品,有時甚至把同樣的商品反復推送。這種情況就是 “頭部效應”和 “長尾效應”的推薦算法在隱匿地干涉人們的選擇。“長尾”與 “頭部”是一組形象的比喻,人們認為 “頭部”代表著大眾主流,那么商家就會把一些熱門的選擇反復推送,當用戶多次搜索相同關鍵詞時,發現總是會有相同的商品排靠在前,即使對它無感,它也仍舊出現。而 “長尾”雖然代表著小眾或者是邊緣角落,鑒于稱得上是頭部的商品始終只是鳳毛麟角,所以我們可以認為世界上絕大多數事物都是長尾,而推薦算法能夠發現這一個個的小眾圈子,將極具特色化的商品推向相應的小眾圈子。將此效應應用于算法有利于企業提供有針對性的服務,提升業績,但是在實際使用過程中,這種算法收縮了一部分用戶自主選擇的范圍:因為某些商品銷售量好、評價好,所以容易被推薦,因為容易被推薦,所以點擊率上升、購買量上升,能持續盤踞頭部,循環往復導致的行為正加權,讓頭部效應更加明顯,商家又利用大數據分析用戶的瀏覽習慣,發現用戶頻繁關注這些商品,便給用戶打上標簽,然后經過用戶畫像分析后,將它認為最可能吸引用戶下單的商品優先展示給用戶,最后,用戶看到的東西都是千篇一律的,沒什么新意。是算法將用戶的選擇局限在一個算法認為合理的范圍。
現在已經有公司采取特定算法來取代部分管理者的職責。用算法管理人數龐大的公司似乎是資本家們降低管理成本的好途徑,HR的工作可以被取代,低效能的員工也可以通過算法發掘出來直接裁掉,算法也可以讓便利蜂便利店的員工一切行動都要上報并聽從系統指揮。[2]算法裁員、AI面試官、算法監控……當以往暢想的新工具真正應用于現實生活中時人們才發現,原來由算法主宰的工作竟是如此令人憤懣。被算法判定為不合格的員工,會直接被 “判死刑”,沒有解釋的余地,也沒有專攻于人力資源管理的人員對員工進行再判斷,算法直接決定了人的去留。然而,被裁的員工不見得當真不適宜當前公司;被AI面試官拒絕的面試者也不見得能力不足,也可能是面對機械化的面試官感到不適應;被算法監控支配得團團轉毫無自主性的便利店店員,也不見得真能為店鋪帶來最大收益。企業管理中人性化溫度被冷酷無情的算法取代,工作成績由唯效率至上的算法判斷,工作能力由衡量標準死板的算法評定,工作內容由不知疲倦的算法來安排。當然,想要完全由算法主導、用數字化技術管理企業還有很長的一段路要走。
二、算法歧視
算法歧視是數字經濟社會新產生的現象,包括但不限于算法人格歧視、算法性別歧視、算法價格歧視。由人類社會現有的數據作為輸入樣本,存在過度代表的嫌疑,經由算法習得后,展現出來自技術的偏見,這種放大偏見差距的效果會經由算法反復傳播,并且常常被使用者忽視。心理學中存在虛幻的真相效應 (Illusory Truth Effect),是指人們在反復接觸同一信息后,出現相信信息是正確的傾向。人們接觸到的技術偏見反復疊加,虛幻的真相效應帶來的隱性記憶會導致個體對算法呈現出的偏見逐漸深信不疑,最終再次加劇人類社會中已存在的歧視事實。
美國使用預測性警務技術來預防暴力犯罪,并已為超過40萬人評定了可能犯罪的 “高風險”等級。該工具使用種族作為預測因子,警察局會依據預測結果將警察派往他們以前監管過的地方巡察,結果增加了對非白人社區的過度監管。與此同時,警察部門在少數族裔居民為主的貧困社區往往會更多使用預測性技術。[3]倘若新興的算法是依賴過去存在種族偏見甚至法律不完備時期產生的數據運作,那么靠算法來決定哪些社區重點接受治安管理、哪些家庭會受到重點監控、哪些個人會受到重點盤查,是極其荒誕無理的,這只能延續和復制刑事司法中的歧視性結構。執法機構和法院都在過度依賴算法工具,使長期存在的種族歧視更加固化,損害了公民的人格,破壞人權,是對人格的歧視與侮辱,最終還將加劇種族之間的沖突。
算法中的性別歧視也屢見不鮮。某語音翻譯就已經出現將幼師、小學教師職業與 “她”掛鉤,將高中教師、研究生導師與 “他”掛鉤的翻譯方式。亞馬遜公司篩選招聘簡歷的算法系統會給包含 “女性”相關詞匯的簡歷低分。人們常使用的人工智能助手基本默認使用的全都是女聲。這些現象的產生是機器經過大數據搜集后,對人們語言習慣的習得,這一學習固化了性別印象,潛意識傳遞出性別歧視。
大數據殺熟具有普遍性、隱蔽性、反復性。隨著智能手機的普及以及用戶對于智能手機的依賴程度加深,互聯網企業對于用戶的信息收集正變得越來越全面、越來越精細,應用強大的算力和巧妙的算法,互聯網公司可以從存儲在用戶本地終端上的數據、存儲在云端服務器上的數據中抽絲剝繭,追蹤和預測消費者的興趣。沒有經營者愿意放棄對于用戶的分析。由于用戶的消費習慣各不相同,受到推薦的商品、被展示的商品界面也千人千面,用戶之間很難對比,無從得知自己的消費價格是否異于其他消費者。相比于傳統的價格歧視,大數據殺熟很難被發現,因此受害者范圍可能會更大。
三、算法黑箱
在以算法為核心的數字時代中,越來越多新型控制出現,它們并非束縛人們的人身自由,而是隱匿在我們普通人所熟悉的操作中,對使用者的行為進行干涉,以滿足算法設計方的意圖。其中,算法黑箱導致的新型控制占大多數?!八惴ê谙洹笔侵赣捎诩夹g本身具有專業性,難以被除設計人員外的使用者知悉算法的具體內容,算法猶如一個未知的 “黑箱”,其設計目標、意圖、信息獲取與使用、責任歸屬等信息均不透明,難以有效監督。
風靡一時的消除小游戲 “羊了個羊”被玩家指出是騙局:以難度高做噱頭,號稱 “據說只有0.01%的人可以通關”,實際是游戲并未精心設計,游戲過程生成牌面存在完全隨機性,甚至可能在一開始就是一個死局,不可能通關,吸引玩家靠觀看廣告獲得洗牌機會,達到營利的目的。由于算法不透明,用戶很難知道自己參與的活動是否具有公平性,知情權難以得到保障。以 “羊了個羊”為例,在網上揭露游戲存在漏洞、明確游戲真實邏輯的有兩類人:一類是專業的程序員,通過解包等具有技術門檻的操作,直接發現游戲存在死局;一類是付出大量時間與精力的游戲玩家,通過反復測試得出游戲無法通關的結論。由此可見,揭露一個算法是否存在操縱概率的可能需要消耗大量的時間成本,只有少數人明白 “真實的算法”。
算法黑箱背景下概率操縱最嚴重的后果是成癮問題。類似于賭徒心理,不明真相的玩家在輕而易舉通過第一關后,獲得正向激勵,在第二關中玩家一遍一遍通過看廣告得到道具來企圖通過第二關,道具用光、游戲失敗后又重新開啟第一輪,再次獲得正向激勵,不知不覺沉迷于其中,甚至挑戰上百次只為通關,逐漸形成心理執念。殊不知并非勇于嘗試就會成功,通不通關早就由設計者決定好了,注定不會通關的游戲只是希望玩家沉迷于此,多多觀看廣告,事實上他們也確實做到了。
大數據在各行各業廣泛應用,數以億計的用戶的行為活動以數據的形式被各種渠道、各種設備搜集捕獲,用以分析和塑造用戶畫像。信息越多,用戶畫像越精確。一些企業出于某些原因,會假借已有的搜集渠道,超出正常范圍獲取更多用戶信息。用戶不僅隱私權難以得到保障,還承擔著額外的心理壓力。假如只是將數據交由機器分析,人們對于隱私泄露的擔憂還可能小一些 (但也無法排除有員工主動獲取服務器上的用戶信息的可能性),但是數據直接交由真人數據助理分析顯然讓用戶難以接受。自己的隱私在不知情的狀態下不僅被他人聽到,而且還有被泄露到成千上萬人面前的風險。在機器面前還能否有自由,成為了用戶實實在在的擔憂。
四、解決方案
從現實情況來看,算法使用過程中產生的衍生問題已經給使用者帶來很多困擾,并且衍生問題早已超過了算法設計領域。
產生各類算法問題的原因大致可分為兩類:內生性原因和外生性原因。
內生性原因有兩點:其一,算法設計者本身能力不足,對于問題的理解較為片面,導致其設計的算法解決問題片面、數據處理不精確、算法邏輯存在漏洞,致使結果呈現出意料之外的問題,這是無意識的設計導致算法問題;其二,算法設計者囿于創作背景、設計思路、投資人需求、問題導向的綜合考慮,并不能寫出不帶有預設立場的代碼,明知算法結果會引起爭議也仍要這樣設計,這是參與人有意識的設計導致的算法問題頻生。
要想克服掉內生性因素,需要社會諸多方面的努力。第一,算法設計者能力不足屬于個人客觀事實。通過提升程序員職業技能,提高從業人員的職業道德素質培養,就能夠克服能力不足這一客觀制約,從而有效維護市場公平,避免惡意競爭,從根源切斷產生算法問題的途徑。第二,偏見與刻板印象是長久存在的社會事實。由于自然差別的存在,人們會自我歸類,將本族成員和他族成員區分開來,賦予自己一個以族群為基礎的社會身份,并將社會身份納入自我概念中,導致人們對自己族群之外的人同理心偏低。這是正?,F象,但是以此為基礎固化偏見、形成對于其他群體的歧視是需要警惕的。社會層面消除偏見,倡導機會公平,保障人身基本權利,能為糾正人們思維中潛在的歧視觀點營造良好的氛圍。這就需要小族群內保持開放包容,增強交流意愿;小族群之間加強聯系,促進信息互通。內生性因素的克服能很大程度上消除算法問題的根源。
外生性原因有三點:其一,算法輸入的數據存在瑕疵,可能會導致算法結果出現問題。例如,輸入數據樣本容量過小,算法深度學習就會不足,導致無法準確判斷甚至會錯誤判斷數據之間的相關性,美國的預測性警務技術存在算法歧視的原因就在于此。其二,算法若遭遇攻擊被惡意篡改,可能會使模型出現偏差,繼而出現錯誤計算結果。其三,使用者不當使用,將算法脫離最初設定場景使用,錯誤解讀算法結果,也可能導致算法問題。
這些不以算法原設計者意志為轉移的外在可能性無法消除,只能通過推廣規范化規則對其進行約束。第一,數據集的采集與使用目前沒有明文規范,一般都是大公司提出要求,外包給數據采集員進行采集。實際上,在數據采集完成之后,由承包公司自行診斷數據集是否完整健康是很有必要的。只有從源頭上控制數據完整合理,才能讓算法在無明顯缺點的情況下達成預計效果。第二,對于程序中某些存在的容易被黑客入侵的程序漏洞我們無能為力,但還是可以采取一些方式來最大限度地保護隱私。例如,在使用智能設備前,我們應該了解設備的隱私條款,關注它會搜集什么信息、信息是否加密、在什么情況下會將信息上傳、會有什么人接收到這些信息、這些信息將被如何使用,并且考慮智能設備是否有聯網的必要,在不必要時不聯網,聯網前清除敏感數據能最大限度避免隱私泄露。
五、結束語
算法的出現,對于依賴于計算機工作的人著實便利不少,可是所有真實存在的事物皆逃不過柯美雅定律,算法也不會是十全十美的,也會有改革的余地。隨著算法在各個應用程序中不斷更新迭代,人們越來越發現算法開始主宰自己的選擇。原本豐富多彩的選擇,因為有了一些算法的存在,人們的自由選擇度大大降低,行使權利的自由受到限制。與算法便利使用相伴而來的算法的問題已經到了不可忽視的地步,亟須更多人的關注。
參考文獻:
[1] 中國互聯網絡信息中心發布第50次《中國互聯網絡發展狀況統計報告》[J].國家圖書館學刊,2022,31(05):12.
[2] 羅真真.算法為王,數據存疑,便利蜂的 “系統” 試驗[EB/OL]. [2021-12-17].https://new.qq.com/rain/a/20211217A0CNIA00.
[3] 唐穎俠.算法黑箱強化偏見 數字技術加劇美國的種族歧視[N].光明日報,2022-06-20(12).
作者簡介: 張卓,女,漢族,山東濟寧人,碩士研究生在讀,研究方向:公共管理。