陳海軍 鄒君波 趙穎 費德馨
關鍵詞 資訊分發;智能算法;算法推薦;算法倫理
中圖分類號 G2 文獻標識碼 A 文章編號 2096-0360(2021)07-0032-03
1.1 智能算法起源和發展
算法一詞源自波斯學者al-Khwarizmi名字的拉丁化,他于9世紀在巴格達撰寫《印度數字計算》一書,向西方引入了印度教的數字,以及相應的計算方法,即算法。中世紀拉丁語中出現專有名詞“algorismus”,指用印度數字進行四個基本數學運算——加、減、乘、除,后來,術語“算法”被人們用作表示任何逐步的邏輯過程,并成為計算邏輯的核心[1]。
隨著信息技術和人工智能技術的發展,算法逐漸智能化和機械化,并廣泛應用到資訊信息分發領域。所謂智能算法推薦,是指通過大數據統計分析技術及互聯網信息技術,按照人們的閱讀習慣、興趣愛好與個性化的閱讀行為,精準地為人們提供獲取信息的機器程序。現代推薦算法大致可以分為三類:基于內容的推薦算法、基于知識的推薦算法、協同過濾算法,此外還有以加權、串聯、并聯等方式融合以上算法的方法[2]。
1.2 算法推薦倫理內涵
算法的倫理問題,指的是算法越來越多地代替人類智慧進行決策所引發的倫理危機。人工智能背景下,算法越來越智能化和程序化,在遵循自然邏輯和思維邏輯之外,甚至能代替集體智慧進行決策,人類主體地位受到挑戰,人與技術之間的關系面臨重構。
技術中性論最早由英國的福布斯提出,該理論認為技術對于社會組織和文化等的發展并沒有什么特殊影響,其本身并無好壞之分,既可以用于善良的目的,也可以用于邪惡的目的,關鍵是用于何處。在大數據背景下,資訊分發平臺在算法機制的作用下產生了諸多的倫理問題,使得人們對智能技術的影響和作用產生了質疑,重新思考技術中性論的現實意義。
2.1 智能算法帶來的倫理問題表現維度
2.1.1 內容呈現:加劇“信息繭房”,受眾成為“單向度”的人
從算法推薦結果出發,目前最常見的算法推薦機制是平臺根據用戶對內容的點贊評論等數據,分析其內在的興趣和需求,在獲取到相對完善的用戶畫像后,在下一次推送中推薦與用戶相匹配的信息內容。這樣的方式一方面實現了人與信息的高效匹配,節省了用戶的時間,但另一方面也讓用戶在無形之中回避了自身不太感興趣的內容,只選擇性地接觸自己感興趣的話題,久而久之失去了解和認識不同事物的能力,從而加劇信息環境中的“信息繭房”危機。
馬爾庫塞在其著作《單向度的人》中指出,發達工業社會壓制了人們內心中的否定性、批判性、超越性的向度,使這個社會成為單向度的社會,而生活于其中的人成了單向度的人,這種人喪失了自由和創造力,不再想象 或追求與現實生活不同的另一種生活[3]。人工智能時代,算法推薦帶來的“信息繭房”加劇,無疑會使得生活在其中的人們更加“單向”化,停滯自身的創造和發展,無法實現人的價值。
2.1.2 算法過程:信息選擇權讓渡,主體權益面臨搶占風險
從算法運行過程出發,推薦算法通過獲取用戶以往的行為數據,對用戶畫像進行標簽化和細分化,根據其特點向用戶推薦與其歷史瀏覽內容相似的信息。在這種程序下,用戶并不知道自己所看到的內容已經經過算法過濾,會自然而然認為平臺推薦的內容應是客觀全面的,這就極大可能導致用戶錯過一些本應知情卻被算法機制篩選掉的信息,無法了解客觀世界的全貌。
這種算法推薦的過程不甚透明,用戶并不知曉算法程序如何分析、分發信息,因此當用戶過度依賴資訊平臺的推薦來獲取信息時,也就意味著將信息選擇的權利讓渡給了算法,這樣不僅會導致用戶接觸新鮮事物的主觀能動性下降,所獲信息過于片面狹窄,用戶本身的信息選擇權和知情權等權益也可能受到侵犯,淪為算法程序的奴隸。與此同時,在互聯網大背景下,大量用戶數據被資訊平臺分析檢測,平臺也不能完全保證收集到的用戶數據的安全,用戶隱私可能面臨被泄露、被更改的風險,致使隱私權益得不到保障。
2.1.3 價值反饋:社會輿論進一步分化,主流價值觀受沖擊
從算法價值層面來說,由于用戶對資訊平臺推送的信息具有選擇接觸性,在用戶主動獲取所需信息的同時,平臺也會根據新鮮度和熱度推送信息,這些內容通過算法程序推薦給廣大用戶后,在正反饋機制的作用下,能在平臺上獲得更多曝光量和瀏覽量,實現熱度的不斷增值。但由于算法機制缺乏嚴格的審查制度,如果僅靠流量與點擊為算法標準來進行推送,一些低俗、泛娛樂化的內容甚至是虛假新聞也可能會被大量推送給用戶,導致網絡環境中吸引眼球的內容獵奇或觀點極端的信息增多,影響人們對真實世界的認知和判斷。
哈佛大學教授凱斯·桑斯坦認為,互聯網環境中的“信息繭房”局限會產生群體“極化”的問題,也就是說當人們長期囿于不良信息環境中時,自身和群體的價值觀會受不良價值觀的影響,逐漸異化,這種情況導致的不良后果可能是原本和諧統一的社會風氣被破壞,主流價值的輿論引導力下降,社會輿論進一步分化。
2.2 技術中性論視角下的倫理問題成因分析
技術中性論認為技術本身是非善非惡的,技術能產生怎樣的影響,取決于使用它的主體出于怎樣的目的,或使用過程中存在的邏輯問題。算法推薦作為一種人工智能時代的智能技術,其本身也應不具有先天的善惡屬性,智能推薦算法導致的倫理問題的成因可以從以下幾個方面分析。
2.2.1 人為因素:主觀偏見和潛在歧視
人為因素更多指的是使用算法的主體存在的主觀偏見。算法推薦基于數據分析過程進行,在對收集到的信息進行數據分析時,外部主體的主觀判斷和偏見會使得原本的結果產生誤差,造成不符合預期的結果出現。人為因素的存在是一種不可抗性,因為任何算法均由人所設計和開發,縱然算法過程遵循的是科學的數字分析與歷史數據分析路徑,但先前的算法設計、數據導入、結果應用等環節均需由人力來完成,哪怕算法推薦再智能化也不可能排除人力因素的干擾。因此在算法推薦過程中,人為因素的存在會對智能推薦的客觀性產生影響,導致推薦結果具有偏向性,不管是基于何種算法技術的算法推薦都有可能被用來人為操控結果。譬如現有的一些人工智能招聘系統就存在著性別、種族歧視等問題,在對求職者進行簡歷篩選時,會根據算法分析結果篩選掉一些不符合預期的簡歷。
2.2.2 智能算法內部原因:數據誤差與完整性限制
智能算法需要基于數據的分析處理來實行操作,因此數據的完整性和準確性尤為重要,但因為種種客觀因素,我們所得到的數據結果并不是百分百完美的。
首先,在完整性上有所限制,智能算法在獲取用戶使用數據后對其進行分析,然后選取受眾接觸最多、最感興趣的內容再次推送,其中比重較低的信息可能會被篩選掉。但這些受眾接觸最多的信息只能說明用戶的大概率喜愛程度,并不能囊括用戶的所有喜好,用戶轉發和收藏某個話題內容不全是出于熱愛,可能是出于好奇,也有可能是為了學習某項技能而進行頻繁接觸[4]。因此數字邏輯無法完全解答個體的行為邏輯,也不可能為受眾推送覆蓋全面需求的信息內容。
其次,是準確性的限制,如果在一群較為集中的數據中出現與之差異較大的數據點,或被人為加入某些數據,那得到的分析結果也會與均值有較大偏差。比如新浪微博熱搜榜上出現的熱點內容,并不全部是自發形成的流量熱點,某些熱點詞條是有些企業為了推廣自己的產品服務,與平臺進行交易后被安插在其中,這些被買了流量的信息內容在微博的算法推薦機制之下,會出現在許多網民的主頁上,但實際上,這些被推薦的內容與部分用戶的信息偏好是相離甚遠的,是人為創造的熱度假象,因此用戶是被迫在大數據的推薦下接觸了這些內容,他們的主觀能動性沒有得到滿足。
2.2.3 信息壁壘:算法的天然屏障
信息壁壘是算法內部的天然屏障,是指在算法過程中,由于決策者擁有算法信息的知情權與數據分析過程的主導權,受眾無法知曉其具體運作過程,只能是推薦結果被動的接受者和執行者,因此無法對這些推薦內容進行準確判斷和評估。譬如在像“今日頭條”這樣的資訊平臺上,用戶所獲得的信息均由平臺算法推薦,用戶無法知曉其背后的運行過程,也無法自主做出信息選擇進行評價。信息壁壘是算法的天然屏障,也是算法倫理問題的最大原因,它讓人們無法接觸到決策過程中的很多核心信息,除了算法本身,沒有人準確地知道到底什么因素在決策過程中起了決定性作用[5]。同時在實際運用中,信息資源的使用具有“馬太效應”,即信息資源豐富的一方對信息的掌控會越來越大,而信息資源匱乏的一方則會逐漸失去對信息的支配權,因此在算法發展的過程中,決策者和執行者之間的信息壁壘也在日益加深,形成更大的信息差異。
麥克盧漢曾有過著名論斷“媒介是人的延伸”,指出媒介與人的關系。目前,智能推薦算法作為廣泛使用的媒介技術,面臨著算法倫理危機考驗,因此在行業未來的發展中,既要充分堅持技術的工具理性,發揮其最大效用,也要堅持人的主體價值,樹立倫理目標。
3.1 基于新聞自律維度:提升從業者“算法素養”,堅持自律和規范
習近平總書記指出:“要堅持正確新聞志向,提高業務水平,勇于改進創新,不斷自我提高、自我完善,做業務精湛的新聞工作者。”新聞自律是對新聞業界以及新聞從業者的道德要求,指在從事新聞報道相關工作時,新聞來源必須真實可靠,決不能嘩眾取寵,新聞界從業人員必須嚴格遵守新聞出版的法律法規,嚴于自律,真實客觀地去分析、報道有關的新聞信息。目前算法技術雖已廣泛應用在各大資訊平臺,但深入了解其原理機制,能靈活使用的技術人才仍在少數,大多數公眾對智能算法的認識也停留在表面。因此,必須大力推廣算法知識教育,提升從業者的算法素養。同時,堅守自律和規范依然是新聞工作者必須遵循的職業道德準則。
3.2 基于算法與人的價值維度:擺脫思維定式桎梏,全面延伸主體價值
在資訊平臺中,信息分發大都依賴智能算法對用戶數據的分析,這就導致算法推薦會加劇網絡環境中的“信息繭房”或“回音室”效應,受眾囿于重復低質的信息內容,無法突破自身局限,無法全面延伸人的價值。因此在算法應用過程中,用戶自身不應完全放棄自主選擇信息的權利,應開放包容地傾聽全方位的聲音,平臺方也要意識到技術是為人類服務的工具,通過種種提示幫助人們擺脫思維定勢的桎梏。
例如,美國BuzzFeed雜志推出的“Outside Your Bubble”功能,在一部分流傳范圍非常廣的新聞底部,加上另一些平臺的評論,比如Twitter、Facebook等,幫助受眾了解多維意見和聲音。再如Google推出的“逃離泡沫”插件,該插件可以根據用戶的閱讀習慣,反向推薦格調積極、易于接受的內容,幫助用戶逃離熟悉的“信息泡沫”,還能夠在感官上給用戶帶來很好的體驗效果[7]。同時,作為信息消費者,除了依靠社交媒體的技術支持,用戶自身也應主動接觸各類新鮮事物,了解真實的客觀世界,努力實現自己的主體價值。
3.3 基于人機關系維度:堅持人本規則,加強人機協作
隨著人工智能技術的發展,智能算法技術越來越滲透到人們生活的方方面面,但在人與技術的互動過程中,人機關系的倫理沖突問題也日益顯著,譬如資訊平臺中智能算法推送的大量信息內容,可能在某些時候取代人的主觀選擇,成為決策或行動的主導力量,對人的主體地位造成沖擊。因此在處理人機關系時,算法信息分發平臺應當堅持人機結合的原則,一方面要提高對人本規則的認識,強調人的主體性、能動性,認識到人是信息的生產者、傳播者和消費者,算法技術的應用要以滿足人的需求為導向;另一方面,加強人工把關和人機協作,充分將人力和技術的優勢結合起來,為用戶推薦優質化的信息內容,這樣方能促進智能推薦算法在未來發展中具有正確導向,更好地體現人的主導性和價值觀[8]。
參考文獻
[1]MatteoPasquinelli.算法究竟從何而來[EB/OL].彎月,譯.(2019-08-01)[2021-03-15].https://baijiahao. baidu.com/s?id=1640593404395534400&wfr=spider& for=pc.
[2]王亞妮.算法推薦新聞的倫理風險以及未來發展[J].新媒體研究,2019,5(1):29-30.
[3]赫伯特·馬爾庫塞.單向度的人[M].上海:上海譯文出版社,2006.
[4]雷鳴.資訊分發平臺的個性化推薦研究[D].武漢:華中科技大學,2018.
[5]房雯璐.算法推薦模式下媒介倫理失范研究[J].山東工業技術,2019(7):138.
[6]張萌.算法推薦的倫理困境:技術邏輯基礎上的社會價值規范[J].今日科苑,2019(10):43-51.
[7]靖鳴,管舒婷.智能時代算法型內容分發的問題與對策[J].新聞愛好者,2019(5):9-13.
[8]胡萬鵬.新聞算法推送的倫理困境及其對策研究[D].長春:長春工業大學,2019.