云賀
如今,機器算法越來越深入地滲透到人類社會的諸多方面,輔助人們做出各種決策。在廣告投放、司法審判、人才雇傭等領域,機器算法都扮演著重要角色。
相對于人腦,機器算法具有效率高、中立性等諸多優勢。然而,機器算法能帶來一個更公平的世界嗎?
今年7月,蘭德公司的六位研究員聯名發布名為《算法公平——社會應用框架》的報告,梳理了金融、司法領域的諸多典型案例,系統闡述了機器算法的功與過。報告認為,以如今的技術水平來看,機器算法往往帶有刻板“偏見”。
當前,機器算法已經滲透到人類現代生活的方方面面。有時候,甚至連人類自己都沒意識到是機器在輔助整個社會做出決策。機器算法對于提高決策效率和消除人為歧視的確有所助益。但近些年來,機器算法也惹出了一系列麻煩,其科學性和公正性屢遭公眾質疑。
2013年5月,德國聯邦法院判定,谷歌搜索的“自動填充”功能含有誹謗性搜索提示,侵犯了公民權利。事件源自德國一家化妝品業的企業家,其在谷歌搜索中輸入自己名字時,文本框下方會自動顯示“山達基教”和“欺詐”等詞匯。原告認為,谷歌的這一功能侵犯了個人權利,損害了企業聲譽。
黑匣子 機器算法在輔助決策時存在“黑匣子”問題,即由于讀取數據龐大、算法系統復雜,有時可能連技術設計者都不知道機器將如何做出決策。
最終,德國聯邦法院雖然裁定“自動填充”功能在原則上并無問題,但如果發生類似的侵犯個人權利或損害名譽的事件,運營商應承擔相應責任并作出賠償。……