云賀
如今,機(jī)器算法越來越深入地滲透到人類社會的諸多方面,輔助人們做出各種決策。在廣告投放、司法審判、人才雇傭等領(lǐng)域,機(jī)器算法都扮演著重要角色。
相對于人腦,機(jī)器算法具有效率高、中立性等諸多優(yōu)勢。然而,機(jī)器算法能帶來一個更公平的世界嗎?
今年7月,蘭德公司的六位研究員聯(lián)名發(fā)布名為《算法公平——社會應(yīng)用框架》的報告,梳理了金融、司法領(lǐng)域的諸多典型案例,系統(tǒng)闡述了機(jī)器算法的功與過。報告認(rèn)為,以如今的技術(shù)水平來看,機(jī)器算法往往帶有刻板“偏見”。
當(dāng)前,機(jī)器算法已經(jīng)滲透到人類現(xiàn)代生活的方方面面。有時候,甚至連人類自己都沒意識到是機(jī)器在輔助整個社會做出決策。機(jī)器算法對于提高決策效率和消除人為歧視的確有所助益。但近些年來,機(jī)器算法也惹出了一系列麻煩,其科學(xué)性和公正性屢遭公眾質(zhì)疑。
2013年5月,德國聯(lián)邦法院判定,谷歌搜索的“自動填充”功能含有誹謗性搜索提示,侵犯了公民權(quán)利。事件源自德國一家化妝品業(yè)的企業(yè)家,其在谷歌搜索中輸入自己名字時,文本框下方會自動顯示“山達(dá)基教”和“欺詐”等詞匯。原告認(rèn)為,谷歌的這一功能侵犯了個人權(quán)利,損害了企業(yè)聲譽(yù)。
黑匣子 機(jī)器算法在輔助決策時存在“黑匣子”問題,即由于讀取數(shù)據(jù)龐大、算法系統(tǒng)復(fù)雜,有時可能連技術(shù)設(shè)計者都不知道機(jī)器將如何做出決策。
最終,德國聯(lián)邦法院雖然裁定“自動填充”功能在原則上并無問題,但如果發(fā)生類似的侵犯個人權(quán)利或損害名譽(yù)的事件,運營商應(yīng)承擔(dān)相應(yīng)責(zé)任并作出賠償。……