999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能時代的算法歧視及其治理路徑

2021-02-28 05:13:59刁生富
關(guān)鍵詞:人工智能

刁生富,張 艷

(1. 佛山科學技術(shù)學院 法學與知識產(chǎn)權(quán)學院,廣東 佛山528000;2. 佛山科學技術(shù)學院 馬克思主義學院,廣東 佛山528000)

數(shù)據(jù)、算力與算法是人工智能最為基礎(chǔ)的、不可或缺的三個要素。數(shù)據(jù)是人工智能的“能源”,猶如工業(yè)時代的煤炭、石油和電力等一樣重要,為人工智能的發(fā)展輸入源源不斷的力量,這也是為什么大數(shù)據(jù)的發(fā)展完善促進人工智能的“第三次崛起”之緣由。算力是指計算能力,從最早的計算機開始,提升計算能力就一直是科研人員的目標,因為它直接關(guān)系到機器的反應速度和運算的價值。進入智能時代,人工智能技術(shù)的運算能力已經(jīng)遠遠超出了前人的預期。算法,是指存在于智能機器中的一系列解決問題的方法、策略和模式。人工智能發(fā)展需要算法,算法的優(yōu)劣直接導致了人工智能的水平高低。對于AI 項目來說,算法幾乎是靈魂。人工智能之所以能夠發(fā)展到今天,全是因為如上三個方面的要素得到了不同程度的發(fā)展和完善,并通過整合的方式共存于智能系統(tǒng)之中。但是,隨著人工智能的發(fā)展,人們逐漸發(fā)現(xiàn),當它得到廣泛應用并不斷深入到人們生活時,“殺熟”“偏見”與“性別歧視”等現(xiàn)象逐漸顯露出來,迫使人們不得不關(guān)注“算法歧視”的問題。

一、概念辨析:智能算法歧視的概念與特征

智能算法,是指存在于人工智能機器中的一系列解決問題的方法、策略和模式。簡單地說,智能算法就是一個“既開放又封閉”的容器,開放性體現(xiàn)在人人都可以從中尋找輸入的問題的答案,但對于這個答案獲取的過程,又是封閉性的,大多數(shù)時刻并不對所有人公開,或者無法公開。所以,算法就是一個問題的“求解”模型。譬如,最簡單的計算器,當其算法模型開始工作時,很顯然能在特定的范圍內(nèi)輸出預設(shè)的答案。這是智能算法中最為簡單的一種運算模型。那么,智能算法的本質(zhì)又是什么?計算機科學認為,智能機器所具有的算法,是指由眾多運算法則支配下的“狀態(tài)轉(zhuǎn)換”,即回答怎么輸出答案的問題。所以,總的來說,智能算法就是基于一整套運算法則的問題與問題求解的中間過程,它能夠?qū)崿F(xiàn)特定的目的和結(jié)果。歧視,是指不平等的對待,這種不平等的對待是以這兩種方式展現(xiàn)出來,一是在某一特定群體或類別中,基于成員的身份而對其施以不合理的待遇[1];二是不同的規(guī)則適用于類似的情況,或同一規(guī)則適用于不同的情況[2]。從歧視的內(nèi)涵界定來看,人們默認為會發(fā)生歧視的主體是人,所以才將“身份”“待遇”“規(guī)則”等詞匯用作詮釋歧視本身。歧視對于人類而言,包含無數(shù)的特殊意義,且絕大多數(shù)情況下是以負面的形象出現(xiàn)的,如性別歧視、就業(yè)歧視、職業(yè)歧視、身高歧視、殘疾歧視、年齡歧視、種族歧視、地域歧視與戶籍歧視等。歧視是自人類誕生以來就一直存在的社會現(xiàn)象。經(jīng)過理性思考的人,通常情況下能夠發(fā)現(xiàn)此種情況的存在,但往往不能阻止該現(xiàn)象的發(fā)生,原因在于這種現(xiàn)象植根于人的深層弱點之中,與人類自身的利益直接掛鉤。這種歧視的直接危害是,很容易將他人置于危險的境地。

從算法與歧視的概念解析來看,算法歧視的內(nèi)涵逐漸明晰。算法歧視,又可稱之為機器歧視、算法偏見、算法偏差等,是指借助人工智能算法來達到區(qū)別對待以獲取最大利益的目的。算法歧視表現(xiàn)在兩個方面:一是以多種算法規(guī)則為基礎(chǔ),區(qū)別對待不同身份的人;二是將相同的算法規(guī)則用于不相同的應用場景。最終的結(jié)果一旦被算法服務的對象發(fā)現(xiàn),將會造成嚴重的不公平感和憤恨感,會損害被歧視對象心中最基本的自尊和信任。從根本上來說,算法歧視所承載的并不是社會的公平和正義,它更多地傾向于在區(qū)別對待中達到利益最大化。

根據(jù)算法歧視的對象屬性,可將之分為算法身份歧視和算法非身份歧視:算法身份歧視是指直接歧視人類本身,可能直接是傷及人的權(quán)利、價值與尊嚴的歧視,如年齡歧視、種族歧視、性別歧視等,導致算法公平、算法身份的污名化與隱私泄露等問題;算法非身份歧視是指間接歧視人類的算法,如價格歧視、數(shù)據(jù)殺熟等,導致不同的人在相同的賣家市場遭到不公平對待等歧視性問題。

依據(jù)算法的本質(zhì)屬性,可以歸納出算法歧視的四大特征:導向性、非價值判斷、歧視性和復雜性。導向性是指這種算法本身的存在,具有一定的價值導向作用,無論這種價值是正向的還是負向的,它只負責達到導向的目的,并不關(guān)乎導向的價值判斷;算法歧視的非價值判斷是指算法的無意識性,它本身的存在并不能判斷“此刻”的運行準則是“向善”還是“向惡”,它永遠處于無知的狀態(tài);算法歧視的歧視性是它的核心屬性,決定了算法歧視本身的正義與非正義屬性,其本身就是在表達一種不公平的生存理念,抑或是強調(diào)“選拔”與“適者生存”;算法歧視的復雜性特征,是由算法服務對象的復雜性所決定的。

算法是人工智能中的智能的技術(shù)之源,它之所以能夠得到廣泛的社會應用與承認,是因為它強大的算法模型可以將其本身的能力全部展現(xiàn)出來,從而達到人類無法與之匹敵的程度。正是如此,人工智能算法模型將會被應用到各種場景,但人們卻不能完全保證算法的“純潔性”與“合法性”。所以,它的歧視與偏見,是非常復雜的存在。

二、現(xiàn)象分析:現(xiàn)實存在的算法歧視

智能時代的算法歧視,其實應該從“殺熟”說起?!皻⑹臁笔窃从诖髷?shù)據(jù),但它延伸至人工智能領(lǐng)域,并進一步演化為算法歧視的問題。關(guān)于“殺熟”,最早的消息可以從亞馬孫的價格實驗開始說起。亞馬孫當時主要是對新老顧客實行價格差額的方式,從而達到吸引新顧客進入其服務領(lǐng)域的目的。但這種對相同商品實行不同收費標準的方式很快就被消費者發(fā)現(xiàn),并對其服務提出質(zhì)疑。所以,亞馬孫便改變了這種“價格實驗”的銷售策略。這便是技術(shù)“殺熟”最早期的消息。

這種“殺熟”的方式,本質(zhì)上就是通過一定的算法篩查策略,將新老顧客的信息進行區(qū)分與服務的供給,典型的一個端口兩套服務模式。這種簡單的算法歧視套路,能夠吸引外圍新顧客的進入,也容易導致老顧客的流失,所以公司不得不對此作出改變。但事實上,關(guān)于消費“殺熟”,商業(yè)界并沒有忘記它的“優(yōu)越”所在,并隨著人工智能的深入應用逐漸被世人所知。僅2018 年上半年,在出差旅行、外賣套餐、在線買票、出行乘車等領(lǐng)域,仍然出現(xiàn)顯著的“殺熟”現(xiàn)象。

“殺熟”是算法歧視最早期的形式,如今已成為一種與算法歧視相伴而生的社會現(xiàn)象。之所以從“殺熟”說起,因為這是一種最簡單的算法歧視形式,它便于將算法歧視與人的生活和經(jīng)驗聯(lián)系起來,易于進一步理解由算法歧視帶來的深層次的危害性問題。簡單來說,在“殺熟”領(lǐng)域涉及的算法歧視問題,造成的影響僅停留于企業(yè)和用戶層面,仍需對此深入挖掘。

除商業(yè)領(lǐng)域利用算法歧視導致殺熟現(xiàn)象產(chǎn)生以外,很多其他領(lǐng)域也同樣出現(xiàn)算法歧視的現(xiàn)象,甚至問題更加嚴峻。2015 年,谷歌和雅虎曾經(jīng)錯誤地將黑人程序員標記為“黑猩猩”,從目前的人工智能算法發(fā)展來看,這種因為算法本身的問題引發(fā)的“算法歧視”問題非常值得重視。就像之前的Uber 公司的無人駕駛汽車致人死亡一案,人工智能算法居然沒有識別出正前方有人的存在,這是一件非??膳碌氖虑椤M?,人工智能算法將黑人同胞標記為“黑猩猩”這樣的事情,如果真的發(fā)生在實際應用場景中,將會造成極其惡劣的社會影響。

2019 年11 月,蘋果公司的信用卡算法歧視事件引發(fā)強烈的社會反響。根據(jù)華爾街監(jiān)管機構(gòu)介入的調(diào)查發(fā)現(xiàn),相同的信用卡面向同一對夫婦進行貸款額度發(fā)放,但是丈夫的信用額度是其妻子的信用額度的十倍,而另一對參與調(diào)查的夫婦,丈夫的信用額度是妻子的二十倍。由此可見,算法歧視的確在某種程度上已經(jīng)與性別歧視掛上鉤,而且還是由某些大型公司“親自操盤”。

從“大數(shù)據(jù)殺熟”中的算法歧視,到大型企業(yè)的算法工作招聘時的算法歧視,再到可能存在的人臉識別領(lǐng)域的算法歧視,再到廣告推送的算法歧視,從一定程度而言,這些僅僅是算法歧視的一個縮影。從目前來看,算法歧視已涉及政治、經(jīng)濟、文化與社會等各個方面。眾所周知,問題的產(chǎn)生往往是與它的危害性直接相關(guān),但能被公之于眾,還得依靠媒體,包括國家輿論網(wǎng)絡(luò)、新聞媒體平臺、微信公眾號、騰訊新聞等。這些媒體都有關(guān)注人工智能領(lǐng)域的算法歧視問題,通過給予人們高度的信息知情權(quán),將算法歧視的問題“擺在門面上來說”。

總的來看,算法歧視會導致算法殺熟、性別歧視、種族歧視等歧視性問題,給人工智能的發(fā)展與應用抹上了“污名化”的標簽。至于今后,會不會繼續(xù)因為算法歧視而帶來更大的社會風險,“算法牢獄”“算法暴政”等問題是否也會隨之出現(xiàn),目前并不能就此下定論。但無論是何種歧視性問題的存在,歸根結(jié)底,還是要回到算法歧視的誘因中去尋找根源。

三、成因探討:智能算法歧視的誘因

算法的“非價值判斷”特征,凸顯它的價值中立位置。也就是說,它本身并不是歧視的根本原因,而是源自算法以外的客觀或主觀的因素。在算法的概念解析中,顯示出算法的優(yōu)勢是精通解決封閉式的問題,固定式的解決問題的套路讓其幾乎不會出錯,但其缺點就在于此,它并不善于回答開放性的問題。因此,當它被應用于開放性的問題領(lǐng)域時,只能讓人給他輸入無數(shù)多的預設(shè)答案,它的歧視主要就是存在于這些預設(shè)的答案之中。

簡單來說,現(xiàn)存于各種社會現(xiàn)象中的算法歧視,是現(xiàn)實社會中的歧視在技術(shù)領(lǐng)域的顯形,從而將原本的“預設(shè)”擺在人們可追溯的地方,成為一種能夠被追溯到的技術(shù)性歧視。從這個層面來說,算法歧視是社會歧視的技術(shù)映射,隱藏于算法中的歧視問題并不是無中生有,而是“算法易受人為的操控”[3],進而承載著某些特定人群的“價值指向”。

不妨回頭再看看各大公司的產(chǎn)品中出現(xiàn)過的算法歧視現(xiàn)象,就能在現(xiàn)實中找到相應的佐證材料。所以,導致算法出現(xiàn)歧視的第一個原因,是社會潛在的歧視規(guī)則在算法中的映射。從一個較為狹隘的層面來理解,社會中的歧視無處不在,這種潛在的社會規(guī)則無疑會在潛移默化中影響人們的行為,這應該就是指落后的、消極的文化帶來的影響。正是因為這種潛在的社會規(guī)則和秩序沒被打破,導致其在智能社會運行的底層技術(shù)架構(gòu)的人工智能算法中作祟,在無形間繼承了這種社會運行規(guī)則,進而衍生出系列算法歧視的現(xiàn)實問題。

值得深思的是,轉(zhuǎn)移到智能算法中并帶有歧視性的社會規(guī)則,它僅僅只是導致算法歧視的原因之一。另外一個更主觀的原因,在于人的價值歧視。之所以映射于算法歧視的問題域的系列現(xiàn)實因素會引起人們的嚴重不適,是因為智能算法從兩個層面打破了原有的“無知狀態(tài)”下的“和諧”:一是基于技術(shù)載體把潛在的歧視公之于眾;二是社會正義的力量驅(qū)使算法服務對象包括媒體在內(nèi)的相關(guān)群體的良知,讓他們感受到改變社會歧視的一次機遇正在到來,眾人的知情使得算法歧視的問題尤為刺耳?!盁o知狀態(tài)”是一種默認環(huán)境下的和諧,“沉默的大多數(shù)”讓這種歧視確實得以延續(xù)于人類生活的各種形態(tài)之中。換言之,存在于人類自身的某種歧視與偏見,成為一種社會潛規(guī)則的根源與痼疾,揮之不去之時只能棄置不顧——“默認”。那么,固有的存在于人類身上的歧視會有哪些因素構(gòu)成呢?自然包括算法歧視中反映出來的一切歧視性問題。

算法歧視是如何傳承了人類自身的局限性?在人類發(fā)明人工智能機器之時,算法歧視性的問題其實已經(jīng)隱匿其中。人們熟知,人工智能是人類智能的延伸、增強和發(fā)展,它不僅能夠延伸和增強人的優(yōu)越性,也能延伸和增強人的局限性。如此說來,算法歧視的根本誘因逐漸“浮出水面”——人類本身的歧視。

人類本身的歧視,是人性的弱點的構(gòu)成部分,人們往往會避之而不談,所以這種歧視性的問題通常會借助其他手段輔助實現(xiàn),就如經(jīng)典馬克思主義所認為的“剩余勞動力以工資的形式出現(xiàn)時就隱藏了資本家壓榨工人的一面”的道理一樣深刻。所以,數(shù)據(jù)、程序員和資本都成為替代歧視的工具。數(shù)據(jù)是算法的能量之源,但當人們收集用于訓練算法模型的數(shù)據(jù)之時,數(shù)據(jù)的收集、選擇、存儲與使用等過程都隱含人類價值觀,自然會導致算法的歧視。這就是數(shù)據(jù)中預先存在的歧視因素,數(shù)據(jù)中預先存在的偏見導致算法歧視。此類歧視通常在創(chuàng)建算法系統(tǒng)之前就已存在,算法只是將其反饋出來。換言之,“先前存在的偏見”不僅可以無意識地影響算法設(shè)計者選擇使用哪些算法,還可以通過個人或機構(gòu)有意識地或無意識地進入算法,即通過定義目標變量而嵌入算法[4]。

數(shù)據(jù)收集人員的歧視,更為突出的是表現(xiàn)在算法編程人員身上,因為他們是算法的直接建構(gòu)者。根據(jù)眾多報道,算法編程領(lǐng)域的男女比例失衡問題已經(jīng)不足為奇,特別是在專門開設(shè)算法編程專業(yè)的學校,班級的男女比例更是令人吃驚,有的班級甚至沒有出現(xiàn)女性的身影,即便是在企業(yè),負責算法編程的程序員,男女比例也在12:1 左右。因此,在算法編程的過程中,程序員難免會從自己的認知領(lǐng)域思考程序代碼,以及算法的邏輯框架,久而久之便將女性排除在考慮范圍之內(nèi),從而引發(fā)算法歧視中性別歧視問題的出現(xiàn)——“算法造成的性別歧視實質(zhì)上是現(xiàn)實世界長期存在的性別歧視觀念在虛擬世界中的延伸[5]?!?/p>

更有甚者,“消費歧視”的現(xiàn)象也在助長算法歧視。譬如,某大型公司需要引進一種算法模型,用于該公司人力資源部的招聘簡歷篩查工作,自然而然,他們可能會更傾向于購買那些能夠帶來更大資本收益的算法,所以間接助長了算法歧視問題的“壯大”?!跋M歧視”導致的算法歧視問題,隱含一個本質(zhì)的驅(qū)動因素——資本驅(qū)動。毫無疑問,資本的貪婪并不止于某個領(lǐng)域,而是蔓延至社會的各個領(lǐng)域,人工智能應用領(lǐng)域也不例外。一方面,它直接或間接地拉動了它的發(fā)展,但也助長一些算法歧視的問題出現(xiàn)。之前,根據(jù)澳洲的一個Facebook 的廣告客戶透露,他們的智能算法很容易抓取到用戶的生活狀況,包括你的情緒和壓力,以及你的財富狀況。正基于這些隱私數(shù)據(jù),各大廣告商得以向那些感到具有“巨大生活壓力的年輕人”推送智能游戲、虛擬社交和容易上癮的產(chǎn)品,從而達到獲取巨額回報的目的。

算法歧視是人類固有弱點的延伸,與人工智能的發(fā)展相伴相生,在數(shù)據(jù)隱藏的歧視、程序員潛在的價值歧視、資本驅(qū)動歧視、社會潛規(guī)則轉(zhuǎn)移的條件下,不可能完全避免算法歧視事件的發(fā)生。然而,人們也不可能置之不顧,而是要積極尋解應對策略,以消解其存在的危害,從而實現(xiàn)算法價值最優(yōu)之目的。

四、治理路徑:從“歧視”到“公正”

面對算法歧視的問題,社會各界給出了各種各樣的消解策略,可謂:“仁者見仁,智者見智”。但我們認為,最具爭議性的一種策略是“呼吁”用“算法透明”與“算法公開”的方法實現(xiàn)“算法公正”。在技術(shù)發(fā)展還未成熟之前,這種透明與公開的方式或許還會帶來更多的歧視問題。另當別論的是,這種方法并不一定能起到威懾作用,反而會給算法歧視打開方便之門,使得算法歧視所有者在公開算法之前,會做一個歧視性價值判斷,對于不涉及歧視的算法則公開,但對于涉及歧視的算法則隱藏。如此說來,呼吁之舉很難實際發(fā)揮約束作用。因此,需要具體進行規(guī)范性治理,仍需回歸到多元主體之中去探討。

首先,算法歧視受害者。算法歧視產(chǎn)生的危害,無論從哪個層面來講,最終都容易導致個人利益受損的問題。所以,要積極應對算法歧視的問題,就需要廣大受害者群體提高權(quán)利意識,積極反饋可能涉及的侵權(quán)經(jīng)歷。面對算法歧視,受害者的包容和沉默,將成為算法歧視制造者更加肆意妄為的資本。因此,建議廣大算法歧視受害者,應該加強學習關(guān)于算法歧視方面的知識。歧視不止于現(xiàn)實空間,還在進一步向虛擬空間中推展延伸。面對人工智能算法歧視的這種違規(guī)行為,應該堅決維護自身的合法權(quán)益,向有關(guān)的部門如政府、媒體和消費者權(quán)益保護機構(gòu)等反映具體的情況,做好“知情”“敢為”兩個方面的工作,讓算法歧視最大限度地從生活中受到限制。

其次,企業(yè)層面。從前面的案例來看,目前的算法歧視的“始作俑者”大多是企業(yè),原因在于企業(yè)所提供的智能服務已經(jīng)滲透人類社會生活的各個方面,在整個服務鏈條之中,企業(yè)屬于服務鏈條的最前端,最懂得用戶和消費者的現(xiàn)實需求,也是最容易掌握用戶最新消息的社會組織。從某種程度上來說,這就為企業(yè)從中賺取利潤開啟了“方便之門”。因此,企業(yè)在整個算法歧視治理鏈條之中,應該承擔最為重要的責任,并積極“采取內(nèi)部反算法歧視原則、措施,這是行業(yè)自我規(guī)制、自我監(jiān)管的反算法歧視的治理策略”。[6]從傳統(tǒng)的觀點來看,企業(yè)是為營利而誕生的社會服務機構(gòu),但很多企業(yè)在發(fā)展的過程中忘記了社會的人本價值屬性,純粹將商業(yè)利益擺在社會的最前端而不顧用戶的體驗和滿意度,這是一種極具反噬性的生存之道,很容易遭到消費者的口誅筆伐。事實證明,如今的社會正在淘汰那些不站在消費者和用戶的角度思考問題的企業(yè)。總的來說,企業(yè)在參與算法歧視的治理問題時,應該從三個方面盡到自己的責任:一是建立企業(yè)商品與服務的信息反饋渠道,一旦涉及算法歧視問題的服務,立即展開問題處理,給消費者一個滿意的答復;二是要從根本上關(guān)注算法歧視問題,杜絕帶有算法歧視的服務進入企業(yè)層面,并做好同行業(yè)的監(jiān)督職責,盡到企業(yè)的社會責任;三是開展企業(yè)層面關(guān)于歧視問題的監(jiān)督與宣傳教育,積極引導員工和管理者自律。尤其是企業(yè)自身在設(shè)計與研發(fā)相關(guān)算法時,應該“積極開發(fā)各種在不降低預測結(jié)果準確性的前提下減少人工智能偏見的工具”,[7]從企業(yè)自身的長遠發(fā)展維度進行技術(shù)治理,以期超越和擺脫潛在的算法歧視帶來的可能危害。

再次,媒體和政府層面。媒體是信息傳播的中介和載體,往往承載著相關(guān)的價值導向,媒體的職責就是通過自身的努力,讓社會受眾群體能夠得到最大程度的知情權(quán)。歷史地看,很多社會問題的解決,都是得益于媒體的力量。通過媒體,人人都可以成為社會活動的參與者,人人都可以成為社會公共決策的倡言者。從這個方面來說,媒體對于治理算法歧視問題具有重要的作用。媒體的演變形式很快,但總方向是朝著便民利民的角度發(fā)展的,如今正值智能媒體階段,各種信息爆炸的年代,各種新媒體從中擔當傳播和篩選信息的作用。首先,要擔當算法歧視知識普及的任務,盡最大的努力將這個潛在的智能危害性問題進行講解,讓人們明白算法歧視的概念和形式,以及它如何讓公眾受到歧視的作用原理;其次,要客觀公正地報道已經(jīng)存在的算法歧視的問題,讓公眾以最快的方式獲取到相關(guān)的信息,以便于大家做好相應的應對措施;最后,還需要揭露算法歧視的隱蔽性問題,對于那些“換一張面孔”出現(xiàn)手段干預算法歧視問題的責任主體,使其進行算法迭代以彌補原有的技術(shù)局限。未來的算法歧視治理,政府應該做好如下幾個方面的工作:一是建立健全算法歧視的責任機制,并設(shè)立專業(yè)的機構(gòu)或人員負責監(jiān)督和處理因算法歧視帶來的問題;二是政府應當加強對智能商品或服務的監(jiān)管,有關(guān)部門可以建立倫理審查制度,重申公平的價值理念,對智能產(chǎn)品的開發(fā)設(shè)立倫理紅線,同時可以建立動態(tài)監(jiān)測機制,對人工智能的應用實現(xiàn)跨平臺、全流程跟蹤監(jiān)管,針對屢次觸碰紅線、造成嚴重危害的企業(yè),可以將其納入黑名單中[8];三是加強算法歧視的制度性治理工作,出臺相關(guān)的治理制度,包括《算法透明和可問責制度》《算法歧視的獎懲機制》《智能商品與服務的算法倫理審查制度》等。

最后,算法建構(gòu)者的職業(yè)倫理。2016 年,《自然》雜志發(fā)表社論,用“偏見進,則偏見出(Bias In,Bias Out)”的描述方式,表達了對存在的算法歧視的看法[9]。廣義上說,偏見即是歧視,所以“偏見進,則偏見出”的說法對等于“歧視進,則歧視出”。從這個層面來說,算法歧視問題的產(chǎn)生,源于算法建構(gòu)者本身所帶來的歧視,他們沒有做好算法歧視“把關(guān)者”的角色,反倒成為“直接助推者”的角色。為此,要進行算法歧視的治理,需要重新建構(gòu)算法建構(gòu)者的職業(yè)倫理:一是明確算法歧視的責任主體要為該行為承擔相應的法律責任,主要是那些注入歧視因子或有義務卻未能及時排除歧視因子的主體。一方面,如果算法本身就包含歧視內(nèi)容,則算法編制者是責任主體;另一方面,數(shù)據(jù)的選取者、收集者、輸入者,在對數(shù)據(jù)進行選取、收集和輸入的過程中,如果故意有歧視性操作并造成算法歧視后果的,也應承擔法律責任。[10]二是要完善責任主體的追責制度。算法歧視的責任主體將是該問題的主要擔責人員,一旦出現(xiàn)算法歧視的社會危害性問題,需要進行算法溯源與責任溯源,所以要在算法中嵌入技術(shù)正當?shù)某绦颍訌娮詣踊瘺Q策系統(tǒng)中透明性、可責性以及被寫進代碼中的規(guī)則的準確性[11],讓算法建構(gòu)者明確地認識到“建構(gòu)具有歧視性的算法”意味著什么。三是加強對算法建構(gòu)者的職業(yè)倫理監(jiān)察。一方面,算法建構(gòu)者所接受的教育中,應該包括算法倫理道德的相關(guān)課程,并進行學分考核;另一方面,應該設(shè)立算法職業(yè)資格證,讓算法建構(gòu)者持證上崗,對于那些違背職業(yè)倫理道德而進行算法歧視活動的職業(yè)人員,應該嚴肅處理,對于那些情節(jié)嚴重的算法建構(gòu)者,給予吊銷職業(yè)資格證,并讓其承擔相應的法律責任。

猜你喜歡
人工智能
我校新增“人工智能”本科專業(yè)
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業(yè)
基于人工智能的電力系統(tǒng)自動化控制
人工智能,來了
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 男人天堂亚洲天堂| 国产在线观看精品| 五月丁香伊人啪啪手机免费观看| v天堂中文在线| 日韩精品无码免费专网站| 久久精品国产免费观看频道| 欧美一级高清视频在线播放| 婷婷六月色| 亚洲天堂高清| 97在线观看视频免费| 国产精品嫩草影院视频| 538精品在线观看| 亚洲天堂日韩在线| 亚洲乱码视频| 国产不卡一级毛片视频| 一本久道热中字伊人| 久久久久国产精品熟女影院| www.99精品视频在线播放| 欧美一区二区三区不卡免费| 成人av手机在线观看| 亚洲大学生视频在线播放| 亚洲视频免| 日本手机在线视频| 在线免费a视频| 国产成人夜色91| 国产精品福利导航| 国产一区二区精品高清在线观看| 亚洲无码精品在线播放| 国产精品视频白浆免费视频| 欧洲成人免费视频| 精品小视频在线观看| 粉嫩国产白浆在线观看| 国产日韩精品欧美一区喷| 3344在线观看无码| 久久久91人妻无码精品蜜桃HD| 蜜桃臀无码内射一区二区三区 | 久久 午夜福利 张柏芝| 网友自拍视频精品区| 亚洲动漫h| 色婷婷色丁香| 最新日本中文字幕| 国产99热| 欧美人与性动交a欧美精品| 狠狠干欧美| 18禁影院亚洲专区| 毛片久久网站小视频| aa级毛片毛片免费观看久| 中文字幕有乳无码| 久久夜色撩人精品国产| 成人午夜天| 超清无码熟妇人妻AV在线绿巨人 | 青青青国产精品国产精品美女| 伊人久久大香线蕉影院| 久久a级片| 国产人前露出系列视频| 日韩成人在线一区二区| 欧美精品v日韩精品v国产精品| 99久视频| www亚洲天堂| 性69交片免费看| 91蝌蚪视频在线观看| 色综合中文| 国产精品专区第一页在线观看| 99热这里只有精品在线观看| 国产日韩欧美成人| 国产精品国产主播在线观看| 欧美精品不卡| 最新日本中文字幕| 久久人妻xunleige无码| 色AV色 综合网站| 宅男噜噜噜66国产在线观看| 亚洲国模精品一区| 欧美在线观看不卡| 国产午夜精品鲁丝片| 中文国产成人精品久久| 动漫精品中文字幕无码| 免费99精品国产自在现线| 日韩国产亚洲一区二区在线观看| 日韩国产精品无码一区二区三区| 国产女人综合久久精品视| 91精品国产麻豆国产自产在线| 天堂久久久久久中文字幕|