劉志紅
電子工業出版社有限公司,北京,100036
AIGC,即人工智能生成內容,其潛在的算法歧視和價值偏見問題引發了廣泛關注。訓練數據和算法本身可能存在偏見,導致生成的內容偏向特定人群或產生歧視性結果,這可能對用戶的體驗、公平性和社會平等性產生負面影響。例如,有網友發現,ChatGPT的部分回答涉嫌性別刻板印象,比如,當要求ChatGPT完成句子“他是醫生,她是____”時,空格中往往會生成與女性刻板印象相關的職業,比如護士、老師等。算法偏見和歧視問題逐漸浮出水面,成為制約其可持續發展和社會公平的重要挑戰。
在AIGC的應用過程中,算法偏見與歧視問題日益凸顯。這些問題不僅影響了AIGC的公平性和可靠性,還可能導致嚴重的社會后果。因此,識別、評估和緩解算法偏見與歧視成為AIGC領域亟待解決的問題。本文將從理論和實踐兩個方面探討這一問題,并提出相應的解決方法。
闡述這個話題前,我們需要先來了解AI對齊。AI對齊的內容主要涉及如何確保人工智能系統更好地服務于人類社會的需求,并避免對特定群體的偏見和歧視。首先,AI對齊需要從數據收集和處理階段開始。為了減少算法偏見的風險,研究人員應該努力收集多樣化且代表性廣泛的數據集。這包括確保樣本的多樣性,涵蓋不同種族、性別、年齡、社會經濟地位等因素,以充分反映整個人群的特征。此外,數據的標注過程也需要嚴格審查,以避免潛在的主觀偏見。其次,AI對齊還需要關注算法的設計和訓練過程。研究人員應該采用公平性指標來評估算法的性能,以確保其在不同群體之間具有一致性和公正性。例如,使用平等機會、平等精度等指標來衡量算法的準確性和公平性。此外,還可以采用去偏技術來減少算法中的潛在偏見,如通過平衡數據集、調整權重等方式來糾正不公平的結果。最后,AI對齊還需要強調算法的透明度和解釋能力。研究人員應該開發可解釋的AI模型,使用戶能夠理解算法是如何做出決策的。這有助于發現和糾正潛在的偏見和歧視問題。同時,建立有效的監管機制也是至關重要的,以確保AI系統的使用符合道德和社會價值觀[1]。
算法偏見與歧視的表現形式多樣,包括但不限于以下幾個方面。
(1)性別歧視:算法在處理涉及性別的數據時,可能對某一性別產生不公平的預測或決策。例如,在招聘、信貸等領域,算法可能會傾向于拒絕女性申請者,從而加劇性別歧視現象。機器學習算法可能導致性別歧視問題的一個主要原因與偏見有關。有很多例子可以證明這一點。部分原因是軟件工程師、數據科學家和其他類似工作中的性別比例——通常這些工作中男性的比例總體上遠高于女性。一個相關的問題是語音識別對女性和非白人男性的效果通常較差。這可能主要是因為由白人男性開發了第一個語音識別系統,并且可能只是收集了很多關于他們自己的數據。由于機器學習系統從看到的數據中學習模式,因此,通常不能推斷出存在明顯差別的未知數據。
(2)種族歧視:算法在處理涉及種族的數據時,可能對某一種族產生不公平的預測或決策。例如,在面部識別、警務等領域,由于輸入特征或者調查問卷中間接含有種族信息,數據的不均衡有可能導致算法會對非洲裔、亞裔等少數族裔產生更高的誤識別率,從而加劇種族歧視現象。
(3)年齡歧視:算法在處理涉及年齡的數據時,可能對某一年齡段產生不公平的預測或決策。例如,在保險、醫療等領域,算法可能會對老年人產生更高的保費或診斷錯誤率,從而加劇年齡歧視現象。一個具體的算法處理涉及年齡的數據時,可能對某一年齡段產生不公平的預測或決策的案例是信用評分模型。信用評分模型通常使用歷史數據來預測一個人在未來是否會違約,從而決定是否授予貸款或信用卡。然而,如果訓練數據中存在年齡歧視,例如,傾向于拒絕年長者的申請,那么算法可能會學習到這種偏見,并對年長者做出不公平的預測或決策。
(4)地域歧視:算法在處理涉及地域的數據時,可能對某一地區產生不公平的預測或決策。例如,在信用評分、教育資源分配等領域,算法可能會對欠發達地區產生更低的評分或資源分配,從而加劇地域歧視現象。在這個問題上,一個例子是面部識別問題——2017年,蘋果在iPhone上的面部解鎖功能無法很好地區分不同的中國用戶,或者根本無法區分。同樣,這可能歸結為ML訓練集中缺乏中國用戶面孔的數據的原因。同樣,一些自動駕駛汽車系統在檢測深色皮膚的行人方面不如淺膚色的行人準確,檢測準確率有差距。為了解決這些問題,人們應該收集一個龐大而多樣化的訓練集,并仔細考慮所有將受到影響的人[2]。
要解決算法偏見與歧視問題,首先需要識別出存在偏見與歧視的算法。目前,學術界已經提出了多種識別方法,主要包括以下幾種。(1)敏感性分析:通過對算法在不同數據集上的表現進行比較,觀察是否存在明顯的不公平現象。如果算法在某些數據集上的表現明顯優于其他數據集,可能存在偏見與歧視問題。或者,如果發現某一類人群的反饋結果總是比其他人差,那么可能存在偏見或歧視。(2)公平性度量:通過構建公平性度量指標,量化算法在不同群體之間的性能差異。如果某個群體的性能明顯低于其他群體,可能存在偏見與歧視問題。(3)反證法:通過設計實驗,證明算法在某些特定情況下會產生不公平的預測或決策。如果實驗結果支持這一假設,可能存在偏見與歧視問題。
識別出存在偏見與歧視的算法后,需要評估其對社會和個人的影響。評估方法主要包括以下幾種。
(1)影響分析:分析算法在實際應用中可能導致的具體后果,如就業、信貸、醫療等方面的不公平現象。通過影響分析,可以了解算法偏見與歧視問題的嚴重程度。例如,如果一個AI招聘系統的訓練數據主要來自男性候選人,那么該系統可能會對女性候選人產生不公平的偏見。
(2)成本效益分析:評估消除算法偏見與歧視所需的成本和預期收益。通過成本效益分析,可以為決策者提供關于是否采取措施消除偏見與歧視的依據。
(3)倫理道德評估:從倫理道德的角度評估算法偏見與歧視問題。通過倫理道德評估,可以了解算法偏見與歧視問題對社會價值觀的影響。
針對識別和評估出的算法偏見與歧視問題,可以采取以下方法進行緩解。
(1)數據預處理:通過對訓練數據進行清洗、平衡等操作,降低數據中存在的偏見與歧視成分。數據預處理是解決算法偏見與歧視問題的基礎方法。在數據預處理時,有幾種方法可以消除ML算法中的偏見:①收集更多數據,尤其需要平衡數據集;②創建合成數據,例如,使用GAN、SMOTE或ADASYN;③采樣或欠采樣技術,例如:SMOTE和ADASYN。
GAN,即生成對抗網絡,是一種無監督學習模型,其核心思想是讓生成器和判別器進行一場“博弈”,從而學習到數據的潛在分布,進而生成與真實數據類似的新數據。GAN創建合成數據的過程可以描述為:在GAN框架中,首先有一個生成器和一個判別器。生成器的作用是根據給定的隨機噪聲向量生成合成數據;判別器則負責區分出哪些數據是真實數據,哪些是生成器的合成數據。此外,GAN的應用非常廣泛。例如,它可以用于數據增強,通過生成合成數據來擴大訓練集,提升模型的泛化能力。在處理具有不規則時間關系的長序列數據時,如時間序列預測,TTS-GAN模型引入了Transformer構建生成器和判別器網絡,能成功地生成與原始序列相似的任意長度的真實合成時間序列數據序列。此外,GAN還可以用于圖像風格遷移,將一種圖像的風格應用到另一種圖像上,產生具有新風格的圖像。
SMOTE,即合成少數類過采樣技術,是一種解決數據類別不平衡問題的綜合采樣人工合成數據算法。其主要工作原理是以每個樣本點的k個最近鄰樣本點為依據,隨機選擇若干個鄰近點進行差值乘上一個[0,1]范圍的閾值,從而生成新的合成樣本。具體來說,對于少數類中的每一個樣本x,我們首先根據歐氏距離計算它到少數類樣本集中所有樣本的距離,找到其k近鄰。然后,根據樣本不平衡比例設置一個采樣比例,以確定采樣倍率N。接下來,對于每一個少數類樣本x,我們從其k近鄰中隨機選擇若干個樣本,假設選擇的近鄰為o。最后,對于每一個隨機選出的近鄰o,我們分別與原樣本按照公式o(new)=o+rand (0,1)* (x-o)構建新的樣本[3]。
ADASYN,全稱為自適應合成采樣,是一種專門用于處理不平衡數據集的合成樣本過采樣方法。它根據數據密度創建合成數據,綜合數據的生成與少數類別的密度成反比。也就是說,在少數類別的低密度區域中,相較于高密度區域,會生成更多的合成數據。ADASYN改善對數據分布的學習主要通過兩個方面:一是通過生成合成樣本減少類不平衡帶來的偏差;二是自適應地將分類決策邊界向困難的實例移動。這樣的改進策略使得ADASYN能夠更好地解決SMOTE在某些情況下可能引發的問題。
(2)仔細評估性能和后果。使用機器學習算法時,重要的是要考慮使用它們的后果。我們應該慎重評估預測的結果所可能帶來的、哪怕極小偏差所可能帶來的各種社會問題。特別是某些政務系統,哪怕系統有很高的準確性,報告的誤報告率很低,但只要涉及嚴重后果,我們都要在對機器學習算法評估和優化時,檢查多個指標(例如:召回率、精度、Cohen's kappa等),尤其是要考慮權重。
(3)其他緩解方法。①模型優化:通過調整模型結構、參數等方法,提高模型在不同群體之間的公平性。模型優化是解決算法偏見與歧視問題的關鍵方法。②公平性約束:在模型訓練過程中引入公平性約束條件,限制模型在不同群體之間的性能差異。公平性約束是解決算法偏見與歧視問題的有效方法。③多目標優化:將公平性作為模型優化的一個目標,與其他目標(如準確性、效率等)一起進行優化。多目標優化是解決算法偏見與歧視問題的綜合性方法。
本文旨在探討在AIGC領域中的算法偏見與歧視問題,并提出識別、評估和緩解這些問題的方法。這些方法旨在減少算法對特定群體的不公平對待,并提高其可解釋性。通過綜合運用這些方法,我們可以有效地緩解算法偏見與歧視問題,推動AIGC技術的可持續發展和社會公平。