繪知堂科普館



人工智能作為一個交叉學科,和計算機、數學(統計學、優化方法、圖論等)、電子技術,以及腦科學等都有密不可分的關系,每個分支學科所遇到的問題也都會在人工智能的發展中出現。
2017年底,一個叫Deep-Fake圖像合成技術落地了,它可以在視頻中做人體圖像合成。
簡單來說,人們可以像使用Photoshop修圖軟件改動圖像一樣,用深度學習技術(一個人工智能算法分支)來改動視頻了。
人們曾經對圖像處理一無所知的時候,還秉持著“耳聽為虛眼見為實”的邏輯,看到照片就會對它記錄的信息深信不疑。
后來人們認識了Photoshop這個軟件,以及某些操作更為簡便的人像美化軟件,改動圖像成為了人人都能輕易做到的事情,以至于很少會有人再輕信通過改動圖片扭曲的事實了。
相對靜態圖像而言,視頻則是長篇的圖像組合。由于技術局限,一幀一幀改動成本太高,因此人們普遍將視頻所記錄的信息認定為事件真相。
這項視頻人體圖像合成技術的出現,又ー次打破了人們的常規觀念。居心叵測的人可能會利用這項技術捏造犯罪錄像,或者杜撰他人的言論來進行誹謗。
仍然相信視頻無法纂改的人們很容易被改過的視頻蠱惑,而造成信謠傳謠的惡劣局面。如果你在見到此類消息時保持清醒的頭腦,仔細甄別消息來源,就不會輕易被迷惑。
科學家一直努力對圖像合成技術進行改進,將“以假亂真”作為頂尖技術水平的標準,但是這也為一些邪惡的想法提供了溫床,違法者甚至不惜傷害他人的感受,在道德和法律的邊緣不斷試探。
除此之外還有“算法歧視”的問題。比如,美國某知名電商公司曾開發了簡歷評分系統,本意是為了提高篩選應聘者的效率,但因為過往的簡歷案例中女性應聘者比例低而造成了“算法歧視”。
人工智能對樣本進行分析后,誤將應聘者的性別和評分掛上了鉤,以致在給新的應聘者評分時,系統傾向于給女性打低分。
我們也可以將它理解為一種“過擬合”:如果我們堅持男女就業機會完全平等的原則,相關變量只與成績、能力、經驗等有關,性別可以被視為無關的變量。
而機器學習到了這個無關變量引起的変化(性別岐視者認為女性能力差,男性能力強),就會對新的情景做出不準確的預測和分析。
又比如在新冠肺炎疫情蔓延全球期間,美國某知名互聯網公司推出的款計算機視覺服務在識別人手持測溫槍的圖像時,被曝出了有種族歧視的傾向。
當圖像中的手膚色較淺時,系統更傾向于將圖中的物品歸類為“單目望遠鏡”,而當手膚色較深時,系統則更容易將物品歸類為“槍支”。
這種嚴重帶有主觀色彩的判斷,就來自于訓練采集數據的不全面和不平衡。消息一經披露,此公司高管只得出面道歉,并修改了算法予以糾正。
還有更荒唐的例子:一些科學家設計了一種面部特征與曾否犯罪的預測模型,簡而言之,就是“看臉抓賊”。這個課題概念很荒唐,準確率很低,并且充滿了“外貌歧視”。
因此,就像化學家絕對不可以制造毒品一樣,未來的人工智能小專家們,也要讓這項技術在正確的方向上發揮更大的作用哦!
(選自中國石化出版社“我的科普漫畫書”系列《你好!機器人——智能算法中的數學奧秘》)