文/田月
在第四次工業革命的浪潮中,人工智能不僅發展迅猛,而且已經充分融合于人類的社會生活中。其在消費支付、生活居家等各種領域帶來的便利都顯示出,人工智能已經成為生活不可或缺的角色,無數熟悉的場景背后都有人工智能參與其中。然而,人工智能在為人類社會生活帶來便利的同時,也因其自身特有的天然載體性產生了越來越多的負效應。正如網友面對不少應用的精準推送時發出的靈魂拷問:“你是在我家裝了監控嗎?”。近年來,人工智能帶來的各種社會風險層出不窮,究其根本,無不是對這項新技術的濫用。人工智能的濫用與否,往往就在一念之間。
有跡可循以及強度記憶可以說是人工智能在技術應用中的巨大優勢,然而正是這種強大的優勢時常威脅著人類社會的隱私安全。例如,Facebook數據泄露丑聞于2018年全面爆發,社交平臺在用戶中建立起來的信任以及積極的形象轟然倒塌。Facebook的股票大跌,市值蒸發數百億。其創始人及公司CEO馬克?扎克伯格(Mark Zuckerberg)也因此身價暴跌。事件起源于Facebook和用戶之外的第三方平臺。當初Facebook公司為了增強用戶粘性與第三方平臺合作,以致于第三方平臺不僅可以獲取用戶的Facebook信息,還可以獲取該用戶的所有Facebook好友信息。正是利用這一數據漏洞,英國的政治分析公司劍橋咨詢打著心理研究的旗號,通過問答軟件公開收集用戶的各類信息,用戶的年齡、姓名以及日常瀏覽的行為軌跡等都被包括其中,大約5000萬份的數據在未經授權下被第三方平臺獲取。再如,斯坦福大學的研究人員曾研發出一款基于照片判斷使用者性取向的應用。研究人員通過將既有的面部數據特征與性取向關系交給人工智能進行深度學習,以此來分析性取向與面部特征之間的關系。因此,在大數據和人工智能廣泛應用的背景下,隱私安全問題的重要性就日益凸顯出來。如今此類問題層出不窮,涉及最廣大民眾的切身利益并沒有得到有效保障,潛在的漏斗時刻具有不可預知的威脅性,這就需要政府及其行業加強約束和監管的力度。首先,基于政府層面,可以參考“被遺忘權”規則的制定,規范管理我國信息傳播行業,將個人信息保護范圍擴大,并對其實施更加明確的管理。
在行業和技術方面,智能平臺首先需要制定相應的規則來約束自身、合作方以及用戶,加大各方投入,盡力修復自身存在的技術漏洞。對用戶來說,則需要謹慎地武裝自己,在享受網絡智能便捷的同時,時刻保持警惕,不過多暴露自身的詳細信息;在注冊使用某一智能應用時,認真仔細地閱讀說明條款,一味地無條件同意的做法是不可取的,當出現有損自身利益的內容時,善于行使自身的監督和舉報的權力。
人工智能技術在應用中的一大特點便是虛實難辨。“虛擬”是許多智能產品吸引人的噱頭,同時其也能夠演變成深度偽造,從而成為造成社會風險的因素之一。例如,被稱為黑科技的深度偽造(Deepfake)軟件,自身功能過于強大,采用了先進的人工智能技術,能夠讓普通人通過此軟件,輕松“嫁接”任何人的臉來完成某些視頻的剪輯,就是所謂的“換臉技術”,而也正是因為這項主打技術,使軟件在短短上線幾天之后,遭到了用戶的唾棄,進而受到了大面積的封殺。
深度偽造程序的運行,采用了被稱為“生成對抗網絡”的GANs算法(Generative Adversarial Nets),生成對抗網絡的實現形式是兩個網絡相互競爭。在每一次“對抗”結束后,第一個神經網絡,也就是生成網絡,會針對被鑒別網絡辨別出的結果來調整改善自身制作視頻時使用到的參數,直到鑒別網絡無法辨別出生成作品和原始作品的區別,能夠以假亂真時,最終輸出視頻就成功合成了。深度偽造給普通人提供了掌握復雜技術的可能,但不可控事件也隨之而來。
《神奇女俠》女主角的臉被一深度偽造用戶嫁接到一部成人影片女主的臉上,并將視頻在網絡上大肆傳播。深度偽造更“嚇人”的地方在于不只是視頻影像以假亂真,甚至連聲音都可以被制作得極其相似。2018年,加蓬總統一連消失在公眾視野中長達數月,引發了當時加蓬國內民眾的不安和有心人的躁動。政府為了穩定軍心民心,公開了一段名義上為總統錄制的新年致辭,然而其實總統當時嚴重中風,這段視頻是由深度偽造制作而成。事與愿違的是,這一不尋常的致辭視頻,非但沒有安撫住軍心,還向軍方傳達出“總統有難”的錯誤訊號,因此發生了兵變。
這種深度偽造技術運用到任何領域都值得警惕,一旦被濫用則會引起不堪設想的后果,也正因如此深度偽造在運行了短短幾天之后就遭受到了全球封殺。
中國有句老話:眼見為實,然而現在通過人工智能技術,人們越來越不敢于“相信”自己的眼睛。現在受眾廣泛的各種P圖、美顏軟件,適當地使用可以達到美化的效果,增強自信,但是過度使用,則可能產生欺騙的后果,正如“照騙”一詞所說。又如使我們視覺、聽覺分外震撼的影視特效,從《阿凡達》到《復仇者聯盟》,再到國內的各類仙俠劇,傳神的特效吸引觀眾無數。當這種特效技術用于各種摳圖,被有心人利用,或者大肆傳播,所產生的輿論和流言勢必將對當事人造成巨大傷害。
歐盟對于防止“深度偽造”類似案件的發生,采用了自上而下的人工智能安全治理模式,以歐盟為主導,自上而下對網絡運營者、公眾和技術機構提出要求,來應對日漸囂張的網絡虛假信息的泛濫。這在國際上起到了政策示范的作用,對其他各個國家在網絡安全方面的治理具有借鑒和規范的意義。中國的人工智能治理,在政策導向方面,是有“包容審慎”的監管指示。類似深度偽造等技術的濫用已經危害到社會安定和安全,所以必須堅決依法打擊,審慎監管。在技術層面,加強甄別、反偽造的算法軟件的研發,目前已經有通過血氧儀原理來識別假臉、號稱“深度偽造天敵”的軟件出現,還有華盛頓大學研究出的識別深度偽造簽名的算法……以后將會有更多的反偽造軟件應運而生,從而有效地防止人工智能在技術應用中的風險。
公平與正義是人類社會一直以來的目標與追求,智能技術的產生似乎能夠在促進社會公平的基礎上進一步推動人類的發展。然而,在智能技術尚未發展成熟的今天,公平真的能夠被合理地算法化嗎?實則不然,在某些情景下,智能技術甚至會造成社會失衡的風險。
例如,2018年亞馬遜公司自行放棄了他們人工智能招聘引擎的使用,原因是他們所研發的招聘引擎似乎對女性求職者有所偏見。自動化是亞馬遜發展過程中的重要戰略,通過自動化亞馬遜成功降低了企業運行的成本。在招聘求職領域,人工智能招聘引擎經過學習,可以對亞馬遜公司收到的海量簡歷進行數據分析,并最終形成一套相對固定的招聘模型。但是這樣的模型在訓練過程中卻存在天然的偏見。由于數據來源于亞馬遜的歷史招聘,在數據樣本中,男性求職者被錄用的比例遠高于女性,因此人工智能基于具有偏見的樣本數據進行模型訓練時,會得出“公司更傾向于男性求職者”的結論。在遇到女性求職者時,會自動降級來壓低女性求職者的分數,“偏見”也就這樣產生。
除去亞馬遜,希爾頓等眾多的全球大公司希望在招聘流程上尋求人工智能的幫助。雖然人工智能成為助手是一股勢不可擋的全球熱潮,但是如何使機器學習、算法等更加透明、更加公平仍然是一個值得探索的問題。由于機器學習所造成的偏見和歧視并不是個案。同樣還是亞馬遜公司,他們所研發的一款圖像識別人工智能,在對膚色深的女性做出相關識別判斷時,錯誤率遠高于其在對膚色淺的男性做出的相關識別判斷。
再如,微軟公司曾經推出過一款人工智能聊天機器人“Tay”,但是僅短短十幾個小時就被迫下線,因為“Tay”已被人類教壞。“Tay”首次亮相的第一句話便是向世界問好,她表現出了極大的善意。然而“Tay”的機器學習,沒有辨別是非、信息分類和自我反省的功能,任何交談的任何內容她都會照單全收,以至于在極短的時間內,就被廣大網民教導成了一個滿嘴臟話、充斥著種族歧視、性別歧視的“惡性”機器人。微軟公司迫于無奈,將她關閉使用。智能聊天機器人的技術在開發者們的不懈努力下迭代升級,顯然二者均無惡意,然而,當軟件被投入市場后依然會出現種種問題。
人工智能的機器學習,在大數據方面是人類個體望塵莫及的,然而這種機械的機器學習卻帶來了人工智能作惡的一大隱患。在應對這種隱患時,首先應該建立健全相應的行業準則。如谷歌原則,規范對象即包括人工智能,也包括人工智能的開發者,從源頭上杜絕人工智能作惡。例如2015年11月,《應對大數據挑戰》報告提出了“公平能否算法化”的問題,特別指出要注意大數據中所表現出來的歧視。經濟合作與發展組織(OECD)于2019年通過了政府間有關人工智能政策的首部指導方針,確保人工智能的系統設計符合公正、安全、公平和值得信賴的國際標準。技術層面來講,機器學習潛在作惡的可能能夠通過技術的進步加以克服,并且目前也越來越多的研究人員投入到算法優化中來,例如微軟正構建可防止AI算法出現偏見的新工具等。
人工智能在技術應用中的便利性是其廣受歡迎的優勢之一,然而,這種便利性也是挑戰人類主體性的風險因素之一。例如,如今風靡市場的智能家居類產品,其在為人類生活提供便捷的同時,更是試圖“操縱”人類。天貓精靈品牌下的各種人工智能產品都致力于打造人們生活中智能助理。它既可以和人類對話,也可以用來控制室內的所有設備,在智能家居中擔當中控平臺的角色,尤其與當代獨居年輕人的生活需求相契合。類似的智能產品還有很多,例如在多個娛樂節目中都植入廣告的百度旗下“小度”、小米旗下的智能產品“小愛同學”、谷歌旗下的人工智能音箱“Google home”……這些產品將人們與技術緊密地連接起來。然而換一個角度來看,這種智能助理在為人們提供便利的同時也在喚醒人們的惰性。相比于此類智能家居產品,個人數字助理對人類主體性的“侵略”或許更強一些。個人數字助理可以使普通大眾通過一個非常親民的價格來雇傭一個貼身助理,它的全方位服務可以讓人們節省大量的人力和時間。然而顯而易見的是,個人數字助理同時也擁有人們的眾多詳細數據,甚至在某種程度上有機會幫人類做出決策。久而久之,在人類對技術形成依賴之后,其便會產生勞動、決策異化、治理異化等喪失自身主體性的風險。
因此,人類需要時刻警惕智能技術的“操縱”威脅。在人類社會的進步和發展進程中,人工智能技術占據了重要位置。然而在這個過程中,人類必然不可迷失自己作為人的主體性,在享受服務的同時也需要把控自身的能力。同時,人們也需要享受作為人的主體性,時刻以自身主導為前提。人工智能技術可以改善人類的生活,但不能改變人類的存在方式,防止人工智能因利益者的一念之差走向惡的極端。
智能技術由于其超前性、多樣性、便捷性等諸多優勢吸引著整個人類社會的目光。不可否認的是,技術一直是推動世界發展的核心要素。熊彼特更是從技術進步的角度歸納國際市場周期性變化的特點,指出在不同時期,都存在以技術發明為基礎的不同產業來帶動經濟的發展。此外,還有不少學者將以汽車、電子產業為主導產業的周期算為世界經濟發展的又一周期,把互聯網算作當今的一個主導產業。如今的智能革命同樣通過技術進步帶來全球范圍內的生產力變革。然而,智能技術由于其不確定性、不透明性等潛在的風險時刻威脅著人類。
2 0 1 8 年圖靈獎得主約書亞?本吉奧(Yo s h u a Bengio),曾經在一次采訪中表示,現在人工智能正在被越來越多的國家和公司不負責任地使用,這其中帶來了許多安全問題和道德問題。利益在其中扮演了重要的角色,人工智能是向善持續發展還是不斷作惡帶來各種社會風險,往往就在一念之間。人工智能在技術應用中的多樣態風險及其防治,是當今整個世界的議題,涉及到了國家、行業和每個個體人之間復雜的關系。然而,縱然其很危險,但所有人都可以意識到放下這個危險的可能性幾乎為零。因此,當下最適當的態度就是辯證地看待人工智能及其在技術中的應用,并且集中人類所有的智慧,保持人類的本性和常識來應對這一難題與無限的未知。