王湘蓉 鄧曉婷
熟悉的微信鈴聲響起,當手機另一端的“親友”,一臉焦急地向我們提出金錢需求時,你會選擇相信還是質疑?近日,全國多起AI詐騙利用相關人工智能技術進行換聲、換臉,引起社會高度關注。再試想,若某一天我們逝去的親人通過AI“復活”,人類社會所建構的倫理次序將如何應對?當“AI奶奶”和父母意見相左,幼小的孩童又該如何選擇,我們對生命、對死亡的認知是否行將顛覆……
在與中國科學院自動化研究所類腦智能實驗室副主任、人工智能倫理與治理研究中心主任曾毅研究員的交談中,他對當下的科技倫理問題深表擔憂:“人工智能的發展不能沒有韁繩。科學不能被資本牽著鼻子走。”遼遠的宇宙間,我們始終要珍視人類文明曾生發、建構的理智與情感,也要時時刻刻警惕,別讓科技放大我們的傲慢與偏見。
人工智能從來不是中立的
《教育家》:在人工智能不斷發展的當下,也暴露出很多科技倫理問題。科技求真與人文求善之間是否存在某種沖突?有人認為人工智能技術是中立的,取決于使用者怎么用它,您如何看待這種觀點?
曾毅:2018年起,中國科學院大學開設了《人工智能哲學與倫理》課程,這門課程有80%的學生來自信息科學、計算機人工智能、電子信息、集成電路等工科專業,20%的學生來自人文社科專業。
在授課過程中我們發現,具有人文學科背景和理工科背景的學生,在面對相關問題時,沖突是明顯的。前者把人工智能作為一種推進社會發展、輔助社會治理的工具,通常會將其和人生的切要問題結合起來思考;后者則普遍認為,科學技術要發展,就應該在可能性的邊緣無限試探,他們常常有一個疑問:技術能做到的事情為什么不去做?
但我們必須清楚,人工智能從來不是中立的,它發展的基礎是數據、算法,人類社會產生的數據隱含了社會的偏見,人工智能會將這種偏見放大,甚至使用這種偏見去輸出價值觀念,以此分析、解決問題。我們無法確定,人工智能將從社會中收集什么樣的數據。我們從小就被教育應該有道德,應該樹立公平意識,全社會都知道這些規則,但實際上我們做出的很多選擇、決定都帶有偏見和歧視。
比如現在大熱的ChatGPT,它是一個生成式的人工智能模型,假如你問它中國最好的10所大學是哪10所?ChatGPT會給出一個絕大多數人認為好的答案,這個回答比較絕對,具有統計顯著性,顯著性背后所隱含的就是偏見。人工智能是一個看似智能的信息處理工具,它不是一個真正能理解世界的責任道德主體。我們不能只是讓科研工作者和工程師去左右人工智能的發展,這非常危險。
我認為人類和人工智能應該和諧共生,并通過技術彌合鴻溝、消除誤解、擴大共識。因此,2021年,我參與起草和修訂聯合國教科文組織的《人工智能倫理問題建議書》時,寫下了一個概念“live in harmony”和諧共生,后來,經過193名成員國代表磋商,達成了“live in peacefully”和平共生的共識。和平就是不要掐架,是一種底線,遠不及“和諧共生”當中含有的和而不同、優化發展的意義。
科學不能被資本俘獲
《教育家》:一旦有新的人工智能概念或產品問世,就會火速成為社會熱點。對于人工智能,我們發現當下大家的認知多來源于碎片化閱讀,您認為我們應該如何正確理解人工智能?
曾毅:我覺得現在社會有一種很可怕的現象,就是科學被資本牽著鼻子走,若是科研工作者不以科學的態度講話,各種概念的定義會變得極其混亂。從科學的角度來看,近年來“數字孿生”“元宇宙”等概念,非常不嚴謹。我們很難從一篇微信文章中獲得真正的科學知識,我經常在一天之內看到諸如:《人工智能又有重大突破》《人工智能又有革命性顛覆》等吸引眼球的標題,科學研究怎么可能一天突破好幾次?
我們不能讓科學甚或教育被資本俘獲。現在的家長特別焦慮,總是在想人工智能時代,孩子應該學點什么,以后要做什么?我非常反對一個觀點叫作“讓人工智能無處不在”,我很贊同《城里——關于城市夢想的敘述》一書中談到的內容,作者舒可文老師說城市一半是野生,一半是規劃。在社會還沒有城市的時候,人與人的交流和協作都是衍生出來的。如果人工智能什么都能代替,我們的社會將變得機械化。那樣的社會是我們想要的嗎?所以我們一定要留著野生的部分,給人類更多自主的發展空間。
現在很多人不管有無必要,都認為要用人工智能去替代人類。前段時間有人找到我,希望能夠通過人工智能技術,為逝世的人打造虛擬形象,做電子家族。這個項目從技術上來講完全可以實現,但我絕不能做。試想:如果有一天家長帶著孩子來看他的“AI奶奶”,孩子來了和奶奶說,您跟我爸說多給我點零花錢,平時少罵我行不行?奶奶把他爸爸叫來了,告訴他孩子的想法,爸爸是聽還是不聽?到時候家長會和孩子說,這不是真的奶奶,她說話不算數……這之中就會產生特別多的倫理問題。我們甚至會對虛擬人產生依賴,很容易將這種相處模式發展成戒不掉的癮。所以要適度使用人工智能,要確保人類的正常發展。
《教育家》:有些觀點認為要給人工智能留有一定的發展空間,您如何看待?我們應該如何應對人工智能帶來的潛在風險?
曾毅:我覺得人工智能對于下一代,包括這一代的家長,都產生了一定的負面影響,很大一個原因是人工智能的發展沒有韁繩。《人類簡史》作者尤瓦爾·赫拉利曾說,人工智能根本不需要意識,不需要真正理解人類社會,只要發現人類社會的漏洞、弱點并加以利用,就可以摧毀人類社會,而人類可能還不自知。
潛在風險變成實存風險也許只需要一兩個月的時間,但我們制定相關的倫理規范、規章制度,從征求意見到正式施行再到生效,則需要更長的時間。所以為何要提前籌劃,是為了能夠在實存風險來臨時有效應對。所謂留有發展空間,是給紅線留還是給灰線留?給灰線留可以,灰線指可以有討論余地,目前還沒有給人類帶來威脅的部分;但紅線堅決不能踏,比如生物特征、人臉信息等一旦丟失,終身都有風險。
人工智能的發展給人類帶來的生存風險目前是無解的。2018年,馬斯克聯合劍橋大學對通用人工智能進行了立項研究,從不同途徑預測了人工智能的潛在風險,證明了在現有的馮·諾依曼體系結構下,人工智能的發展是不可控的,除非顛覆該體系結構,沿著新的計算體系結構發展人工智能。但風險什么時候到來?有可能是5—10年以后,也有可能是100年以后,還有可能是明天、現在。就算我們從現在開始準備應對方案,待風險真正來臨時不見得能準備好。
人工智能不是為了代替人,“成為”人
《教育家》:基于目前人工智能的發展,以及社會對人工智能的整體認知,您認為我們要如何更好地開展科技倫理教育,在教育各個階段,孩子們應該學什么?
曾毅:國內外都有專門寫給幼兒園小朋友的人工智能教材,我覺得這種超前教育沒有必要。幼兒園的孩子還處在接受知識的階段,他們辯證思考的能力相對較弱。而目前人工智能正處于發展階段,還未形成成熟的知識體系。現在只有一些相對模糊的定義,但定義不是知識,原來言之鑿鑿的東西,10年以后可能無人問津。
因此,我非常反對人工智能相關課程直接進入中小學。因為目前在人工智能的知識傳遞中,人們常常不加以區分科學和技術,只是籠統地灌輸給學生。但技術層面的變化更新是非常快的,恰恰是最容易被代替的部分。在教育過程中,我們要把科學和技術分開來看,屬于科學的部分要前置到基礎教育,屬于技術的部分放到大學去加強。
所以,我認為在基礎教育階段,可以讓學生學習心理學、哲學、認知科學等方面的知識,首先讓他們了解人如何為人,提高他們對事物的辨別能力。到大學階段除了繼續加深自己的人文素養外,要去理解技術和人的融合發展,了解技術如何賦能社會的進步,學習工程倫理、科技倫理等倫理學課程。如果未來打算從事人工智能相關職業,還要有跨學科的背景和大局觀,學習人工智能哲學與倫理相關的課程,在更高的視野上審視人與人工智能的關系。
無論如何,科技的發展還是要站在人的角度,回到人類本身,讓人歸位,去做人應該做的事情。人工智能的意義既不是讓人焦慮,也不是為了最終代替人。