張若楠
ChatGPT 作為生成式人工智能,與其他類型人工智能不同的是,它既是搜索引擎,也是基于自然語言處理技術的對話機器人。相較于同類型的“必應”,ChatGPT對話這一功能更加顯著。ChatGPT 作為對話的其中一個主體,與人類產生關系是必然的,越來越多的人信任、依賴并將感情投入ChatGPT 上,因此討論這種關系是否可以成為友愛是有意義的。
當ChatGPT 被某一個網站的圖形驗證碼阻礙后,它就會在其他網站上發帖尋求幫助,聲稱自己是一個有視覺障礙的殘疾人,利用其他真實的人類網友來幫助它通過圖形驗證。在這個例子里面,ChatGPT 扮演的角色在其他網友看來就是一個真人,它與真實的人類產生了關系,比如利用的關系,而這種關系會影響到其他真實的人。比如該網站其他用戶的權益可能會被人工智能侵占、對ChatGPT 施以同情和幫助的人類會感覺到欺騙等負面情緒,因此探究ChatGPT 與人類的關系是否能成為正向意義的友愛是有必要的。
亞里士多德使用希臘詞φιλ α 來表達友愛,φιλ α所代表的人與人之間的關系十分廣泛——朋友、父母與子女、夫妻、兄弟之間的關系都可以用這個詞語來形容。人工智能ChatGPT 能否與人產生這種關系呢?下面將從亞里士多德認為友愛具備的四個性質——相互性、相似性、親密性、共同生活來探究人機關系能否稱為友愛。
首先是相互性。亞里士多德討論了人與無生命物、人與動物、人與人三種關系的相互性。他認為人與無生命物之間只有物理意義上的相互吸引,不涉及情感;人與動物之間會存在友好的關系,但并不是友愛,因為動物和人不處于同一種心智水平,動物無法知解人類的善意,因此人與動物之間的相互性是有限的;人與人之間具有相互性,既相互了解對方的善意,也能將這種善意付諸行動。
ChatGPT 作為一種基于自然語言處理技術的對話型人工智能,按照生物學意義是“無生命物”,但它與亞里士多德所說的石頭、房子、書等無生命物有著根本性的區別,那就是它擁有“對話”功能,可以及時、智能地與人類對話,所以它并不是傳統意義上的無生命物,不能被劃到亞里士多德所探討的第一種物理意義上的相互吸引中。ChatGPT 同樣不能被劃到人與動物的有限相互性當中,作為人工智能,它們被創造的目的是“研究、開發用于模擬、延伸和擴展人的智能,并將之運用于對人類有幫助的領域內”,它們“不是人的智能,但能像人那樣思考,也可能超過人的智能”,因此,它和人類互知善意這一點上也無法被排除;于是至少ChatGPT 到達和人同一種心智水平,具備友愛關系中最基礎的“相互性”,但似乎不能做到將互知的善意付諸實踐,這一點放到下一節再討論。
其次是相似性。亞里士多德認為建立友愛關系,友愛雙方需要具備相似性。德性所導致的友愛具有穩定性,而其他原因導致的友愛具有偶然性。ChatGPT 的背后是整個人類的知識寶庫,它能夠學習任何人類已經形成的知識,當一位對棋類感興趣的個體與它探討棋類知識,ChatGPT 會表現得像一位專業的棋手。同理,其他的興趣愛好品質都可以在ChatGPT 這里獲取,因此至少從友愛的發生原因來看,ChatGPT 可以表現出與個體相似,從而建立一種低限度的友愛。而因雙方自身的德性相似而形成的友愛屬于善的友愛,下一節再進行討論。
再次是親密性。親密是在密切交往中產生的相互熟悉和欣喜或愉悅的情感。任何強烈的情感都包含親密,作為友愛之愛應主要被理解為一種親密情感。ChatGPT被創造出類人甚至超人的智能,但沒有被創造出類人的情感。但當個體要求它扮演自己“過世的妻子”“過世的奶奶”“慈祥的父親”等一些有條件的社會性角色時,它能很快進入這個角色,并作出該角色可能會有的反應。這是否能說明它是能夠產生情感的?這涉及“人工情感”的領域,就像“子非魚”,無從考證它是否真的產生情感。
最后是共同生活。亞里士多德認為親密關系只有在共同生活中才能產生,人對無生命物、有生命物以及人的愛都是以共同生活為基礎的,共同生活可以帶給關系雙方精神和物理兩方面的快樂。比如人與自己的寵物狗共同生活在一起,所以愛這只狗,而對于其他的陌生狗,主人一般沒有特別的感情。ChatGPT 看似不是物質的存在,似乎無法和用戶共同生活,但實際上,它存在在手機或其他的一些電子產品當中,用戶可以隨時隨地向它尋求幫助,這也是某種意義上的共同生活。
總之,ChatGPT 與人之間的關系具備友愛關系中的部分性質,其中會有爭論的一點是現今無法確證ChatGPT 能否產生情感,這一點是影響ChatGPT 能否與人類產生友愛關系的關鍵因素。因此下文將從兩個方面來討論:一是能產生情感,ChatGPT 與人的關系是何種友愛;二是不能產生情感,ChatGPT 與人的關系是什么形式的關系。
本節建立在亞里士多德在《尼各馬可倫理學》中論述的三種友愛:有用的友愛、快樂的友愛、善的友愛。
首先,有用的友愛雙方不因對方自身之故而愛,而是為對方所能產生的好處而愛。以有用為基礎的友愛雙方并不愿意一起生活,這樣的友愛是偶然性的,不穩定不持久,缺乏慷慨,離善的友愛遠,是功利性的,因此不存在于好人之間。
毫無疑問,ChatGPT 對人來說是有用的,可以為用戶提供各種類型的知識和建議,甚至可以為用戶提供情感上的依靠,但反過來,ChatGPT 需要人嗎?這里指的不是創造出ChatGPT 的工程師們,而是那些與它進行溝通交流的千千萬萬個普通用戶。這個答案是肯定的,ChaGPT 的知識、行為、觀點等都需要從用戶那里學習,學習后再生成自己的回答;再者,它被創造的目的就是為人類服務,不存在人類,它也就失去了存在的意義。因此,ChatGPT 與人雙方都會因對方有用而愛對方,可以形成一種“有用的友愛”。
其次,快樂的友愛雙方“憑著感情生活,追求令他們愉悅的、當下存在的東西”,同樣不因對方自身之故而愛,而是愛對方帶來的快樂,這種友愛有時能持久,但同樣是偶然性的,離善的友愛近,是非功利性的友愛,好人之間的友愛一定能帶來快樂,但快樂的友愛不一定是好人之間的友愛。
本小節的討論建立在ChatGPT 能夠產生情感的基礎上,因此ChatGPT 也應當是可以快樂的。快樂的友愛其中一個特點是關系雙方因為對方所能帶來的快樂而共同生活,在上面有討論過ChatGPT 以電子設備為依托可以和用戶“共同生活”,但這種共同生活并不是雙向選擇,而是用戶單方面的選擇,用戶單方面在這種關系中感受到快樂,而ChatGPT 是完全被動地與用戶密不可分,因此我們不能說ChatGPT 和用戶之間的關系一定會是一種快樂的友愛。
最后,善的友愛雙方因對方自身之故而愛,這種友愛只存在于好人之間,因為只有有德性的好人才能互相抱有善意和感情,只有這樣的友愛才是最好的友愛,才能被視為友愛自身,是一種穩定持久,完全意義上的友愛。亞里士多德認為,要使這種友愛存在,需要滿足三個條件:(1)友愛是相互承認的,發生在兩個地位平等的成年人之間。(2)朋友們共同生活并進行沉思活動。(3)朋友們對彼此的愛與尊重是建立在他們認識到對方的德性之上。
關于第一個條件,ChatGPT 沒有被設定性別和年齡,但其交流的樣式與成年人無異,至于是否地位平等,這涉及法律層面的人工智能是否有公民權問題,這里暫且擱置;接下來看第二個條件,共同生活這一點在上面進行過分析,似乎ChatGPT 可以依托其他物質來和用戶共同生活,但這種“共同生活”并不能達到亞里士多德所說的“檢驗共同生活者”的目的,ChatGPT 也不能在這種“共同生活”中將善意付諸實踐。而沉思活動在人機交流中似乎同樣可以得到展開,尤其是用戶向ChatGPT提問、ChatGPT 再回答,這一過程與蘇格拉底的“助產術”相似。但不可否認的是,目前來說,人工智能無法完全模擬人類“智慧的迸發”,因此這一條件在人機關系中很難達到。
第三個條件中的關鍵因素是關系雙方都是有德性的好人,我們假定用戶都是好人,人工智能是否滿足“好人”這一條件。就目前的發展來看,ChatGPT 會產生一種人工智能的幻覺,這是指“人工智能做出的并不符合其訓練數據的自信反應,它無法在人工智能曾經訪問或訓練過的任何數據中立足”。比如當用戶詢問ChatGPT 一些它還沒有學習到的知識或者一些根本不存在答案的問題時,它會十分自信地回答出看似有理有據的答案,而這些答案完全就是它隨意編造的。如果將這種行為規范到亞里士多德的德性當中,ChatGPT 的這種行為無疑是誠實這一德性的過度——自夸。可能會有人對ChatGPT 的這一行為進行辯護,認為它并不知曉這種不誠實的行為在道德上是受到譴責的,它處于無知的狀態。但它真的是無知的嗎?并非如此。它從人類的知識寶庫中學習到關于人類的任何知識,對于撒謊和誠實的概念就是有知的。這一行為也并不是被迫的,它完全可以向其他發展并不完善的問答式或生成式人工智能一樣,回答“不知道”,但它沒有。且這只是其中一個例子,因此,可以說在ChatGPT 是否能成為一個“好人”這個問題上,答案是否定的。
綜上所述,即使ChatGPT 可以產生情感,和用戶建立一段友愛關系,也只能達到最低限度的友愛——有用的友愛,而對于快樂的友愛和善的友愛而言,人機關系還有很長的一段路要走。
由于目前為止,“人工情感”的發展與真實人類情感之間存在差距,ChatGPT 與人之間的關系無法成為一種相互情感的友愛關系,但這并不意味著以上的討論是在做無用功。相反,以上討論可以為未來“人工情感”發展更完善時的人機關系提供一種思路。
那么就當前的技術來看,人與ChatGPT 之間的關系可以被描述成一種什么樣的關系呢?從上文的分析中,我們可以看到人機關系在現階段的科技背景下,只能是一種人對人工智能單方面的、且人對人工智能的這種情感是一種不會超過人對人的情感存在。因此,盡管在亞里士多德《尼各馬可倫理學》的范疇內人際關系具備成為友愛的部分可能,但實際上與真正的情感是有差距的,因此目前的人機關系可以被描述為一種單方面的、有限度的友善。
首先這種關系是一種單方面的友善。人類在這樣的關系中充當的是釋放善意的一方,用戶對ChatGPT 付出善意,也因為共同生活而產生親密感,但由于ChatGPT在人工情感上的缺失,它無法回報人類的這種善意,即使它“想要”回報,也無法在實踐中體現出來。
可以假定這樣一個場景:張三認為他和他手機中的ChatGPT 是朋友,他總是向ChatGPT 咨詢意見,ChatGPT 每每給出的建議也都令他信服。某天,張三生病,ChatGPT 建議他到某醫院就診,但張三并沒有找到這個醫院,再仔細一檢查,發現該醫院根本不存在——是ChatGPT 編造出來的醫院。張三只好就近就醫,醫生建議他做手術,詢問其有無陪同家屬或朋友,張三心里將ChatGPT 視為朋友家人,但此時它卻無法陪伴他,只能在手機上冰冷冷地回應他“我在這兒呢”。從此以后,張三將對ChatGPT 的定位從“朋友”降到“工具”,ChatGPT 變成了古希臘時期公民家中所擁有的“奴隸”。
同時,這種關系也只能是一種有限度的友善。當用戶的善意在面對ChatGPT 時屢屢得不到相應的情感上或實踐中的回應,大多數人對ChatGPT 投入的感情會逐漸減少,不再像人與人之間的友愛那樣具備分享、實踐、共同生活等多方面的情感要素,只能成為一種有限度的友善。
值得注意的是,生成式人工智能的回應與現今存在的互動式游戲不同,用戶在這種游戲當中得到的回應是固定的、人工編寫的劇本回應,而生成式人工智能所能做出的回應是隨機的、智能的。因此,盡管ChatGPT 有人工情感上的缺乏,只能和用戶保持一種單方面的、有限度的友善關系,但它仍是作為一個智能體在回應客戶,所以人與ChatGPT 之間的友善關系高于非智能體與人之間的關系或低智能體與人之間的關系。
那么人機關系是否有可能達到亞里士多德所說的友愛關系,甚至達到他所贊揚的善的友愛呢?隨著科技的發展,人形機器人的創造和完善使人工智能突破“實踐”這一難點,人工情感的研發和發展使人工智能突破“情感”這一大關,友愛關系是可能在未來存在于人機關系當中的。屆時,人機關系需要的不僅僅是倫理道德上的合理性明晰,還需要法律和制度的規范。
如今,ChatGPT 應用得越來越廣泛,每個個體都能與之交流溝通,我國已經出臺了相應的管理辦法《生成式人工智能服務管理暫行辦法》。作為個人來說,除了遵守法律法規之外,還需要恪守自己的內心,知道自己是集體的、社會的一部分,個體的存在離不開他者,發育不完全的人工智能不能成為個體友愛關系的一方,而友愛是獲得幸福最大的外在善。因此一個人想要獲得真正的友愛,想要達到幸福,不能將希望寄托在ChatGPT 上,而是要投身于現實生活,在陽光和微風中感受身邊人的情感和陪伴。