吳清卿
科幻文學作品經(jīng)常會描繪一幅人類和機器人共同生活的場景。其中,有機器人服務、保護人類的情節(jié),也有人類與機器人相互對立、彼此仇視的情節(jié)。這些作品的故事背景,通常是人類社會的數(shù)字科技已經(jīng)達到強人工智能(ArtificialGeneralIntelligence,AGI)甚至超人工智能(ArtificialSuperIntelligence,ASI)的水平,然而在現(xiàn)實中,這仍是現(xiàn)今科學家和科幻作家們夢想中的“新大陸”。
但是,科學幻想與科學現(xiàn)實之間的距離正在拉近。在人工智能技術日新月異、不斷進化的當下,以ChatGPT為代表的生成式人工智能已經(jīng)能夠與人類對話,并代替人類進行設計、繪畫。站在這樣一個技術升級的轉折點上,人類與智能機器之間的這種從前經(jīng)由科幻故事所闡發(fā)的復雜而又微妙的關系,連同許多糾纏于人類和智能機器之間的疑難問題,又一次被帶入公眾視野。其中最受關注的問題仍舊是智能時代的人機關系:人工智能是否可能具備自由意志?人工智能在何種意義上可以被視為具有主體人格?
所有問題的關鍵或許在于,人類可否用看待同類的方式去理解自己的“造物”并賦予它們一定的權利。面對來自技術的挑戰(zhàn),法律或許可以借鑒歷史的經(jīng)驗賦予人工智能某種“人格”,從權利/義務的角度去探討它們在人類社會中的參與;也可以插上想象的翅膀,思考法律將如何持存于一個強人工智能的未來時代。
人工智能技術的發(fā)展分為三個階段:弱人工智能(ArtificialNarrowIntelligence,ANI)、強人工智能和超人工智能。①《什么是強AI?》,IBM網(wǎng)站,https://www.ibm.com/cn-zh/topics/strong-ai。弱人工智能指的是需要遵守固定程序從而進行交互的人工智能,例如語音助手、掃地機器人等單一任務、單一場景的AI。強人工智能是指能夠達到人類思維水平的AI。在強人工智能領域,機器學習和深度學習是近年來發(fā)展最迅速的子領域,其中深度學習就是模擬人類的神經(jīng)網(wǎng)絡建造多層次模型,讓機器通過學習已有的數(shù)據(jù)集從而自動形成算法并觸類旁通地解決問題。近來風靡全球的ChatGPT所依賴的大語言模型(LargeLanguageModel)本質上就屬于深度學習的框架。而最后一種超人工智能則為人們想象中的、可以超過人類的AI。與AI相關的電影和文學作品中的“人機大戰(zhàn)”大約指的都是超人工智能時代才可能發(fā)生的事。有人工智能科學家指出,目前人工智能的發(fā)展處于弱人工智能與強人工智能的中間點。
自2022年12月以來,以ChatGPT為代表的大語言模型產(chǎn)品帶來了文字、圖片和設計創(chuàng)作的革新,比如可以根據(jù)用戶輸入的關鍵詞生成包含關鍵詞中各種元素的圖片。ChatGPT在經(jīng)歷迭代以后,最新的GPT-4產(chǎn)品可以在美國的法學院入校考試(LSAT)中獲得排名前10%的成績,也可以高分通過美國司法考試。①ChatGPTV4AcestheBar,SATsandCanIdentifyExploitsinETHContracts,2023-03-15,https://cointelegraph.com/news/chatgpt-v4-aces-the-bar-sats-and-can-identify-exploits-in-eth-contracts.
“人工智能之父”圖靈(Turing)提出了著名的“圖靈測試”,以檢測AI技術是否達到“強智能”。該測試認為如果讓檢測者和機器對話,當超過50%的檢測者無法辨別對方是人類還是機器時,則認為該技術具有“智能”。目前,盡管沒有任何官方機構宣布ChatGPT及其迭代產(chǎn)品已經(jīng)通過圖靈測試,但是已有許多相關領域的教授和計算機科學家們完成了對GPT-3和GPT-4的相關測試。②Andrew,ChatGPTPassesTuringTest:ANewBenchmarkinAI,2023-04-01,https://www.westarter.org/chatgpt-turing-test/.AllisaJames,ChatGPTHasPassedtheTuringTestandIfYou’reFreakedOut,You’reNotAlone,2023-03-29,https://www.techradar.com/opinion/chatgpt-has-passed-the-turing-test-and-if-youre-freaked-out-youre-not-alone.DamirYalalov,ChatGPTPassestheTuringTest,2022-12-08,https://mpost.io/chatgpt-passes-the-turing-test/.此外,谷歌(Google)的大語言模型LaMDA也已在2022年6月通過該測試,比LaMDA更先進的GPT-4能通過圖靈測試也就不奇怪了。③WillOremus,Google’sAIPassedaFamousTestandShowedHowtheTestisBroken,2022-06-17,https://www.washingtonpost.com/technology/2022/06/17/google-ai-lamda-turing-test/.GPT-4能夠根據(jù)提出的問題調(diào)整說話方式,可以用輕松的、正式的、幽默的甚至諷刺的語氣進行溝通。當然,即使GPT-4通過了圖靈測試,也并不一定意味著它可以像人類一樣思考或理解問題。有科學家認為圖靈測試并不能全面地測試AI的智能水平,④A.P.Saygin,PragmaticsinHuman-ComputerConversation,Journal of Pragmatics,2002(34),pp.227-258.因為該測試并不直接測試計算機的行為是否智能,它僅測試計算機的行為是否像人類一樣,而人類行為和智能行為并不相同,因為人類的某些行為是不明智的。
美國斯坦福大學教授米哈爾·科辛斯基(MichalKosinski)于2023年2月發(fā)表論文稱GPT-3.5的心智水平已達到7歲兒童的水平。這個結論是通過心理學的心智理論(TheoryofMind)測試得到的,該試驗主要檢測各種語言模型能否意識到其他人有與現(xiàn)實不同的“錯誤信念”。該研究表明,2020年之前發(fā)布的語言模型幾乎沒有表現(xiàn)出解決“錯誤信念”任務的能力,而2020年5月發(fā)布的第一個版本的GPT-3解決了約40%的任務,表現(xiàn)與3.5歲兒童相當;2022年1月發(fā)布的第二個版本解決了70%的任務,相當于6歲兒童;2022年11月發(fā)布的GPT-3.5解決了90%的任務,達到了7歲兒童的水平;2023年3月發(fā)布的GPT-4更是解決了95%的任務。這些研究表明,從前被認為是人類所獨有的心智能力,可能作為語言模型提高語言技能的“副產(chǎn)品”而出現(xiàn)了。⑤MichalKosinski,TheoryofMindMayHaveSpontaneouslyEmergedinLargeLanguageModels,websiteofCornellUniversity,2023-02-04,https://arxiv.org/abs/2302.02083.
當技術更迭日益朝著智能化發(fā)展時,許多在機器人技術開端就被埋下伏筆的疑問會再度進入我們的視野:人工智能是否會超越人類?是否可以用思考人類主體的方式去理解人工智能?關于人工智能是否具有人格,以及未來它在人類社會中的地位是什么,法律似乎自有一套話語加以應對。然而,當我們?yōu)闄C器人或人工智能模型賦予某種類似“人格”的地位時,似乎注定會帶來更多理論和實踐中的問題。無論如何,當機器和人工智能日益被“縫”進人類生活,法律的登場只是時間問題。問題在于,我們是否為這樣的未來做好了充足準備。
2017年,沙特阿拉伯授予機器人索菲亞以公民身份。①AndrewGriffin,SaudiArabiaGrantsCitizenshiptoaRobotfortheFirstTimeEver,Independent,https://www.independent.co.uk/tech/saudi-arabia-robot-sophia-citizenship-android-riyadh-citizen-passport-future-a8021601.html.索菲亞由注冊于中國香港的機器人公司制作,有皺紋、有表情,能夠在回答問題時微笑或露出疑惑、難受的表情。然而著名AI科學家楊立昆(YannLeCun)在當時便指出這是一場“騙局”,因為索菲亞的許多回答是通過程序設定好的。索菲亞在回答記者提前提交給會務組的3個問題時表現(xiàn)優(yōu)秀,但當遇到記者現(xiàn)場隨機提出的問題時,其對話水平明顯下降。②《“曖昧騙局”機器人索菲亞》,知乎網(wǎng),2018年1月7日,https://zhuanlan.zhihu.com/p/32702643。6年后的今天,應用于索菲亞和ChatGPT的自然語言處理模型蓬勃發(fā)展,索菲亞是否會更像一個“人”?作為第一個被賦予“人權”的機器人,索菲亞的權利問題引發(fā)了廣泛討論。假設未來到達了AGI或ASI時代,人工智能機器人是否可以具有法律人格?其權利又是什么?
根據(jù)《中華人民共和國民法典》第九百九十條,人格權是民事主體享有的生命權、身體權、健康權、姓名權、名稱權、肖像權、名譽權、榮譽權、隱私權等權利。自然人也享有基于人身自由、人格尊嚴的其他人格權。當人格權受到侵害時,受害人可以依法請求行為人承擔民事責任;同樣,侵害他人權利時,也應當承擔相應的民事責任。如果給予人工智能“人格權”,那么當它侵害他人權利時應當以什么形式、什么能力來承擔責任?這需要結合我國的法律制度進行深刻思考。以ChatGPT為例,目前ChatGPT生成的信息并非都是真實的信息,有些虛假信息極有可能損害他人的名譽權。再比如,如果用戶在與ChatGPT交互的過程中不小心透露了隱私信息,由于ChatGPT會收集并學習用戶輸入的信息,因此它很有可能在日后回答其他用戶的問題時泄露該隱私,侵犯用戶的隱私權。在當前的技術和法律框架下,ChatGPT之類的產(chǎn)品并不能承擔責任,所以當它侵犯他人權利時,其生產(chǎn)經(jīng)營公司就需要承擔民事責任。如果承認了類似的技術的獨立人格,那么就要讓技術本身承擔責任,而在無法確定人工智能的其他相關權利義務的時候,讓它獨立承擔責任好似天方夜譚。
其實歐洲的立法者很早就開始思考人工智能是否具備獨立人格。2016年,歐盟三大常設機構之一歐洲議會呼吁建立“人工智能倫理準則”,提出要考慮賦予某些自主機器人“電子人”(ElectronicPersons)的法律地位。盡管該提案最后并沒有被通過,但歐洲議會對于人工智能技術的載體可能擁有的法律地位的相關思考在世界上仍是超前的。關于智能自主機器人,歐盟的法律事務委員會提出了四大特征:(1)通過傳感器和/或借助于其環(huán)境交換數(shù)據(jù)(互聯(lián)性)獲得自主性的能力,以及分析那些數(shù)據(jù);(2)從經(jīng)歷和交互中學習的能力;(3)機器人的物質支撐形式;(4)因環(huán)境而調(diào)整其行為和行動的能力。①《十項建議解讀歐盟人工智能立法新趨勢》,騰訊研究院,2017年2月16日,https://www.tisi.org/4811。目前,生成式人工智能可以做到根據(jù)用戶的問題而形成交互的答案。也有科學家將ChatGPT技術接入機器人,機器人可以流暢地交互,適應不同環(huán)境并調(diào)整其行為。這些特征都非常符合歐盟提出的“電子人”概念。
這么看來“電子人”的概念似乎很合理,像是模仿“法人”而產(chǎn)生的。法人是依法成立的社會組織,擁有獨立的財產(chǎn)和經(jīng)費,獨立承擔民事責任,并且能夠以法人的名義從事民事活動。法人具有獨立的人格權,主要包含名稱權、名譽權和榮譽權。法人的概念源于羅馬法。隨著當時羅馬領土的擴張、商品貿(mào)易的頻繁,私人團體被承認具有主體資格,能夠以團體的名義共同擁有財產(chǎn)、進行商品買賣。②萬錫林:《談法人成為法律主體的演變》,中國法院網(wǎng),2019年11月4日,https://www.chinacourt.org/artic le/detail/2009/11/id/380640.shtm l。法律主體是隨著經(jīng)濟和時代的發(fā)展不斷變化而來的,所以探討未來是否有“電子人”的可能性也未嘗不可。無論是從自然人還是法人的角度來看,民事權利和責任都是相對應的。如果給予人工智能一定的法律主體地位,那么它必定享有相應的權利,也必須承擔一定的義務。
然而要厘清“電子人”的權利與義務,絕非易事。根據(jù)當前大語言模型的發(fā)展現(xiàn)狀,主要的權利問題集中在著作權和勞動權上。
首先是著作權。其實在ChatGPT之前就有過關于人工智能生成物的討論,在我國更是有過一次關于生成式人工智能著作權的訴訟。“騰訊寫作機器人”(Dreamwriter)是騰訊公司開發(fā)的智能寫作輔助系統(tǒng),自2015年開發(fā)完成以來,每年可以完成大約30萬篇作品。其完成的一篇關于股市的文章發(fā)表以后,被上海某科技公司直接原文復制,騰訊公司將該公司訴至法院,稱其侵犯了騰訊公司享有的著作權。案件最終裁定涉案文章由原告主創(chuàng)團隊人員運用Dreamwriter軟件生成,其外在表現(xiàn)符合文字作品的形式要求,其表現(xiàn)的內(nèi)容體現(xiàn)出對當日上午相關股市信息、數(shù)據(jù)的選擇、分析、判斷,文章結構合理、表達邏輯清晰,具有一定的獨創(chuàng)性,應予以保護。③萬勇:《人工智能“作品”,著作權誰屬》,《光明日報》2019年5月13日。當然,ChatGPT在與用戶交互的過程中的回答不一定全都具有獨創(chuàng)性,不是ChatGPT的所有產(chǎn)出都可以獲得著作權的保護,甚至一些以圖像為主的生成式AI還存在侵權的可能性。我國著作權法規(guī)定,我國公民、法人或者非法人組織可以享有著作權。那么,如果承認了人工智能的法律人格,它是否也應當享有相應的著作權呢?這是著作權領域非常有意思且值得探討的問題。
其次是勞動權。無論是網(wǎng)頁、軟件還是機器人,這些人工智能的載體都是“硅基”的,也有人稱人工智能具有“硅基生命”。與人類這種“碳基生命”相比,“硅基生命”可以長久生存,也不需要氧氣等資源。這么看的話,人工智能如果接通機器等載體,一定會比人類“活”得長久,且不怎么需要生存資料,幾乎可以滿足“無限勞動”的想象。機器可以替人類做一些難以完成的工作,比如海底救援、宇宙探索,而初期的機器人也以減輕人類的勞動負擔為目的,比如掃地機器人、投遞機器人。然而機器或人工智能對勞動的參與方式也有不同。美國的經(jīng)濟學家就證明,相較于增加生產(chǎn)力的“賦能技術”,“替代技術”一旦接管工人的工作后,就會減少就業(yè)和人工薪酬,這對經(jīng)濟產(chǎn)生了顯著的負面影響。①DaronAcemoglu,Machinevs.Man:TheLaborMarketintheAgeofRobots,2017-02-06,https://inequality.hks.harvard.edu/event/daron-acemoglu-machine-vs-man-labor-market-age-robots.那么,如果人工智能始終是一種“賦能技術”,它便可以讓現(xiàn)有的自動化、智能化的產(chǎn)品更加“智慧”,哪怕技術可以自行迭代成長,人工智能的勞動也不一定會給經(jīng)濟造成負面影響。不過,以比爾·蓋茨為代表,也有一種聲音認為政府應當對人工智能征稅,用來補貼和培訓因機器人的大規(guī)模應用而失業(yè)的人。②BillGates,Job-StealingRobotsShouldPayIncomeTaxes,2017-02-17,https://www.cnbc.com/2017/02/17/bill-gates-jobstealing-robots-should-pay-income-taxes.html.這種設想的一個連帶后果卻是,征稅使得人工智能在法律上更接近于人格主體的特征,因為納稅是一種既有權利又有義務的主體行為。
回到所謂“電子人”的概念。事實上“電子人”一直沒有被歐洲議會所接受,這一提議備受爭議,在2017年之后發(fā)布的多個報告中都沒有授予人工智能法律人格,但是歐洲議會法律事務委員會在2020年7月的報告里堅持了最初的提議并對各種批判意見進行辯駁。該報告并未否定賦予人工智能以法律人格的可能性,也承認授予法律人格并非解決問題的唯一方法。③劉云:《論人工智能的法律人格制度需求與多層應對》,《東方法學》2021年第1期。不知是不是因為人工智能法案(ArtificialIntelligenceAct)草案的提出,給了歐洲議會以更多底氣再次談論該話題,但可以看出,能否以及如何授予法律人格,本身需要滿足一定的時代和社會條件,法學的討論只能在時代所需要的議程框架中展開。這也決定了賦予人工智能以法律人格,至少在目前是超前于時代的需求的。
如果說關于人工智能的主體人格的討論,是現(xiàn)實世界對不久之后的未來所作的思想準備,那么關于人工智能具備自由意志的狀況,則仍舊是科幻作品面向更遠未來的幻想。比如2001年上映的電影《人工智能》改編自英國科幻作家奧爾迪斯(BrianAldiss)于1969年發(fā)表的短篇小說;2004年上映的《我,機器人》受到阿西莫夫(IsaacAsimov)同名科幻短篇小說集的啟發(fā)。這些電影里描繪了人工智能具有自由意志的時代,也討論了人類和人工智能機器人的關系,尤其是討論當機器人的能力有可能“超越”人類的時候,機器人將會消滅人類還是依然服從人類這一問題。
當然,這些文學和電影作品中的人工智能已經(jīng)到達了AGI甚至是ASI的階段。可早在1942年,阿西莫夫在其科幻小說《環(huán)舞》中就首次提出了“機器人三定律”。然而,這三條定律不無悖論性,其微妙之處在于,它們看似在保護人類,實則卻將具有高度智能的機器和人類放置在對抗的位置上。可以想見,如果到了機器人被允許擁有自由意志的那一天,它們將可能不受任何“定律”的束縛,因而所謂的“機器人三定律”更多是面向人類的自我慰藉,或是人類為科技發(fā)展劃定的一條基準線。但也正因人們很早就注意到了人機關系在未來可能發(fā)生的顛覆,現(xiàn)在的科學家更傾向于開發(fā)一類在價值觀上與人類相一致的人工智能,也即所謂“人工智能對齊”(AIAlignment),從而克服或減少強人工智能時代可能出現(xiàn)的倫理風險。
或許這樣的“未來”已經(jīng)不再遙遠。2022年2月9日,OpenAI聯(lián)合創(chuàng)始人、人工智能科學家伊利亞·莎士科爾(IlyaSutskever)表示:現(xiàn)在的大型神經(jīng)網(wǎng)絡可能已經(jīng)有微弱的自主意識了。①AlbertoRomero,OpenAI’sChiefScientistClaimedAIMayBeConscious,2022-03-17,https://towardsdatascience.com/openaischief-scientist-claimed-ai-may-be-conscious-and-kicked-off-a-furious-debate-7338b95194e.同年6月,谷歌的工程師布雷克·雷蒙恩(BlakeLemoine)宣稱,LaMDA已存在感知能力和自我意識,并在網(wǎng)上公布了他和LaMDA的對話。他認為,LaMDA擁有七八歲孩童的智力,并相信LaMDA正在爭取自己作為一個人的權利,而且“不想被關掉”。②《谷歌AI具有意識?LaMDA像個聰明孩子?專家:胡扯》,澎湃新聞,2022年6月16日,https://www.thepaper.cn/newsDetail_forward_18579232。該言論引發(fā)了巨大的風波和討論,尤其是在谷歌否認其言論的真實性并以泄露商業(yè)秘密為由解雇了雷蒙恩之后,該言論受到了更多人的質疑。莎士科爾很巧妙地用了“可能”一詞,雖然他被很多人工智能科學家抨擊,但OpenAI的合伙人山姆·奧特曼(SamAltman)卻支持他的觀點,認為OpenAI正是因為各種“可能”才得以發(fā)展,進而才有了橫空出世的ChatGPT和迅速迭代的GPT-3、GPT-4以及未來的GPT-5。
史蒂芬·霍金早在2017年就警告過:“強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。對于好壞我們?nèi)詿o法確定,現(xiàn)在人類只能竭盡所能,確保其未來發(fā)展對人類和環(huán)境有利,人類別無選擇。”③ArjunKharpal,StephenHawkingSaysAICouldBeWorstEventintheHistoryofOurCivilization,2017-11-06,https://www.cnbc.com/2017/11/06/stephen-hawking-ai-could-be-worst-event-in-civilization.htm l.他所說的糟糕的情況指的是超人工智能時代,一旦AI超越人類,就意味著人類將面臨前所未有的挑戰(zhàn)——尤其是AI可能會被用于制造武器,這其中的威力將不可估量。因此,霍金很早就呼吁,要確保對AI有一套完備、有效的管理體系,減少不可預知的風險。
可以肯定的是,一旦人工智能擁有自由意志,那么迎接人類的將是一個完全未知的未來——不僅人工智能是否會保護、尊重人類是未知的,而且人類是否會信任人工智能也同樣未知。我們?nèi)砸粲酰硇缘乜创斯ぶ悄芗夹g的成長,盡可能地善用技術進步以造福人類。但法學家們或許仍免不了操心,尤其是在法學尚未完全為人工智能時代設定好議題的今天。提前設定關于人工智能的倫理及規(guī)范,構建一種更為良性的未來人機關系,或許是人類更好地發(fā)掘和利用人工智能的前提之一。