梁衛國
(中央民族大學哲學與宗教學學院,北京 100081)
在眾多的科幻作品中,人類與人工智能相處的倫理問題常常讓人揪心。在《終結者》(The Terminator)中,最新型終結者T-X美麗俊秀、身手毒辣,以能量形式存在各種網絡之中;她能隨心所欲地變成各種形態,并能操控其他機器人,連最先進的液態金屬T-800也無法逃脫她的操控。《黑客帝國》(The Matrix)中,在22世紀,人類生活在機器所虛構的世界之中,肉體和精神都被超級機器控制。電影《機械姬》(Ex Machina)中,人類造出的機器人具有獨立意識,利用感情成功欺騙人類,逃離實驗室,并試圖毀滅人類。從邏輯上看,科幻片的構思似乎無懈可擊。一方面,人工智能的確具有人類所沒有的無限壽命、超強的計算能力及其他高級智能。另一方面,在現實生活中,人類似乎無處可逃:街頭車站涌現大量的手機“低頭族”,網絡社交評分無處不在,狂熱青年忙著賺虛擬貨幣。導致人類無處可逃的是高速運轉的人工智能,人工智能正把虛擬世界與物理世界的邊界變得愈加模糊。這些巨變使得一些科學家認為,奇點來臨后,科幻片中人類被追殺、毀滅的景象就會變成現實。那么,人工智能和科幻作品有何關系?如何看待人類和人工智能相處的倫理問題?面對這種倫理問題,人類應該何去何從?
如果從傳統的學術譜系上看,人工智能主要指“一門研究如何構造智能機器(智能計算機)或智能系統,使它能模擬、延伸、擴展人類智能的學科”[1],屬于計算機科學的分支學科,是自然科學的范疇;“科幻作品是關注科技發展對人類社會自身發展及科學文化等更深層面的精神發展的影響的作品,是結合現代科技成就與文學意境的產物”[2]。科幻作品是在科學技術的基礎上衍生出來的文學亞門類,是社會科學的范疇;那么,就人工智能和科幻作品純粹學術研究的內部結構、運作機制、學術傳統及代際傳承方式來講,兩者相去甚遠,并在各自獨立的領域遵循著自身發展規律進行著生滅變化。目前,關于兩者分別研究的自然科學界和社會科學界有著較多的學術成果,這些學術成果也為人工智能倫理研究奠定了重要基礎。對普通公眾來講,人工智能倫理問題專業性較強等,因而理解起來有一定的難度。
如果從科學普及的角度看,當公眾在被《終結者》《黑客帝國》等這些科幻作品勾畫出的未來而興奮或擔憂時,我們就會發現,從科幻作品的維度來研究人工智能倫理問題或許是個不錯的視角。這是因為,人工智能作為科技的一種,常常也是科幻作品的內容。這些作品中反映的人工智能倫理問題為人工智能倫理的現實研究提供了某種可能。這種可能性也可以從人工智能倫理概念和科幻作品的概念中得以證明。雖然,目前人工智能倫理作為一個相對較新的事物在學術研究領域并沒有一個公認的統一的確定概念,但我們不妨先從其上位概念科技倫理嘗試進行定義。科技倫理的定義是,“人們在從事科技創新活動時對于社會、自然關系的思想與行為準則,它規定了科學家及其共同體所應恪守的價值觀念”[3]。根據科技倫理這個定義,我們可以將人工智能倫理定義為“人們在從事機器人、語言識別、圖像識別、自然語言處理和專家系統等人工智能創新活動時對于人類社會、自然關系的思想和行為準則”,一般地,這個準則的核心問題是如何落實人工智能的責任問題。這種“對于人類社會、自然關系的思想和行為準則”與科幻作品是關注科技發展“對人類社會自身發展及科學文化等”影響的作品,存在一定重合關系。這個重合的主要因素就是,人工智能倫理和科幻作品都關注科學技術對人類未來社會(生產、生活、生存等)的影響。只不過,相對來說,倫理問題關注的這個未來現實性更多些,而科幻作品關注的這個未來幻想性更多些。如果反映人工智能倫理和科幻作品兩者本質屬性的概念有一定的融合因素,那么,從科幻作品中去探尋人工智能倫理就存在可能。
科幻作品為人工智能倫理問題(關注如何處理人類與自然的思想和行為的準則問題)研究提供可能,還可以從具體的實例進行論證。
比如,在科幻電影《超驗駭客》(Transcendence)(2014)中,天才科學家威爾·卡斯特死后,其妻子和好友將其意識與計算機網絡相連接,最終進化出了一個超級人工智能:人工智能被賦予人的自我意識和獨立思維;計算機網絡替代了威爾由碳原子組成的身體而成為人工智能的硬件部分。這個超級人工智能給人類帶來巨大的益處:挽救絕癥患者,凈化空氣和水源,將沙漠變為綠洲。這些益處也是現實生活中人類生理數據庫和醫療算法、空氣清潔器和水源治理系統、機器造林技術等人工智能的邏輯推演。正是人工智能這些現實為《超驗駭客》提供了創作的素材,這些現實也使得人們更容易相信這個科幻作品所塑造的事實。
《超驗駭客》的科技特征并沒有就人工智能的合理邏輯推演止步,而是遠遠超出現實。當威爾的獨立意識侵入電腦成為人工智能的一部分,彌補了電腦沒有自我認知與缺乏價值判斷的缺陷時,科技就變成了“上帝”(威爾的意識+計算機網絡)。這個全能全知的“上帝”可以進入任何一臺電腦系統獲取信息,可以監控世界上任何一個角落;它洞燭先機,并且發明新的納米技術——修復受損細胞、增強再生能力、治愈一切殘疾人。但是,這個互利雙贏的人工智能(“上帝”)也導致一些政府首腦和科學家產生恐懼感:如果一些人可以永生,如果生態可以快速修復,那么人類生存的意義何在?正是在這種恐懼心理下,一些科技部隊開始對這個超級人工智能進行圍剿和屠殺,但詭異的是,被人類的炮火等武器破壞后的設備和人員經由納米技術又迅速恢復原樣——只要設備和人員處于無線聯網狀態(只要有空氣、水、土等介質存在),人類就難以戰勝這個人工智能。
劇情的發展似乎進入了一個公共悖論:人類的欲求創造出了人工智能,而人工智能又強大到了人類無法控制。何以解決?要么人類滅亡,要么機器滅亡;要么機器還是人的工具,要么人類淪為機器的奴隸。悖論的這四種答案,常常成為人工智能科幻創作的四個思路,如《迷失的一半》《杰克茜》《吾乃母親》《黑客帝國》《復仇者聯盟2:奧創紀元》《地球停轉之日》《天外魔花》《世界盡頭》等。這些科幻創作與其說是販賣人工智能技術下人類生存的焦慮,不如說是將人工智能和人類的沖突作為創作基礎,并且在這種人類被人工智能科技滅亡的可能性和必然性中創造永恒話題,不斷牽動觀賞者的神經:生存還是毀滅?幸運的是,《超驗駭客》中的威爾是為愛為生的,在聽取了威爾妻子愛的謊言后選擇了自我死亡。最終,影片以愛結束。
通過上述分析我們可以看出,一方面,人工智能的現實為科幻作品提供創作素材和科技佐證,人工智能是科幻作品得以實現的必然;另一方面,科幻作品為人工智能提供未來想象和發展可能,科幻作品成為人工智能(主要是超級人工智能)得以實現的可能。兩者這種復雜的關系為我們構建起了豐富的精神實驗和感覺體驗:相離的研究使得兩者得以向縱深發展,相交的科幻作品使得二者創造出了色彩斑斕的精神世界。正是在這種復雜的矛盾統一中,人工智能倫理問題得以展開。
除了從人工智能和科幻作品的關系角度來研究人工智能倫理問題外,我們也可以從人工智能本質屬性的概念(共時性研究)和人工智能的發展路徑(歷時性研究)兩個方面,將人工智能倫理問題的探討推向深入。
從概念上看,目前人工智能的概念有很多。其中比較公認的是,人工智能指用機器(主要指計算機)實現人的計算能力、感知能力、記憶能力、邏輯思維能力等智能活動的技術。人工智能概念最早源于1950年英國科學家圖靈提出的“機器能思考嗎”這個知名的論題,在這篇《計算機器與智能》的論文中,圖靈還提出了實現機器思考的心理實驗(是否存在可想象的計算機能夠通過一個混淆人類智能與機器智能的游戲)。圖靈測試者指出,如果在5分鐘內,一臺智能機器不僅能夠順利、正確地給出人類測試者所要的答案,并且這些答案能夠使超過1/3的人類測試者認為那臺被測試的機器回答的答案就是人類回答的答案,那么,這臺智能機器就算通過測試,即這臺智能機器相當于擁有人類智能。按照這個邏輯,要制造一臺擁有人類智能的機器,就轉化為制造一個模擬人類童年的大腦機器,然后再對它進行學習英語、數學和下棋等教育訓練,經過訓練后的類兒童腦機器在經過場景實踐學習后就可以發展為成人腦的機器。
如果,人工智能本質上是人造的智能,是機器對人智能的模仿,反映在科幻創作中,人工智能的作品也應該是在人與機器的對立和統一中展開。如果“科學是作為支撐作品存在的、不可移除的核心線索存在的”[2],科幻創作的兩個基本特征是科學性和幻想性,那么,人工智能題材的科幻創作中作為科學的一種的人工智能也應該是不可移除的核心線索,且也應呈現人工智能的科學性和人工智能的幻想性兩個基本特征。人工智能的倫理問題也應該是從科學性和幻想性出發,科學性構建起人工智能倫理求真和確定性的一面,“人工智能不僅意味著前沿科技和高端產業,未來也能夠廣泛應用到解決人類社會面臨的長期性挑戰”[4]。而這些技術性問題可能是自然科學發揮作用的地方。幻想性構建起人工智能倫理中求變和創新性的一面。這些問題可能帶來人文和社會問題。比如,如何看待人類與機器的關系問題;生物化學方法使人很快得到快樂,那么如何看待人類的痛苦問題;隨著計算機的發展如何看待其帶給人類的失業問題。
從共時性研究得出的人工智能倫理需要考慮的科學性和人文性問題,也可以從關于人工智能的兩部經典小說來說明。人工智能小說《明天的兩面》(Two Faces of Tomorrow)描述了一個世界,那里的復雜文明只有一個全球性的計算機網絡才能控制。這個超級計算機集合了大量的邏輯程序,但它缺乏常識,并且它那些基于邏輯的決策開始導致太多致命的突發事故發生。研究者擔心超級計算機可能會脫離人類的控制,所以他們決定到太空里測試這臺計算機,如果出現錯誤,就可以摧毀它。但是,已經產生知覺的電腦很不喜歡這種測試,故事的矛盾就此展開。
被評為人工智能優秀小說伊恩·班克斯(Iain M.Banks)的《無限異象》(Excession)也是這樣一部作品。小說中描寫的“心智”是超智能的人工智能生物,它們之間的交流像是沒有標題的電子郵件,它們也試圖對人類進行統治。很明顯,這兩部小說都是以人類與人工智能的沖突展開敘事,且科學性都是故事的決定性因素。在筆者搜集到的人工智能作品中,也幾乎沒有只講幻想性而不顧科學性的作品。
從歷時性的角度看,人工智能概念被提出100多年來,主導人工智能發展的指導思想主要有邏輯主義(或稱符號主義、計算機主義或心理主義),連接主義(生理學派)和行為主義(或稱進化主義或控制學派)三個。
邏輯主義(符號主義)的邏輯起點是,符號(如數字、字母甚至服飾顏色等)是人類認知的基本元素,用符號表示的系列運算就是人類認知事物的過程。物理符號系統假設(所有智能行為都等價于物理符號系統)和有限合理性原理(如谷歌、百度等使用關鍵詞進行模糊搜索來逐漸得到問題正確答案的計算檢索過程)是其核心。紐厄爾(Newell) 和尼爾遜(Nilsson)等符號主義者認為,符號是人類思維的單元,思維是符號程序化、算法的結果;人工智能的實現的路徑就是,在遵守邏輯系統規則的前提下,給機器輸入大部分程序,使得機器通過0、1二進制符號實現人類的智能。目前,符號主義是人工智能的主流觀點,并在知識認知、知識表示等方面取得了重要進展。但符號主義者的局限性在于其線性關系和排中律的預設,即對智能的模仿主要依據其代數學和數學定理的機器實現。這為機器功能劃定了界限,而連接主義的出現一定程度上可以克服此局限。
連接主義的邏輯起點是,思維的基本元素是神經元,思維過程是這些大量并行連接的神經元的運動或活動。連接主義認為,仿照人類神經網絡的運行規則和連接機制就能形成學習算法,按照這些算法制造的機器就能實現人工智能。與符號主義的線性處理相比,分布式存儲和并行協同處理的實現方式使得神經網絡理論發展較快。
行為主義的邏輯起點是控制論和感知-動作系統。行為主義認為,智能不一定必須用符號表示,也不一定必須使用仿生學結構來模仿,智能行為源于主體與環境的互動和變化,即智能主要取決于感知和行動。既然,現實世界是智能行為形成的基礎,那么,人工智能的實現方式就是制造出一個模擬人類兒童腦的機器,之后,讓這個類兒童腦的機器像人類的兒童一樣在現實中給予其教育培訓或讓其自我學習,從而得到一個類似人類成年腦的機器。該觀點主要認為,是機器的自我學習造就了人工智能。
既然邏輯主義(符號主義)、連接主義和行為主義是主導人工智能發展的主要思想,那么人工智能的科幻創作也應該是邏輯主義、連接主義和行為主義三者所決定的人工智能科幻創作。換句話說,人工智能題材的科幻創作可以分為這三種形式的科幻創作。人工智能的倫理也應該從這三者中進行分析,在符號主義下,人是符號的動物,人人就會被標簽化,與這種標簽相關的信息就被密集推送給了被標簽化的每個具體的人,這就會造成信息渠道狹窄的風險(如刻板印象、沉默的螺旋效應)——人類創造了工具,工具也創造了人。在連接主義下,人工智能倫理問題可能是對人類大腦的過度開發,人與機器的界限會日漸模糊,這很可能導致心與芯的競爭,最終機器的智慧可能會代替人類的智慧。行為主義帶來的倫理可能是超級人工智能的到來,這會導致超級人工智能取代人類的那一天早日到來。
如果說人工智能為科幻創作提供了必然性的話,那么,科幻創作為人工智能提供了可能性。這種必然性和可能性在人工智能的科幻創作中為人工智能倫理提供了一個技術實現路徑。從人工智能的發展現狀看,人工智能的倫理路徑問題已經成為決定人工智能如何發展甚至生存的問題。人工智能的倫理問題如此重要,是因為這個倫理打破了農耕文明后人類社會中逐漸成為主流的倫理價值觀——人類中心主義。通常來說,這個人類中心主義倫理價值觀強調,“一切以人為中心,或一切以人為尺度,為人的利益服務,一切從人的利益出發”[5]。
根據人類中心主義倫理價值觀而發展起來的人工智能,可能會導致人類的毀滅并使得人類中心主義最終喪失。理由是,按照人類利益為中心的邏輯,發展滿足人類記憶、認知和運算的人工智能自然是滿足人類利益的;人工智能認為人類的活動只是數據和算法,那么由碳原子組成的智慧(人)比由硅原子(芯片)組成的智慧并無高低貴賤之別。如果人類的倫理與人工智能的倫理沒有高低貴賤之分,那么,人工智能取代人類也是自然的事情。如果人類被人工智能取代,那么人類將不會存在。如果人類不存在了,那么人類的生命也就不再具有意義。而這一點,則是人工智能發展的又一悖論:本來是以服務人為目的的人工智能最終卻將人類終結了!
如何避免人類被毀滅又能享受人工智能帶來的富足和快樂,這是人工智能的倫理挑戰,也是科幻創作矛盾沖突的一個邏輯起點。從某種程度上,正是人類中心主義的內在矛盾才使觀賞者將人工智能和自己的生命聯系起來:一方面自己離不開人工智能,另一方面人工智能逐漸使自己喪失主體性。這種沖突再加上親情的渲染(如《星際穿越》),加上大膽想象(《超驗駭客》中威爾妻子希望的一個人造的水、空氣和土壤的世界),加上恐怖威脅(如《黑客帝國》中機器對人類的征服和毀滅)等這些合理幻想,就使得科幻作品產生了驚心動魄、引人至深的傳播效果。
“一切宗教、藝術和科學都是同一株樹下的各個分枝。所有這些志向都是為著使人類的生活趨于高尚,把它從單純的生理上的生存境界提高”[6]。愛因斯坦認為,一切技術上奮斗的主要目標就是關心人類本身,因此,人工智能的倫理問題就其一般性來講屬于科技倫理問題,就其特殊性來講,應該在于其智能性如何服務于人又不傷害人的問題。那么,當前人們如何看待這個倫理問題呢?
當前世界各地的人們談論人工智能倫理路徑問題有兩個特點。一是人工智能概念被泛化。各群體在參與人工智能倫理討論時,其討論的對象實際是含生命科學、基因編輯等數據驅動技術的泛指,遠超出科技界對人工智能概念的外延。這一現象在非專業人群中尤為明顯,缺乏專業背景的公眾對數字技術更多的是直覺認知和判斷,而這也是公眾中出現人工智能“無用論”“萬能論”等截然不同答案的原因[7]。二是政界、學界、實業界等主體的訴求各有側重。雖然三者的倫理規則大多以號召或軟性原則為主,普遍關注人工智能增進人類福祉、技術的包容公平、維護人類尊嚴和自主性、保障安全和隱私等內容,但是,這三類的關注點略有不同。從對文本的統計分析來看,學術界較多關注人類價值觀和責任;產業界更關注協作,而較少提及安全和隱私[8]。
概念泛化和自說自話的原因,從現象上看,是各利益主體受先前認識局限而形成了“前理解”,實質上則是,因為人工智能技術是個不斷發展的新興技術,它的風險伴隨著創新進步而不斷顯現。
當我們從人工智能倫理的背景回到人工智能倫理內部的時候,就會發現,人工智能倫理問題本身是人與智能機器的關系問題。而要構建兩者的和諧關系,無法避免且必須要回答的問題是,是否存在“自由個人”。生命科學者認為,所謂“自由個人”并不是真實的存在,人類不過是生化算法的組合而已。在生命存續期間,各種各樣的生命體驗都被大腦的生化機制制造出來。但是,這些體驗不是一直存在的,而是像電影的鏡頭一樣都是短暫停留后立馬就消弭于無形,之后,更多的體驗被大腦再次創造出來……生命的過程就是這些體驗不間斷地閃現又不間斷地消失,不間斷地出現又不斷失去的過程。在閃現和消失之間宛若影像鏡頭般快速相連而使人認為這些體驗就一種不動的存在。《未來簡史》的作者赫拉利等還把這種體驗分為體驗的自我(experiencing self,主要是自我所經歷的生化反應)和敘事自我(narrating self,對這些生化反應嘗試編織各種故事的自我)。生命學者的這種看法與2000多年前哲學界的觀點不謀而合。佛教釋迦牟尼(人是五蘊和合的混合)、道教(人人都能化生為仙)、古希臘德謨克利特(Democritus)(萬物皆由原子組成的)等也都認為個人概念是一種虛妄。數據主義者的觀點也支持生命學者的看法,認為宇宙由數據組成,任何現象或實體的價值就在于對數據的處理的貢獻[8]。全人類可被看成一個巨型的數據處理系統,每個人都是這個系統中的一個芯片,我們對一切事物的認知及所做出的反應都是在執行自身生化算法而已。
如果,個體的自我從物質到精神都是變動不居的碎片(原子、電子)和算法,那么仿照人腦而制造的智能機器也只能是碎片化的反映或算法的反映。從這個意義上來看,人與人工智能的倫理關系可能不是人類與自然物,或人類與智能機器的關系,而是社會中那種一臺機器操控者與另一臺機器操控者之間的關系,即社會關系。
在語言、文字、金錢、機構等社會性存在的前提下,人類構建了一套人類(雖然沒有主體性或只有主體間性)與客體(人化的自然)的倫理規則。如“保存自我的努力是德性的首先的唯一的基礎”;又如“以理性為指導,而行動、生活、保存自我的存在”;等等[9]。《未來簡史》作者赫拉利等甚至認為,在21世紀,人類需要的倫理可能是獲得永生、幸福快樂、化身為神。
按照以上理解,哲學意義上的人工智能倫理構建是艱難的,而社會學意義上的構建應該是必要和可能的。這種構建至少可以提供一個社會秩序穩定的預期和消除一些人對未來不確定的恐慌情緒。
關于社會學意義上的人工智能倫理是目前學界討論的重點,其主要觀點有以下幾種。歐洲政策研究中心認為,現在沒有跡象表明,人工智能將發展出類似人類的感知(perception)和意識(awareness)。當前人工智能主要被應用于優化(optimization)、搜索/推薦(search/recommendation)和診斷/預測(diagnosis/prediction)三個領域[7]。按照他們的觀點,人與人工智能的倫理關系只是人與自己創造的勞動工具的關系。
當代人機接口技術的主要開創者費爾森斯丁則認為,“今天的人工智能技術越來越傾向于以人類為中心的傀儡學”,費爾森斯丁還強調,人類與人工智能的關系,“是一種共生性的伙伴關系”[10]。
英國學者塔迪歐(Mariarosaria Taddeo)和弗洛里迪(Luciano Floridi)建立了一個以數據本身、數據算法,以及與數據和算法相應的實踐過程所組成的三元數據倫理框架。人工智能的倫理問題可近似模擬為“數據倫理學、算法倫理學和實踐倫理學的三個軸”。在同一個人工智能的概念層面,“人工智能的倫理問題是以三種值來區分的點。”[11]
張浩、黃克同在《邁向制度化的人工智能倫理》一文中認為,“探索使人工智能治理原則落地的規則和機制,將是未來的重點和方向”。他們提出了技術安全、非歧視性、隱私保護、可問責性的倫理觀[7]。
筆者認為,人工智能具有類主體的性質,隨著人工智能技術的發展,人類具有排他性(排除其他動物、植物甚至自然不動物)主體地位的倫理時代很可能隨著奇點的到來而完成歷史使命。尤其是在認知科學、神經語言學、互聯網技術快速發展的背景下,人的思維、記憶、情緒如果能夠被芯片化,能夠被外部軟件測度的話,人首先應該確定的是如何與人工智能相處的問題。目前,各國科技競爭的態勢決定了這種可能,且這種可能正日益漸進性地成為現實。新的倫理觀應該是,人類不僅要對自然存在敬畏感,也要對人造的自然物——人工智能存在敬畏感,隨著技術進步和社會發展,人類與人工智能的共處應該成為常態,人類與人工智能應該成為準伙伴關系。新的倫理規則應該是以人類中心主義為主體的情況下,增加對人工智能這個準伙伴的一些約定。
一直以來,人類生存的原子物理空間的現實是由可能性所創造的,而人類的科幻創作擴大了人類的可能性,并將不可能變成了可能(如用影視方式模擬精神實驗)。在這個不可能的可能性的創造過程中,人類精神不斷超越物理時空而飛躍到一個由語言、文字甚至思想所建構的世界之中(比如讀科幻小說的讀者可以在作者用文字創造的意境世界中暢游)。如果說,隨著互聯網技術的出現創造出了一個更大的虛擬空間(這個空間因為非具身性等特征而將人類的虛擬空間無限擴大,把物理空間無限壓縮)的話,人工智能則是將這個虛擬空間變成物理現實的重要手段。人工智能的創造與歷史上人類其他工具不同,其他工具更多的是人的眼、耳、鼻、舌、四肢的延伸,而人工智能是對人類最高思維的模仿。在這個模仿中,如果僅僅是模仿的話,可能人工智能的這個機器只是人的工具,但如果人沒有在倫理約束下無限擴大這種模仿的話,這種工具一定會超越人,傷害人,還有可能成為人類的統治者。
從某種意義上,人工智能的發展是人自身欲望與克制矛盾的雙重展開。比如為了便利而以失去隱私為代價。在這個展開過程中,科幻小說、科幻影片等具有獨特的作用:一方面,它的故事展開以現實科技的發展為思維基石;另一方面,它又依靠創作者的猜測和想象來構建自己的意義空間。在這個獨特的空間中充滿了貪嗔癡慢疑的人性與真善美的人性沖突,這種沖突往往圍繞著科技是人類的工具還是人的本身不斷展開。從工具角度看,無論《黑客帝國》《機器姬》《人工智能》等科幻片中人類面臨多么大的威脅,現實世界的人類還是逐漸將主導生活的權利交給機器來決策判斷:離開導航系統,很多人不知道如何開車行路;離開機器診療,很多醫生難以判斷病情;離開實時監控心跳、步數的穿戴設備,很多人會懷疑自身的健康;離開智能手機,很多“低頭族”不知道如何消費大把時間;離開虛擬貨幣、虛擬客服,很多公司(物流、金融、電信等)的競爭力會大打折扣。從人本身的角度看,《黑客帝國》《機器姬》《人工智能》等科幻創造的影像中的現實(這個比特形式實現的電子事實正模糊著物理的和虛擬的邊界,使得一些網絡成癮的青年人往往分不清是現實還是虛擬),如果現實物理世界提供的產生這些影像中現實實現的條件足夠的話,那么影片中的警醒將會變成真正的事實,人類可能會真的面臨被奴役、被屠殺的局面。
如果說人類能取代恐龍,那么機器為什么就不能取代人類呢?當人類真的只是芯片形式存在,并沒有物質身體的時候,有誰能說人類是獲得了幸福還是失去了幸福(正如莊子所講的是人化了蝶還是蝶化作了人)呢?或許,科幻創作的價值就在于,人類自主創造出一個世界,同時又毀滅另一個世界。生滅之間,是現實和未來的展開,是可能與不可能的交織,是即生即死、復生復死。
本研究從科幻作品的視角對人工智能倫理問題進行了探討。得出的基本結論是,按照主導人工智能發展思想的標準,可以把科幻作品分為符號主義的人工智能作品、連接主義的人工智能作品、行動主義的人工智能作品;這些作品往往是以反思人工智能倫理問題展開的,在人類中心主義的主導下,人工智能得以快速發展,而這種發展內在地會導致人類的滅亡,從而徹底埋葬人類中心主義。要走出這一困境,我們從哲學和社會學兩個維度對人工智能倫理觀進行了考察,從哲學維度看,在人類沒有獨立自我的前提下,人工智能倫理問題即人類與智能機器相處的關系問題是沒有終極答案的;從社會學維度梳理幾種常見的倫理觀:人工智能對人類生活不會影響、不同利益主體對人工智能倫理問題判斷不同,人機接口的傀儡主義等。本文的最終結論是,人工智能倫理問題的構建需要對機器保持敬畏,人類與人工智能應該是準伙伴關系。
在人工智能是人類的福音還是噩耗的問題上,科幻作品給了我們無限的想象和創造空間。對科學家來講,還有許多現實任務有待完成。這個現實是,我們當前的人工智能時代是人機共存的時代。這個時代人工智能的任務可能是,如何讓人類的感官與機能的功能范圍依托機器而更加廣闊靈活,如何讓人類的信息交流、學習方式乃至生命形式產生質的變化。從上述變化的角度來看,本研究還有很多不足之處或遺留問題。這些問題主要有:人的最高本質如何實現?人工智能的自我意識何以可能?如何回答人工智能的生成機制問題?人工智能如何與宗教融合發展?如何避免人工智能把人的高級思維活動變為低級的物理電子活動?如何評價人類的存在形態、價值觀念、思想意識的變化?人工智能與人的心靈體驗有何關系?而對上述問題的回答需要自然科學學者與人文學科的學者共同來解決。“我們只能看到眼前很短的距離,但人類有很多事情要做”(We can see only a short distance ahead, but we can see that much remains to be done),這是人工智能鼻祖圖靈在其論文《計算機器與智能》末尾的一句名言。做好現在,才能創造更好未來。