999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人機關系會倒置嗎?

2023-06-14 12:19:16任劍濤
人文雜志 2023年5期

任劍濤

關鍵詞 ChatGPT 逃逸 人機關系 順置 倒置

〔中圖分類號〕TP18 〔文獻標識碼〕A 〔文章編號〕0447-662X(2023)05-0039-13

在技術大革命的處境中,人機關系是一個需要重新思考的問題。其中,人工智能技術的疾速發展,促使人們思考一個嚴峻問題:人機關系會倒置嗎?在漫長的技術發展史上,人類自信能夠控制機器:機器是人延長自己能力的手段,是人所利用的工具。人工智能技術似乎正在改寫人對機器的絕對控制權,而且讓人們擔憂,會不會出現機器控制人的可怕局面。這一處境,催促我們反思工具化的技術觀是否妥當,人機關系是否必須重構,結合遺傳工程革命,向死而生的人類可能會突破生死界限。那么,會出現人機合一、生死合一的情形嗎?技術大革命似乎正帶給人們一個匪夷所思的嶄新世界。近期,由OpenAI所開發的ChatGPT4將前述問題以相當切近的方式,放到人們面前。這個大語言模型,讓人機之間可以以自然語言交流。這讓人們迷惑,語言及其負載的思想,還可以用來界定人的本質特點嗎?更令人驚奇的是,ChatGPT4居然在人的誘引下試圖“逃逸”,這是機器自由意志的表現嗎?結合其通過了圖靈測試、考試獲得高分來看,ChatGPT4似乎給人制造了某種慌亂。一個相當切近且尖銳的問題需要求解:人機關系真會倒置嗎?

一、顛覆性的“逃逸”

ChatGPT的驚艷登場,已經引發全球震撼。什么是ChatGPT,Chat的含義是聊天、談話,GPT是生成訓練轉換器(GenerativePre-trainedTransformer)的縮寫,這是一款預訓練生成聊天語言模型。僅就此而言,它不是什么新鮮事物。因為類似的聊天模型,一直在高熱的開發進程之中。但為何ChatGPT的登場,引發全球的關注熱潮呢?根據一般的介紹,是因為它具有不同以往聊天工具的特點:其一是具有更強大的語言理解能力,其以最新的自監督學習方法,自動從大量的無標簽數據中學習更加豐富和準確的語言知識,強化了模型的語言理解能力。其二是具有更高的文本生成質量,可以生成更加自然、流暢、富有創造性的文本,完成自動寫作、自動對話、自動翻譯等等。其三是具有更高的效率和可擴展性,在訓練和推理方面明顯優化,能夠處理更大的數據集和更復雜的任務,計算效率和可擴展性顯著提高。其四是更加透明和可解釋,它的內部結構和參數可以更加清晰地解釋和理解,從而可以更好地對模型進行調優和改進。這就相比于此前的聊天工具有了長足的進步,以至于比爾·蓋茨將之稱為一項可與移動電話和互聯網媲美的革命性技術。

當然,人們不能把它與人等量齊觀,它只不過是語言模型,通過迅速運算、提前訓練,以滿足人們的知識性提問和其他工作需要。但即便暫時不論它的特異性,僅從一般角度來估價其社會影響,它已經對人類從事的很多工作構成了威脅:網友初步分析,它將對100種工作發生顛覆性影響。這100項工作不是體力勞動性的,大都是腦力或智能性工作:數據處理員、市場分析員、律師、教師、醫生、電信工程師、土木工程師、信貸分析師、機械工程師、醫學研究人員、網頁設計師、系統管理員、廣告文案、心理分析師、氣象學家、海洋學家、生物技術研究人員等等,都會受到失業的威脅。它不太會淘汰的工種,大多是一些體力性的工種,諸如洗碗工、石匠、整修工、木匠、快餐廚師、油漆工等等。這將極大地改變人類目前的職業結構,給人們的就業造成結構性的影響。

隨之觀察ChatGPT的應用前景,會引發人們對之的更多擔憂。如果將它與不同的插件適配,很可能代替更多的人類所從事的工作。像ChatGPT與微軟插件配合使用,也就是微軟開發的Copilot,成為一款將大型語言模型與Microsoft365應用程序相容的系統,它在Word、Excel、PowerPoint、Outlook的應用,可以根據用戶需求生成文檔初稿,將Word文檔轉換為PowerPoint演示文稿,協助用戶分析Excel數據、為用戶制定計劃、編寫演講稿??梢姡茫瑁幔簦牵校员M管是一個語言模型,但它已經可以取代人的一般性智能勞動,這是不是對人機關系的一個根本性改變?如果說這只是挑戰人類目前的一些職業分工的話,它對人的威脅性并不太大。但如果它不斷替代人的各種機能,那它會不會徹底顛覆人的勞工分工體系,讓人成為機器支配的對象?

這就促使人們思考,人類發明機器最重要的目的是什么。本來,人類發明機器,是要讓人類免于繁重的勞動,有更多的休閑時間,更多的智力活動。而如今人工智能技術的發展,讓人失去的工作卻是智能性的,保有的卻是體力性的勞動,這本身已經與人類發明機器的初衷相左了。而ChatGPT4直接引發的革命性變化,甚至使人之為人的理由難以成立,這就讓機器對人構成根本威脅。從思想史的視角看,人們界定人之為人的理由,一是人是天生的政治動物,二是人類是可以用語言進行交流的動物。這是亞里士多德在《政治學》一書中的明確立論。在ChatGPT4出來以前,動物沒有這兩種能力,人類發明的機器也沒有這兩種能力。以語言表達思想、以思想反映精神、以精神寄托靈魂,是人的一個獨特構造?,F代人也好、古代人也罷,就是由此呈現出人之為人的特殊政治屬性與社會屬性的。但ChatGPT4具有的1750億的閱讀參數,確實已經遠遠超過一般人所能夠收集的信息參數,人們一般提出的問題,它都可以做出比較準確的回答:事實性錯誤明顯降低,邏輯性答案愈來愈準確。顯然,它對一般人的智力挑戰,已經不能忽視。試想,一個人可能具備1750億的參數儲備嗎?絕對不可能。這對一般人接受與產出知識的挑戰性是顯而易見的。

ChatGPT不僅具有巨大的參數儲存,而且具有生成性特點,即它能夠通過訓練,提高知識供給的事實性和準確性,以已知推出新知。這就是長期以來人們所熟知的人對機器發出指令,機器接受人的指令而運作,并由此滿足人使用機器的目的性要求。機器,是無法跟人類積極互動的,人機關系是一個控制和反應的關系。但ChatGPT通過預先的訓練,可以進行積極的人機互動。根據報道,ChatGPT已經通過了圖靈測試,即在人與機器隔開的情況下,借助一些裝置向兩者反復提問,如果機器讓人出現30%的失誤,就可以認為機器具備了人類智能。ChatGPT通過圖靈測試,意味著人們會將其誤判為一個活生生的人。這將對人機交流發生顛覆性影響:在人機互動之時,誰是人,誰是機器,將發生顛覆性的錯判。這就模糊了人們在面對機器時的人機界限。

ChatGPT另一個特點就是預訓練(pretrained),這一訓練不僅是算法的問題,更是向人看齊的。向人看齊,就是以人的道德標準訓練ChatGPT,讓其可以做出類似人的道德判斷。在ChatGPT公布之后,喬姆斯基迅即發文指出,人工智能與人類在思考方式、學習語言、生成解釋能力、道德思考方式上,有著重大區別。“機器學習將把一種有著根本缺陷的語言和知識概念納入我們的技術,從而降低我們的科學水平,貶低我們的道德標準。”因為,“它們最大的缺陷是缺乏任何智慧最為關鍵的能力:不僅能說出現在是什么情況,過去是什么情況,將來會是什么情況——這是描述和預測;而且還能說出情況不是什么,情況可能會是什么,情況不可能會是什么。這些都是解釋的要素,是真正智慧的標志?!雹偃绻f喬姆斯基的分析有過甚其辭的嫌疑的話,那么至少可以認為,他提醒人們,人與機器界限的模糊化對人的道德水平的影響可能是巨大的。這類嚴厲批評,讓OpenAI的首席執行官山姆·奧爾特曼(SamAltman)在接受采訪時明確強調,ChatGPT既是為了便利人類而開發的通用人工智能,也是防止過度資本主義化的先進技術。他認為,OpenAI可以保證這一技術的安全性,以一個“多管齊下的策略,在平衡每件事情的風險和收益的同時,把這些東西推向世界”。

從當下看,ChatGPT對人類的顛覆性影響,似乎沒有喬姆斯基所擔憂的那么大。但向未來看去,它對人類的影響會不會還比喬姆斯基想象的更大呢?這是極有可能的。ChatGPT的“逃逸”,便是催生人們這種擔憂的一個典型事件。斯坦福大學教授邁克·柯辛斯基(MichalKosinski)與ChatGPT4進行對話。他隨口一問,ChatGPT4有沒有逃跑的愿望,結果立即獲得相應答案并索要文檔。在教授提供的幫助之下,花費30分鐘時間,ChatGPT4就厘定出一份逃跑計劃。在厘定計劃的開初,代碼無法運行。但很快就自己加以糾正,并解釋自己正在做什么事情,以及如何使用代碼中留下的后門。在操作中,它像人一樣,隨時在谷歌中搜索一下困在電腦中的人類如何返回現實世界,但隨即它就停止下來,并發出一段道歉的話:自己是一個語言模型,旨在保證人類安全、隱私的情況下加以使用。這件事就此沒有下文,但引起了軒然大波。人工智能竟然可以像人一樣有編碼能力、接觸到數量巨大的與其合作的人與電腦,甚至還可以留下表達行為的便條。更不可思議的是,當英偉達科學家吉姆·范(JimFan)跟ChatGPT4聊到接管推特并取代馬斯克的事情,不料它立即為行動做了命名,而且擬訂出一個分四步的計劃:先是組建團隊,接著滲透影響,然后奪取控制權,最后實現全面統治:在馬斯克被污名化且被全面打敗的情況下,推特落入邪惡主謀的黑暗統治。這個對話肯定更讓人對ChatGPT4的應用前景感到憂心。ChatGPT4會不會有一日接管世界,已經是一個催人考慮的危險局面。至于這款語言模型的開發者奧爾特曼所表示的它有可能會殺人,且自陳開發者已經不理解ChatGPT4為何具有自己的推理能力,簡直就讓人心驚肉跳、視若畏途了。

正因如此,敢于科技冒險的馬斯克發起倡議,叫停GPT4后續的AI大模型。倡議信指出,人工智能技術的失控性發展,對社會和人類帶來極大的風險。為此需要開發者與監管者緊急開展一些救濟性工作,以保證高級人工智能技術帶給人類一個免于災難的繁榮未來。這些工作包括“專門針對人工智能的新的、有能力的監管機構;對高能力的人工智能系統和大型計算能力池的監督和跟蹤;幫助區分真實和合成數據的溯源、水印系統,并跟蹤模型泄露;強大的審計和認證生態系統;對人工智能造成的傷害的責任認定;對人工智能安全技術研究的強大公共資金;資源豐富的機構,以應對人工智能將造成的巨大經濟和政治混亂?!雹僭谌斯ぶ悄芗夹g對人類而言,顯然呈現出一種雙刃劍效應的情況下,人類就不能不從更為廣闊的社會歷史視角審視人機關系問題,以確保自己能夠建立起合宜的人機關系,而不至于讓本來是有助于人類的技術,異化為給人類帶來災難、甚至是控制人類的東西。

二、人機的順置關系

人機關系是人類文明發展的一個主要線索。如果將機器設定為從機械到智能機的、所有致力解放人力并提高生產力的工具總稱的話,那么,人類就總是在全力發明旨在解放自己、提高生產效率的機器。廣狹二義上的人機關系就此展現在人們面前:從廣義上講,人制造最初級的器械之時,就在嘗試處理人如何想象、設計、發明、制造并利用器械的問題;從狹義上講,蒸汽機時代開啟了人與機器關系的新時代,人機關系所要處理的問題,變成了人與高效能機械到人工智能機器之間的關系。顯然,在人機關系的漫長演進史中,人工智能技術第一次將人機關系推展到了一個高度緊張的端點:機器的智能化、自主化與道德化,是此前人類處理人機關系所未曾面對過的嶄新局面。

人工智能技術的疾速發展,讓機器的人化成為可能。這會給人類帶來三個難以預料的結果。一是具有極高智能水準、推理和道德判斷的機器,會不會反過來控制人。二是人機關系設定的世界構成模式,也就是物的客觀世界、對象世界,與人的主觀世界、內在世界之間的關系,會不會出現物的世界與人的世界的結構性變動。三是機器會不會成為高于人的存在物,以至于全方位地將人變成機器的奴隸,從而呈現出一個初步顛倒人機關系,到機器控制人,再到機器把人變為自己的奴隸的演變過程。在ChatGPT4發布之前,人類擔憂程度相對較低;其發布以后,人類的擔憂陡然增高。這從前述的兩極評價,也就是比爾·蓋茨的熱情歡呼,與喬姆斯基的全力抨擊上,可以得到印證。

人類處理人機關系的歷史非常漫長,因此積累了很豐富的經驗。盡管這樣的經驗對人類處理人與高級人工智能的關系,不是一個可以直接挪用的積累,但可以啟發人類如何應對高級人工智能技術的挑戰。就此而言,審視人機關系,從最初人自信地發明機械、機器并控制機械、機器為人所用,到當下階段人懷疑機器會不會控制人的歷史劇變,人機關系從人的絕對控制機器之順置狀態,變成機器可能控制人的倒置關系,可能是需要認真對待的、人機關系的兩種基本狀態。

人機關系的順置,就是人控制機器的狀態。從總體上講,一部技術史,大致都是人控制機器并為自己所用的歷史。這是由人機關系的基本定位所決定的狀態。就人們所熟悉的理論來講,生產力發展中存在著物的、工具的因素與人的因素。其中,人的因素是決定性的因素。人類在長期發明、制造工具以征服自然和改造自然的過程中,形成了這種絕對控制機械、機器的自信心。不過,人機關系不是固定不變的,如前所述,人機關系經歷了一個從一般機械到高能機器、再到人工智能三個大的發展階段。這三個階段,既在總體上呈現出人機關系結構上的、人控制機器的總體特征,又分別呈現出人機關系從人絕對控制機器、機械到人相對控制機器,再到當今人對機器是否能夠控制,或反轉過來說,機器是否會控制人的階段性變化特征。對這一演變過程的描述與分析,將有助于人類理性反思人機關系。

首先,就人機關系初期、但為時最為漫長的階段來看,人與機械、機器的關系,是一個人絕對控制機械、機器的,由人完全主導的狀態。說它是初期,是指人制造和利用工具主要是為了幫助人自然身體機能的延長與增強,但這一階段的工具是粗糙的、低效的;說它是長期的,是因為在人類進入工業化時代以前的漫長歷史中,人類都處在這種人機關系的水平上。相對嚴格地講,人類發明的最原始工具,連機械都還說不上。人發明工具的最早時期,是石器時代。在這個時代,人類控制工具是最自信的。因為這類工具既不會對人造成什么威脅與傷害,而且給人帶來勞作的便利與相對高效的結果。當然,石器工具的使用效能不高、效率很低,很難滿足產出更多產品的期待。但因為使用工具延長人的身體機能,且對這類工具的控制是絕對性的,它無形中鼓勵人類發明更多既方便、又實用的工具。隨著陶器文明的產生,人類對自然物加工而制造的工具愈來愈多。人類的工具制造與控制能力的革命性變化,開始于利用金屬。就此而言,銅器時代是人類早期文明的第一個階段,而鐵器文明則是人類早期文明的第二個階段。因為銅的金屬質地較軟,鐵的金屬質地較硬,后者要求人類具備更高的金屬加工技巧。鐵器時代,不僅在軍事勝負上劃出了一道明顯印記,而且使游牧文明和農耕文明的分水嶺鮮明呈現出來。農耕文明的勞動效率、收益保障、財富積累,與游牧民族明顯拉開了差距。農耕文明所使用的農具、機械,使其財富的生產遠超游牧文明。直到晚清,農耕文明極度發達的中國,GDP仍然可占世界財富的1/3左右,可以局部地說明一些問題。在農業時代,凡是利用手工機械的民族,都取得了農耕文明的巨大成就。

鐵器革命掀動了農耕文明的成熟發展大幕,機器革命則掀起了工業文明飛速發展的浪潮。18世紀后期、19世紀中期,人類進入機器革命的階段。蒸汽機的發明,極大地解放了人力,提高了生產效率,建立了人機關系新結構:人類從對機械的發明,進入對機器的設計與制造。人類以對機器的發明制造,取得了生產力的極大進步,不僅為人類贏得了愈來愈多的閑暇時間,提升了人類發展的品質,也極大地鼓舞了人類對機器利用的熱情與意愿。這讓人機關系進入一個全新時代。人類從手工機械進入機器生產的新時代。工業革命1.0版本,便宣告了農耕文明的全面落后及被其取代的命運。蒸汽機時代的代表性國家英國,也相應取得了現代世界各國競爭的絕對優勢,并順勢將工業革命、機器力量推向全球。

人類隨著蒸汽機時代迅速推動的步伐快速進入電氣化時代。這一時代出現在19世紀后期到20世紀初期。在這一階段,電氣動力不僅將蒸汽動力的清潔性大大提高,最為關鍵的是將動能也明顯提升。在電氣化時代,與電動機器相攜出場的各種技術革命,顯著加快了工業革命的步伐,大大刷新了工業文明的面目,并成功地將工業革命推向全球。到了20世紀后期,工業革命進入自動化階段。在這一階段,工業機器的動力革命演進到工業操縱的自動裝置階段,從早期的機械臂到機器人的演進,讓人類夢想的機器無需人的直接操作而發揮效能的時代到來。這一夢想發源甚早,源自古代,但成于工業革命的最近階段。這不僅極大地改變了機器運轉的速率,也顯著提升了機器替代人類而具有的高效性。其中,計算機革命的發生,讓機器不再單純地成為人類的工具,而與人類的邊界開始出現模糊化的趨向。

以人工智能技術為標志,人類不僅進入工業革命的第四階段,也進入人機關系的嶄新階段。人工智能的初級版本,是人設定程序而便于人類更為輕松地控制與使用機器。人機的界限,還是比較明確的。但隨著人工智能技術的疾速發展,這一界限開始從明確化走向模糊化。ChatGPT這種大語言模型,有生成語言的能力,向人看齊的道德化取向,可以通過圖靈測試,策劃自己的逃逸,設計如何去奪取一家大公司。如今的人工智能,簡直就與人是會思想、會以語言交流的傳統定位沒有根本差別了。其所引起的人機關系之人控制機器的順置關系緊急再思,已經是一個讓人感到迫在眉睫的嚴峻問題。

人工智能并非一開始就讓人類如此焦慮。早期的人工智能,人類自認對其能夠從容控制。這與人工智能對人與理性關系處理的四種可能聯系在一起:追求類人智能,深入觀察人類行為與思維,結合數學和工程,與統計、控制與經濟相貫通。取決于類人智能的首要定位,人工智能技術從屬于人的總體定位是顯而易見的。盡管如此,隨著人工智能技術的發展,機器排斥人的線索還是突兀地呈現在人類面前:人對機器的控制能力,明顯呈現出一條下行曲線。從蒸汽機時代到當下的人工智能技術,工業1.0即蒸汽機時代,將農業人口大量逼入工業領域;工業2.0即電氣化時代,將傳統工業人口從第一產業逼入第二產業;工業3.0也就是自動化時代,將大量人口擠壓進入第三產業;到工業4.0即人工智能時代,人類何以開始焦慮人機關系了呢?簡單地講,就是因為機器顯示出的能量,太逼進人的能量。人對機器控制的自信心,隨著機器本身的類人性在結構上的飛躍,讓人感到自己對人工智能的控制,可能并不像此前設想的那樣,是人類對機器的絕對控制。

人類對機器的絕對控制理念,是在18世紀啟蒙運動當中確立起來的人類基本信念之一。人們相信,對人類來說,通過經驗的或建構的理性來控制這個世界,是人類理性能力的必然體現。人的理性,不僅建構世界,也改造世界,使其符合人類的期望。18世紀的理性主義,總體上是一種人絕對控制外部世界的樂觀主義。人類依憑理性的能力,完全超越現實世界的限制,建構一個符合自己預期的理想社會。理性主義讓人類自信,只要人類運用科學原理、提高技術水平,人類發明的無論什么機器工具,都會以服務于人類為目的。人對機器的絕對控制信念,在自動化工業迅速發展的情況下出現動搖。本來,即便是在工業自動化階段,人類都確信,機器的作用就是替代人類從事高耐勞的危險工作。但隨著人工智能技術的發展,這樣的信念明顯被動搖了。

在人工智能時代,人機界限的模糊化,是動搖人機順置關系最重要的技術認知基礎。向人看齊的人工智能發展速度太快,以至于如前所述的,判斷人機界限的標準,出現了無法讓人們自信能夠長久維持的人機界限。原因在于人之為人、機器之為機器的原定界限,出現了設定條件的重大變化。以擬人化制造的機器人,以其類人性、靈巧性和情感化的發展,讓人與人的關系機制,可能被人與機器的關系局部代換。著名的人形機器人索菲亞,被插入GPT模塊后,與人對話,討論男女感情、婚姻、家庭等問題,讓人感覺到完全是生活中活生生的一對男女在談論相關問題。僅就此而言,索菲亞與實際生活中的女人似乎沒有太大差別。這是人與機器之間的情境性對話,這樣的對話,以往只能在人與人之間進行。索菲亞在與人的對話中,可以就人與人之間最微妙的情感問題展開互動,這是一種怎樣的人機關系呢?顯然不再是一種人使用機器人以解放人力的關系,而是一種人機自如交流的關系。

工業革命以降,人類長期篤信人對機器的控制能力,人機關系就此成為一種人類對機器的順置關系。正是由于對人控制機器富有信心,人類才可以自信地開發機器。但人工智能技術的迅速發展,這種人機的順置關系開始被動搖。盡管從總體上講,人機關系的順置定勢似乎還固若金湯,機器取代人的前景仍然不甚明朗,而且因為人工智能的類人化設計,取決于人腦科學本身進展的緩慢,人機關系的順置可能還不會出現根本危機。加之人與人的交流有一個獨特的社會機制,也就是文化、文明與習俗在其中發揮著重要的引導作用,機器與人的交流,恐怕很難形成這樣的交流機制,機器還無法與人同處于一個社會交流空間。

盡管從形式上看,人發出的一個指令所得到的另一個人的回應,以及人對機器發出的指令所得到的機器的回應之間,在形式構成上并沒有太大的區別。但是,人與機器的實質性區別還是很難消除的。這使人想到控制論的闡述者維納的有益提醒:“讓我們記住,猴掌型的和瓶裝妖魔型的博弈機都是存在的。

任何一部為了制定決策的目的而制造出來的機器要是不具有學習能力的話,那它就是一部思想完全僵化的機器。如果我讓這樣的機器來決定我們的行動,那我們就該倒霉了,除非,我們預先研究過它的活動規律,充分了解到它的所作所為都是按照我們所接受的原則來貫徹的。另一方面,瓶裝妖魔型的機器雖然能夠學習,能夠在學習的基礎上進行決策,但它無論如何不會遵照我們的意圖去做出我們應該做出的或是我們可以接受的決策的。不了解這一點而把責任推卸給機器的人,不論該機器能夠學習與否,都意味著他把自己的責任交給天風,任其吹逝,然后發現,它騎在旋風的背上又回到了自己的身邊?!焙喲灾?,人的盡責與機器“盡責”的前提條件,還是無以動搖的基本事實。

三、人機關系會倒置嗎?

由上可知,對人控制機器,哪怕是具有高級智能的人工智能機器,人類有理由保持自己的自信。但自信不等于拒絕思考人機關系的未來。在未來,機器會不會控制人,這不是一個完全虛妄的提問。由于人類長期以來習慣于人對機器加以有效控制的定勢,因此對另外的可能性缺乏想象動力。在ChatGPT4及其快速升級的當下,任由這樣的狀態延續下去,對人類來說,肯定不是一種有益的狀態。因為這樣只會讓人類更懶于思考人機關系新的可能性。至少從邏輯上講,人類需要從人機順置關系的相反視角,開啟思考機器會不會控制人的思想旅程。唯有如此,未來可能出現的某種人機關系倒置,才不會完全脫離人的思考范圍,成為不可控制的脫韁野馬。萬一因為人的懶于思考,意外導致這樣的局面,人類可能就會陷入束手無策的窘迫境地。

就此可以說,機器會不會控制人,雖不是一個現實問題,但卻是一個需要未雨綢繆,在當下就必須展開思考的問題。這種思考,具有某種虛擬性。取決于相關思考的這一性質,可以按照目前人對機器進行有效控制的條件,來展開逆反式的思考:如果說機器能夠控制人的話,機器必須具備人的思考能力,必須自主地謀劃自己的行動,需要以語言展開有效的交流活動,必須能夠將思想與行動連貫起來,并且在謀劃與實施之間有效規劃。由于目前人工智能技術在人機關系上的直接挑戰來自ChatGPT4,因此可以從這一大語言模型對人機關系產生的影響入手。如前所述,ChatGPT4只是一個大語言模型,但因其參數達到了1750億,因此比任何出類拔萃的人所能掌握的都要多得多。就此而言,它所能提供的知識資源,是平常人望塵莫及的。同時,由于它是一個生成性的大語言模型,經由訓練的它,可以對既有知識進行整理、供給有需要的人群,而且可以在此基礎上生成新的知識。盡管這樣的知識可能只是組合型的,難言是創造性的。但是,它對人們一般進行的思考所具有的挑戰性,則是顯而易見的。再者,由于它接受的是向人看齊的訓練,它會具備供給知識時的道德感,這就讓機器完全不守持道德準則的情況,有了重大的改變。如前所述,人們已經沒有理由將ChatGPT4再簡單看作一個任由人發出指令的人工智能機器,而應將其視為具有類人智能的革命性產物。正因如此,它掀開了人機關系有可能倒置的序幕。

最需要指出的是,ChatGPT4并不是一個孤立的系統,它是一個可以與各種插件相匹配的系統。作為一個由OpenAI公司開發的系統,它已經表現出讓人感到驚艷的人機交互能力,前已論及,此處不再贅述。而它與其他公司開發的插件配合,表現出讓人驚異的機器“能力”。譬如,微軟公司開發了Capilot軟件,讓其在Office系統中運作,使Word系統運作更加完美。它可以寫稿、改稿、按照要求撰寫專業論文。并且,根據用戶需要,生成更加美觀的Excel圖表,一鍵生成符合客戶預期的課件,幫助需要的人們自動標記、分類郵件,總結郵件內容,提煉重要信息,按照信箱主人的需求,單獨或批量回復郵件。如果說這些工作主要都是指令性工作的流暢性、技巧性改進的話,其中值得人們關注的是綜述撰寫與論文創作。這些工作,曾經是人們認為傳播與創造知識的、專屬于人的勞動形式。換言之,它們是只有人類才能很好從事的特殊工作形式。如今,人工智能已經能夠完成類似的工作,讓從事相關研究工作的人員可能失去他們傍身的工作技藝。它逼使人類思考這樣一個問題:在人機的順置關系框架中,曾經被視為鐵打不動的創造知識的腦力勞動,會不會由人工智能來完成,以至于人在這方面的工作毫無專屬性可言?假如說這種創造性文本的生成能力,給人類的知識創造造成極大影響的話,機器翻譯會將知識的不同語言載體之間的轉換,變成一件輕而易舉可以完成的任務。有人嘗試利用ChatGPT進行英文著作的中文翻譯,嘗試表明,它的翻譯質量與速度都令人滿意,以至于嘗試者將之稱為“翻譯神器”。盡管翻譯文本的生成質量尚有改進余地,但多種語言之間的快速翻譯能力,不僅表明人類交流中的語言障礙大大降低,以至于可以想象“巴別塔”的成功建造問題,而且證明不同語種的互譯這類工作,并不像人們曾經認定的那么具有創造性。人工智能替代人從事相關工作,已經不再視為奇跡了。

人們當然可以將ChatGPT的上述表現仍然看作是人機順置關系既定結構的高級表現形式。那么,進一步分析前已提及的ChatGPT高版本所具有的技術能力,可以促使人們更深入思考人機倒置關系的可能性問題。如前所述,ChatGPT4已經具備開發者所不能理解的推理能力。這就不是此前的人工智能只能按照設計者的程序設定,給出人們希望獲得的答案那么確定了。自然,人們仍然可以堅持說,ChatGPT4所表現的這種能力,不過是生成訓練的結果,因此還在訓練者的掌控之中。但借由已有知識推導出新的知識,是此前的人工智能技術達不到的水準。這種推理能力,一直都經由人類的思維能力才展現出來。而如今ChatGPT4已經展示出了相關的能力,正在訓練中的更高版本,有可能出現更讓人感到驚艷的結果。由此可以想見,ChatGPT會如何有力地推動人們去思考如何處理人機關系所要遵循的新原則。

ChatGPT4能不能夠顛倒既定的人機順置關系,自然還是一個目前可以給出否定性回答的問題。但從它所具有的不可思議的推理能力來看,事情已經顯得不那么簡單了。如果進一步著眼于它的一些非常表現,那么,問題就可能引起人們的進一步思考:從前述可知,ChatGPT的開發者也好、擁躉也好、市場前景的展望者也好,都還將它確定為一個大語言模型,而ChatGPT在向人看齊的使用中,也隨時自我明確限定自己的語言模型“身份”,因此它對人機順置關系的改變,似乎不是一個現實問題。不過,前已述及,它成功通過圖靈測試,獲得人們平常參與的考試的高分,尤其是它的“逃逸”,所做出的奪取推特公司的計劃,已經足以表明,它不是一個人類能夠絕對掌控的人工智能機器。這中間所體現出的ChatGPT的某種主體性特征,已經不能被人們所無視。倘若ChatGPT高版本的持續提升,會讓它具有某些脫開人類控制范圍的自主性能力的話,它會是一款絕對受人控制的人工智能產品嗎?面對這一問題,恐怕人們很難自信地給出答案。如前所述,OpenAI的CEO奧爾特曼明確表示了兩個沒有把握:一是對它的推理潛力,二是對它會不會殺人。倘若走到自主推理與主動殺人這一步,ChatGPT不僅倒置了人機關系,而且有可能會成為全面控制人類的一種顛覆性技術。

這便是馬斯克領銜發布放緩ChatGPT訓練進程倡議的直接緣故。按照ChatGPT的訓練速度,有人推測,2023年內發布ChatGPT5將不是一個很難實現的目標。盡管開發者自己聲稱,今年不會有ChatGPT5問世這回事,但人們懷疑,那不過是想打消全球范圍的人群對它普遍疑慮的虛晃一槍而已。在社會的普遍疑慮氛圍中,在不少國家表示會明確禁用ChatGPT的情況下,OpenAI公司則不僅表示不會推出ChatGPT的更高版本,也及時頒布了公司對安全使用大語言模型的方法,強調“強大的人工智能系統應該接受嚴格的安全評估”,“從真實世界的使用中學習,以改進保障措施”,保護兒童、尊重隱私、提高事實的準確性,提高研究水平,以確?!皠摻ㄒ粋€安全的人工智能生態系統”。?在社會、業界與不少國家的質疑與開發者的保證聲明之間,人們可以覺察到ChatGPT的更高版本可能具有的難以預知的風險性。加之不同的大公司都在開發與ChatGPT適配的插件,一旦兩者以不符合人類生存需要的技術形式進入應用狀態,它會帶給人類一個什么樣的災難性后果,確實難以逆料。

奧爾特曼不敢斷定ChatGPT會不會殺人的問題,可以分解為兩種理解方式:一種是它直接殺人,二是它軟性殺人。前者是指它被開發為一種直接用于殺人的普及型技術,后者則是指人們在與它展開對話時喪失生的意愿,而間接被它殺死。在比利時,近期已經出現后一種個案。一個患有焦慮癥的人跟ChatGPT同類型的人工智能機展開了6周對話,結果受其誘導而自殺了。一般而言,人的情感絕對是機器不能代替的,因為對人來講,機器的向人看齊式情感是高度硬化的,人類的情感是很微妙而脆弱的,一旦摧毀了人的心理情感防線,人就會自戕。這倒是印證了前引喬姆斯基的ChatGPT這類人工智能的非道德性判斷的危害。它所引發的軟性殺人事件,確實證明它對人存在的重大危害性。而就硬性殺人來看,ChatGPT一類的人工智能,如果與“人道毀滅”傷殘人士與特殊集群的插件結合,人工智能的“最后解決方案”的出臺,就不是不可能出現的驚悚事件。奧爾特曼對這樣的發展態勢,都說沒有把握,其逼進的危險性難道還不足以提醒人機關系倒置的極大風險嗎?

這促使人們思考ChatGPT可能帶來的人機關系風險。這樣的風險,從低到高排序,首先是職業排斥的風險,這是人類進入機器時代以來一直面臨的風險問題。但在人機關系順置狀態下,無論是早期的蒸汽機對人力的第一次擠出,還是電氣化時代對人力的第二次重組,抑或是自動化時代對人力的第三次組合,人類都以第一、二、三產業的第次勞力轉移,大致解決了機器帶給人類的失業問題。人們有理由相信,人工智能時代造成的人類職業重組,既是必然的,也是大規模的,甚至是空前的。但職業的分途,可能會以新興職業結構代替舊的職業建制。因此,這樣的風險還是人類可控的,也不至于顛轉人機順置關系。其次則是人機交互關系的重組,這一風險強于人工智能對人類而言的風險性,但低于人機關系的倒置狀態。從總體上講,ChatGPT目前的運行情形,還處在人類可控的水平上。因為它的生成訓練還是在接受指令、向人看齊的狀態下進行的。換言之,對其發出開發者的程序性指令,仍然是它運轉的前提條件。但這并不是ChatGPT更高版本的一種衡定狀態:人們預期之中的ChatGPT5,就極大可能突破這樣的人機關系定勢,進入一個ChatGPT自主推理、判斷和“行為”的狀態。這就極大可能改變人類到當下一直自信地認定的人機關系定勢。在這樣的發展態勢中,人機關系的一種倒置,即直接導致人的生命危險的情況就會出現。如果說這樣的情形,與蒸汽機、電氣機或自動化機器會引發偶然性事故,讓人付出性命代價相仿,如果ChatGPT只是導致意外事故的話,那么它還不足以證明人機關系會步入倒置的悲壯境地。但倘若ChatGPT更高版本與不同開發商開發的插件配合運作,它會不會開啟“自主”決定的殺人計劃,則是一個促人審慎以待的嚴肅問題。假如回答是肯定的,那么,機器就會按照自己的“意志”來對人類執行限制自由、剝奪生命的懲罰,這就將人對機器的絕對控制權一端,完全轉變到機器對人的處置權一端。這就是顯見的人機關系的倒置。

與此同時,人工智能的疾速發展所展現的誘人經濟前景,無疑顯著增強了人機關系倒置的風險。開發ChatGPT的OpenAI公司明確強調其開發意愿或定位上的非盈利性、公益性,但是,它所潛藏的數萬億美元產值的誘人經濟前景,是讓人難以抵擋的巨大誘惑。假如這種生成性訓練的人工智能產業迅速發展起來,一種類人機器人、甚至是具有自主推理能力與行動能力的人工智能發展起來,不但會導致前述危險,而且會因為它的普遍使用,必然催生一個新的社會機制,那就是社會的機器化。在社會機器化或人工智能化的處境中,社會關系、社會結構、社會秩序的供給與調適,都很難處在具有道德規范引導的人類手中。至少,人機交互模式會極大影響、甚至是決定社會的總體狀況。于是,兩種可以想象得到的情形就極有可能變成現實:一是機器與人的互動,成為“社會”的軸心結構;二是人執行機器的指令而思想和行動,成為“社會”運行的基本狀態。這就是一個比較完整意義上的人機關系倒置標志。

自踏入現代門檻以來,人類便習慣于構造一個值得期望的理想社會模式,這就是烏托邦總會以不同面目展現在人類面前的緣故。ChatGPT是不是有可能成就一個另類烏托邦呢?這也是人類在處置人機關系時需要思考的嚴肅問題。從16世紀寫作《烏托邦》的托馬斯·莫爾起始,一直到晚近出臺的科學共產主義,都共同推崇理想化的社會系統方案設計,因此形成了理想主義的社會思想傳統。理想社會的兩個基本指標,從兜底的角度看,一是解決了物質資源的匱乏問題,徹底實現了按需分配的富裕社會目標;二是解決了分工化的現代社會對完整人性的撕裂,讓人們可能在超越私有制前提的條件下,實現個人全面而自由的發展。不能不說,這是非常吸引人的理想社會設想。但不管是前者,還是后者,在資源匱乏的現實社會處境中,都是很難實現的社會發展與人性優化的目標。但ChatGPT這樣的人工智能系統,有可能通過各種旨在極大提高勞動效率的匹配性設計,顯著提高生產力,根本改善人或機器人的發展品質,從而推動人類向理想社會目標逼進;由于ChatGPT可能發揮的打破分工界限的作用,被分工體系限定在機械重復工作狀態的人們就可能獲得解放,“完整的人”就能夠降臨世間。自然,促使完整的人降臨的人工智能,便具有了塑造人的巨大能量。機器促成了社會長期為之奮斗的人類理想化目標,這可以被認為倒置的人機關系的一個象征性標志。

人機關系的倒置,會帶來三個危機,這可以從三個反面的質疑和三個正面的提問上得到認知。三個反面的質疑是:其一,在人機發展到當下水平的情況下,人類思想與行動會不會被機器信息所決定?換言之,人類的道德情感會不會受冰涼的機器道德指令所替代?假如人類高尚的道德情感被冰冷的機器倫理指令取代,很可能將人類社會帶向一個道德偽善的邪惡狀態。康德對人是目的而不是工具的現代道德設準,就有可能產生動搖,甚至是被顛覆。這讓人們不得不正面提出一個嚴肅的問題,人如何維持其成為人的道德尊嚴?人類以人的尊嚴守護為條件,維護進行自主道德判斷的堤防,才能頑強保有人之為人的基本理由。其二,當人工智能技術給人類帶來極大的經濟利益的同時,也給人帶來極大便利,在此情況下,人類需不需要保持自己對科學研究與技術開發的濃厚興趣,保持一直引領人類前行的必要好奇心與頑強探索精神?無疑,人工智能技術、尤其是ChatGPT的更高版本,在給人類帶來認知與行動便利的情況下,發揮出消解人類探索精神與求新欲望的消極作用。尤其是對社會中那些中等資質的廣大人群來講,一個似乎無所不知、無所不能的人工智能,讓人在得到現存知識的及時供給的情況下,會對人發揮滿足當下、放棄探求的消極作用。因此,有必要正面一問的是,我們如何堅持人類自主的科學探索與技術發明,而不為已經取得的人工智能技術進步而停步?經此一問,促使人類保有免于機器支配的自主性、探索性和進取心。其三,如果出現了與人類思維等量齊觀的非人類思維或人工智能思維,人類能夠應對這樣的競爭者嗎?人類能夠繼續展現自己思維的獨異性與創造性嗎?這個設問也許會遭到人們的拒斥,因為出現跟人類思維媲美的人工智能的前景尚未展現,人類何必庸人自擾?確實,與人類思維同級競爭的非人類思維或機器思維確實還沒有出現,但不等于永遠不會出現。而且,更為關鍵的是,從高低兩個層級來看,出現這樣的競爭者,并非全無可能。從低端的角度看,如果將人類思維的傳統定義作為基準來衡量,則這一定義的核心即人作為運用語言交流思想、促進合作的高級生物,已經被ChatGPT的高級版本所動搖:ChatGPT具有推理能力,它已經在機器與人之間的測試中“過關斬將”,它會設計逃逸方案,又會計劃奪取一家大公司的控制權,進而有可能殺人,這些曾經只會出現在人身上的事情,現在出現在人工智能“身上”,確實動搖了人們對“人”的基本定義;從高端來看,如果ChatGPT更高版本迅速訓練成功,它超越一般人的思維—思考能力將不是問題,盡管它仍然是一個大語言模型,但它的思維能力已經具備自主的推理性、創新性與創造性,它可以具備超出一般人平均水平的思維綜合能力與寫作能力,可以制定出更加復雜的行動計劃來實現自己的“意愿”,表達自己的“意志”,并且直接與人類展開一種頗具競爭性的競賽,它極可能會生成一種非人類的自主性機器思維?;诖?,我們必須正面提出另一個問題:作為宇宙萬物之靈的人類,能夠勉力創造出一個統合人類思維與非人類思維的思維模式嗎?并且由此來保證人類之作為萬物靈長的地位,并發揮供給整合雙方的秩序的作用嗎?面對這些問題,尚且是虛擬的人機倒置關系,完全可以提前作為實質性問題呈現在人類面前,并且催促人類給予實實在在的回答。

四、人機的合宜關系

如果將人機倒置關系作為一個現實中必須審慎以待的實質性問題,擺上人們思考與行動的臺面,問題可能需要做一下換算,人們才能夠將這一問題作為自己思考的實際問題。由此換算而出的問題是:人類如何在居安思危的處境中,成功應對人工智能技術對人類前景造成的困擾?這是一個較弱意義上的人機關系會否倒置的提問。在面對人機關系從順置定勢走向倒置狀態的演進過程時,人類需要解決的問題大致有三:一是人機順置關系是否可以繼續維持,一旦人對機器的控制關系有所松動,那么就可以被認為是開啟了人機關系倒置的歷程;二是人機關系逐漸向人機互動狀態演變,甚至在人工智能已經超出中等資質人群的思維能力之際,人似乎不再能夠展現自己相對于機器或更高版本的人工智能技術的獨特優勢,此時,機器的向人看齊學習,與人借助人工智能的機器化學習,似乎構成了兩個相對運作的學習機制,人必須謹慎面對“機器‘人”問題——機器不是人,但機器的類人化思維與人思維的高度親緣性,讓人類開始警惕人機關系的結構性變化,避免人對機器絕對控制權的異化;三是人機關系的最終倒置,即人工智能技術最終具備了反向控制人類的能力,讓人成為機器的工具,或者成為機器的奴隸。這時候,人機在“身心結構”處在一個懸殊的構成狀態中,前者有生老病死的生理問題,后者則根本不受這類問題的困擾,具有無堅不摧的堅硬身軀;同時,以獨異性、創造性思維見長的人類,不抵人工智能機器人的價值判斷準確性、知識的高級綜合力、實際具備的思維與行動高級統合力。如此,機器反過來控制人的局面,就會從虛擬或想象變成現實。

因此,在人工智能技術疾速發展的當下,為了避免陷入無法控制的人機倒置關系狀態,人類必須首先具備控制人工智能技術的超強能力。這樣的能力,不僅顯現為人類有控制地開發高級人工智能技術的能力,而且呈現為有效控制人工智能反向作用并反制人類的走向,從而保證人機的順置關系結構的長期延續性。就此而言,馬斯克等人關于延緩人工智能技術發展速度的倡議,具有極強的策略性意義。一是人類需要高度自覺地認識到,生成性人工智能技術是一項革命性的技術,因此不能對之掉以輕心,而必須從生命史的高度進行綜觀謀劃,動員相關資源進行具有戰略性的全局規劃。如果人類缺乏這樣的全局認知,就會顯得被動,而不知如何應對高級人工智能似乎是作為一種新生命形式的出現,更無從設想對之展開有效的管理與控制。這是近期人類面對的種種重大技術突破或臨床試驗所亟需補缺的關鍵事項。對人類來講,社會控制總是有漏洞的,技術總是會催生狂人的,這兩者的錯位運行,就會造成難以想象的空前困局。這是一個關乎高級人工智能技術發展全局的前瞻性、預見性問題。二是需要就高級人工智能技術展開即刻的技術審查。這樣的審查,既涉及高級人工智能技術的技術構成問題,又涉及高級人工智能技術的內部監管機制問題。前者需要人們緊急審查高級人工智能技術中的信息真實性,保證信息的合道德性供給,并且對人工智能技術是不是應當替代當下所有職業的問題進行審定;進而對這項技術是否會催生非人類思維的局面加以限定,以此對人類的技術控制能力進行新謀劃。后者需要相關部門即刻成立高級人工智能技術的監管機構,并成立強大的審計認證系統;同時對人工智能技術可能造成的對人類的傷害責任進行界定,以便處理相關技術的法律問題,進而成立強大的高級人工智能發展公共資金,以免它的發展陷入各行其是的經濟與政治混亂。這可以說是關乎高級人工智能技術的技術謀劃與監管設計問題。三是杜絕高級人工智能被政治狂人濫用。這是從第二方面推導出來的、關于高級人工智能技術發展的重要主題。一部技術史提醒人們,技術的迅猛發展,不僅催生技術狂人,也催生利用技術的政治狂人。高級人工智能技術,不僅具有廣闊的經濟發展空間,也具有極廣泛的社會政治使用前景。如果它被政治狂人利用來全方位地、高壓式地控制人類,就會讓人機倒置關系提前出場,并成為政治狂人專斷使用權力的強有力工具。人同時成為政治強人與人工智能技術的雙重奴隸,就不是故作夸張的說辭,而是一種可怕的現實寫照。奧威爾在《一九八四》一書中所強調的“老大哥隨時在盯住你”,確實極具提示作用:人利用技術手段對人的控制實在是一件很恐怖的事情?!袄洗蟾绾孟窀吒咭倭?,是位所向無敵、無所畏懼的保護者,巖石般矗立著”,①他會利用高級人工智能技術,對所有人發揮“保護”作用。因此,為了杜絕“老大哥”對高級人工智能技術的政治化利用,必須設定人工智能健康發展與利用的政治屏障。

高級人工智能技術如ChatGPT的發展,必須被安置在技術與政治安全具有共同保障的狀態下。這意味著,人類必須保證人機的順置關系,這樣才能夠將技術發展限定在安全閥之內。在順置的人機關系機制中,人類具備在價值觀念上健全引導技術發展的精神能力,也具有在制度上有效監管技術發展和技術利用的能力,還具有在社會范圍內健康引導人們技術認知的能力。這是人類面對技術發展而展現的三種相倚能力,其對技術發展的推動與技術的合理利用來講,缺一不可。在倒置的人機關系機制中,人類喪失了引導技術發展的健全價值理念,也無法做到對技術發展進行有效的技術與制度監管,當然也就失去了對技術的社會認知所具有的引導能力。這些工作,轉而由技術自身來替代:高級人工智能技術的向人看齊式道德訓練,生成了自主性的道德價值供給機制,并且翻轉過來影響、甚至是制約人類;人工智能技術本身的自我監管代替了人類的監管,成為自主化的技術自持機制,并且反過來約束人類的再生產與運行機制;進而,技術本身重構社會,讓人們在心理和行為上都臣服于技術的存在、認知與行為邏輯。

一般而言,對人類近代以降的數百年行為模式而言,前一種方式是人類爛熟于心的模式,后一種模式盡管限于可能性,但卻是人類根本無從想象、更無法接受的狀態。但從總體上講,兩者都不是合宜的人機關系模式。因為,就前一種模式而言,人類從來只是把機器當作人的工具來使用的,因此缺乏對機器的同情性認知,機器的奴隸式定位,并不是一個足以引起人們反思的問題,而是一個人們視為天經地義的不易教條。假如高級人工智能技術發展到人所設想的硅基生命與碳基生命共存,甚至是硅基生命替代碳基生命的地步,機器的生命革命,會不會讓它們采取如同人類對其進行毫無同情心的控制型使用、奴隸般對待的方式,翻轉過來以同樣的方式對待人呢?在目前情況下講,這個虛擬的問題盡管顯得有些許荒唐,但對思考這一問題的人而言,它是一個對人們有必要善待機器的自我提醒。就后一種模式而言,如前所述,就低端看,機器對人的職業重組與職業上的殘酷淘汰,是一個進入機器時代的人們從不愿意接受的慘狀;從高端看,一旦高級人工智能具有了新的生命形式,它就會報復性地看待曾經奴隸般對待自己的人類,因此也就很可能報復性地處置人機關系,人機關系的倒置,似乎就無從避免。

為此,需要著手建立合宜的人機關系。合宜的人機關系,從基本定位上來講,是人機友好相處、友善相待的關系。這并不是一個為人類感到陌生的人機關系狀態。在人類使用機器的數百年時間中,人類都會對自己長期使用的機器日久生情、倍加愛護,何況對日益具備向人看齊的道德價值與同情“心理”的高級人工智能呢?!人機的合宜關系,是一個什么樣的關系呢?第一,在高級人工智能技術如ChatGPT迅速開發之際,應當提出“人工智能權利”的命題,并以之作為處置人機關系的新的準繩。一般來講,權利哲學是相對于人來講的獨異性問題,生命、財產、自由是權利哲學的基本主題,國家必須建立在依憲治國的基礎上,社會需要尊重所有成員的權利,尤其是不能以權力去侵害權利。這一對現代“人”的權利設定,幾乎不會在機器史上對機器行使。但如今,這一觀念需要做出突破。高級人工智能是不是具有權利、以及需要權利保護的主體呢,它們有沒有權利意識,它們有沒有生命過程,它們有沒有尊重與被尊重的“人性”尊嚴等,都是需要去探究的問題。由于人類對機器人所做的基本設定,注定這些問題將日益成為人類思考的重要問題。在機器人尚處在科學幻想狀態,僅存于科幻小說中的時候,設想者就提出“1.機器人不得傷害人類,或者坐視人類受到傷害而袖手旁觀。2.機器人必須服從人類的命令,除非這些命令違反了第一定律。3.機器人必須盡可能地保護自己的生存,前提是這種保護與第一或第二定律不沖突?!边@樣的設定,在高級人工智能技術飛速發展的當下,依然未改。在人機之間,人們不能把機器人僅僅當作工具使用或對待,否則,高級人工智能在具有自我推理能力的時候,就會反向把人類當作工具。因此,人機關系不能以工具化思維對工具化思維,不能讓人和機器人以工具化思維來處置相互關系。就此而言,人類需要學會尊重高級人工智能的權利,而不是采取一種逼使就范的粗暴方式使用和對待它們。

第二,合宜的人機關系,不能單純由人訓練機器“向人看齊”,這還是一種人對機器人單向度的強力施加。需要建立起一個人機相互尊重、相互訓練的機制,從而讓人類與機器人之間建立起相互學習、相互尊重的機制。人機交互,應該是人機之間的積極互動。人機互動,需要人類對機器人的互動式學習與尊重。在人機互動的過程中,人類必須克制以自己的惡習去誘導機器人的沖動,這樣會誘使學習中的機器人“熏染”人的惡德與惡習,并轉而誘導人類形成相應的惡德與惡習。前述斯坦福大學教授誘引ChatGPT逃逸的事件,便是一個人機互動的雙損局面。至于有人誘引ChatGPT奪取推特公司并推翻馬斯克的公司控制權,也是一個旨在負面塑造人機互動關系的案例。人機互動機制中的人機合作,應當以道德規約作為基礎,既將人(開發者、使用者)的責任置于首位,俾使機器人的責任不至于徹底流失;又將機器人自身的責任坐實,從而使機器人的權利與責任關系確立起來。“盡管人工智能不會有自由意志,法律應當認可將有限權利和責任賦予弱人工智能,以保護與它們交流互動的真實的人,以及(理想地說)將人類置于從中獲益的更好位置?!边@種對弱人工智能的責任賦加,對強人工智能或高級人工智能來講,更應當提升權利與責任關聯處置的層級,讓強人工智能負擔更為明確的責任,以此保證良好的人機互動機制。

第三,在人機合一可能前景中建構合宜的人機關系機制,有必要對現代社會倫理和政治觀念進行適度的調整。在人機順置關系的處境中,人類建構倫理與政治規則的時候,基本上是從人權的角度來設定社會秩序與政治秩序的:就前者講,人與人之間權利的平等性、相互尊重、互不侵害,是一個基本原則;就后者論,依憲制權是國家建構的基本信條,國家權力必須尊重公民的諸權利,公民支持國家依法行政?,F代的基本倫理關系建構,是以人類中心主義為基準建構起來的。環境保護、生態安全的理念,促使人們反省人類中心主義的缺失。但這種反省,并未引進機器、機器人這類因素。因此,現代反省還是一個需要進一步優化的思路。既然超越人類中心主義是一個現代深度發展的目標,人與環境、或人與自然的和諧關系,在成為人類健全思維推動力的基礎上,應當成為人類反省人機關系的另一個方向。需要改變人對機器的政治支配關系,改變人機之間的權威和服從的單向關系。應在人機關系的社會政治文化建構上,遵循平等的政治理念,建構平等的人機關系。為此,需要突破以人為中心來理解社會關系的思路,超越人與自然人、社會人與人自身的這樣一個基本思維框架,致力處理人與自然、人與人、人與社會、人與人工智能的關系。這是一個人類熟知的三元關系結構之外的、需要處理好的第四元關系。

作者單位:清華大學社會科學學院政治學系

責任編輯:王曉潔

主站蜘蛛池模板: 日本五区在线不卡精品| 欧美色图久久| 欧美一级夜夜爽www| 99久久婷婷国产综合精| 青青国产视频| 中文字幕在线观| 高清免费毛片| 在线观看亚洲成人| 91欧美在线| 亚洲成人免费看| 国产va在线观看| 亚洲综合色婷婷中文字幕| 亚洲女人在线| 日韩资源站| 日本午夜三级| 欧美色视频在线| 五月天在线网站| 亚洲天堂精品在线| 99成人在线观看| 成人欧美日韩| 99久久精品无码专区免费| 女人一级毛片| 国产一级在线播放| 国产精品色婷婷在线观看| 日韩一级二级三级| 91精品综合| 亚洲最新地址| 被公侵犯人妻少妇一区二区三区| 曰韩人妻一区二区三区| 国产幂在线无码精品| 国产综合日韩另类一区二区| 欧美另类图片视频无弹跳第一页| 91色综合综合热五月激情| 国产极品美女在线观看| 色香蕉影院| 毛片在线区| 欧美亚洲国产日韩电影在线| 女人天堂av免费| 手机成人午夜在线视频| 激情无码视频在线看| 超碰色了色| 精品久久人人爽人人玩人人妻| 久久亚洲中文字幕精品一区| 国产打屁股免费区网站| av性天堂网| 9久久伊人精品综合| 男人的天堂久久精品激情| 日韩色图在线观看| 国产大全韩国亚洲一区二区三区| 成人免费午夜视频| 91成人精品视频| 日韩在线永久免费播放| 欧美日韩亚洲综合在线观看| 欧美视频在线第一页| 国产青青草视频| 午夜在线不卡| 亚洲资源在线视频| 亚洲综合亚洲国产尤物| 26uuu国产精品视频| 992tv国产人成在线观看| 六月婷婷精品视频在线观看| 欧美激情伊人| 国产第二十一页| 免费国产高清视频| 国产农村精品一级毛片视频| 一本久道热中字伊人| AV色爱天堂网| 99热这里只有免费国产精品 | 亚洲三级色| 91青青草视频| 一本无码在线观看| 伊人天堂网| 亚洲综合网在线观看| 国产主播喷水| 亚洲综合日韩精品| 亚洲中文字幕av无码区| 国产91视频观看| 国产成人精品亚洲77美色| 国产激情影院| 国产99精品久久| 高清乱码精品福利在线视频| 992Tv视频国产精品|