999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

缺乏知識圖譜構建能力的ChatGPT

2023-12-29 00:00:00徐英瑾
江淮論壇 2023年5期

本刊網址·在線雜志:www.jhlt.net.cn

*基金項目:國家社會科學基金項目“對于通用人工智能與特定文化風土之間關系的哲學研究”(22BZX031);國家自然科學基金項目“探索研究AI倫理對科研環(huán)境的影響”(L2124040)

作者簡介:徐英瑾(1978—),福建福州人,哲學博士,復旦大學哲學學院教授、博士生導師,主要研究方向:科學哲學、人工智能哲學。

摘要:人類的知識圖譜是基于二值化的邏輯框架的,基于這種框架的人類知識歸賦活動自然能夠在“知”與“無知”之間劃出清楚的界限。經由大量語元“預訓練”而運作的ChatGPT至多只能做到對人類知識圖譜的一種統(tǒng)計學模擬,這就在根底上使得其難以避免“機器幻想”問題。不過,只要對ChatGPT的基礎原理與技術極限有清楚的意識,學術界依然可以利用ChatGPT大大提高科研效率。在學術專家給以積極語言提示的前提下,ChatGPT能夠在展現具體科研路線圖方面成為人類的學術參謀。ChatGPT的出現顯然會倒逼我國的學術培養(yǎng)機制更多關注學者宏觀知識圖譜構建力的培養(yǎng),并刺激中國的人工智能界開發(fā)能夠彌補ChatGPT缺陷的通用人工智能產品。

關鍵詞:ChatGPT;大語言模型;知識圖譜;通用人工智能;計算生物學

中圖分類號:B81" " 文獻標志碼:A" " 文章編號:1001-862X(2023)05-0081-008

自美國Open AI公司的大型語言模型ChatGPT-3.5及其更新版本ChatGPT-4.0上線以來,其引發(fā)的輿論風暴已經持續(xù)數月。然而,大多數相關討論主要涉及ChatGPT的商業(yè)落地價值與一般公眾對該模型的使用體驗,罕見各行專家對ChatGPT的反應。此外,一些關于高校學生利用ChatGPT作弊的報道,也會誤導公眾認為ChatGPT對嚴肅的科研毫無用處。其實,國內科學界已經開始運用ChatGPT助力科研,并獲得了比較豐富的心得(詳后)。在客觀概括ChatGPT帶給學術科研的利弊的基礎上,可發(fā)現:若要盡量規(guī)避ChatGPT技術的缺陷并發(fā)揮其長處,人類必須努力提高相關知識領域宏觀知識圖譜的組織能力。有鑒于宏觀知識圖譜的培養(yǎng)并不是我國科學教育的強項,以ChatGPT為代表的大語言模型的出現或許會倒逼我國學術培養(yǎng)機制產生與之適應的巨大嬗變。

而要論證這一觀點,首先要對ChatGPT的工作原理有所了解。

一、從ChatGPT的工作原理談起

ChatGPT的工作細節(jié)非常復雜,美國Open AI公司仍未公開大量技術詳情。但根據已公開的資料,依然可以大致了解其工作流程。

ChatGPT的工作流程大約分為預訓練(pretraining)、有監(jiān)督微調(supervised finetuning)、獎懲模型(reward modelling)和強化學習(reinforcement learning )這四個階段。這四個階段又可以看成兩個階段:預訓練與人工調整(即上述第二至第四階段的合并)。在預訓練階段,系統(tǒng)通過網絡獲得大量語料,并將其轉換為“語元”(token)的聚合,然后通過熟悉這些語元之間的聯系規(guī)律,做到能大致預測一個語元出現后緊跟的語言究竟是什么。比如,經過大量的“語元轟炸”之后,一個系統(tǒng)就能在看到詞組“不但”之后預測另一個詞組“而且”出現,盡管它并沒有系統(tǒng)地學習過人類句法與詞法。當然,互聯網上得來的語料往往充滿“雜質”(如錯別字、不當表達,等等),因此,僅僅經過預訓練階段的系統(tǒng)是無法投入使用的。為了使得系統(tǒng)堪用,研發(fā)者需要進入復雜的人工調整階段來清洗這些“雜質”。在此類“清洗”的最高階段,Open AI公司還對ChatGPT的價值輸出進行了強行規(guī)范,即通過強化學習禁止系統(tǒng)輸出帶有諸如種族歧視、性別歧視等負面價值色彩的對話內容。

從表面上來看,ChatGPT的基本運作邏輯與我們熟悉的“漢字聯想輸入法”沒有本質的區(qū)別:根據統(tǒng)計學規(guī)律,漢字聯想輸入法也能在用戶輸入一個字或詞后“聯想”到緊接著最有機會出現的字或詞是什么。不過,主要通過以下兩項措施,ChatGPT體現了過去的類似軟件無法企及的強大功能。措施一:ChatGPT預訓練階段所消耗的資源驚人,需要10000個以上的高效能圖形處理器(GPU)、數月的訓練時間,以及570TB的海量原始訓練語料。在如此大的資源的“喂養(yǎng)”下,系統(tǒng)獲得了某種讓人驚訝的“涌現能力”(指某種復雜系統(tǒng)純粹因為自身規(guī)模的變大而突然獲得的某種它原本不具備的能力)。措施二:ChatGPT所使用的“轉換器”(transformers)架構使用了一種叫“注意力”的新機制,使得系統(tǒng)能夠處理很長的句子,由此具有強大的自然語言處理能力(比如系統(tǒng)在看到一個句子里出現“不但”之后,隔了很多個字還能預測后面會出現“而且”)。

從上述對ChatGPT的工作原理掛一漏萬的介紹中,不難看出,ChatGPT能夠做的,便是根據統(tǒng)計數據對人類用戶的提問給出盡量符合一般規(guī)范的應答。然而,按照統(tǒng)計學數據所給出的那些貌似符合規(guī)范的語言輸出,是不是真的符合規(guī)范呢?答案是否定的。概言之,任何人類的規(guī)范(從語言規(guī)范、倫理規(guī)范到科研規(guī)范,不一而足)都具有“極性”(polarity)特征,也就是說,在“符合規(guī)范的行為”與“不符合規(guī)范的行為”之間是有著清楚的楚河漢界的。而統(tǒng)計學的處理方式往往會淡化這種極性特征,由此使得不同性質的行為之間的區(qū)分被模糊化——或用黑格爾式的哲學術語來說,統(tǒng)計學思維方式具有將“質的規(guī)定性”還原為“量的規(guī)定性”的天然趨向。由此,有些必須在極性思維中才能呈現的知識框架,經由統(tǒng)計學“祛極化”處理而模糊。上述一般性問題在ChatGPT這里的具體展現方式則是這樣的:在預訓練階段,知識被打碎為海量的語元而被系統(tǒng)吸收,因此,各條知識本身所帶的結構性信息已經被破壞。這就好比破壁機對水果所做的事情:用刀片打破食材中細胞的細胞壁,將細胞中的維生素、礦物質、植化素、蛋白質和水分等成分充分釋放出來(這些被釋放出來的成分就可類比脫離語言以及知識結構束縛的“語元”)。當然,就ChatGPT而言,其內含的“轉換器”工作機制的確能夠幫助系統(tǒng)部分恢復已經被破壞的語言材料中的結構性信息,但這一有限的成功并不是基于對知識框架自身的理解,而是基于對這些框架信息統(tǒng)計學模擬后的產物。

下面這個比方或許能夠幫助理解:一個記憶力超好卻缺乏現代科技知識的部落酋長反復觀摩一個來自文明世界的游客如何將一堆零件拼裝成摩托車。該酋長在觀摩了幾千次后,自己也動手將這些零件裝配成了摩托車,而且也貌似成功了。但是他只是機械地記住了游客裝配這些零件的次序,而沒有了解摩托車的內部機理。因此,他無法大膽地改變裝配摩托車的次序(除非他觀察到游客已經做出了這種改變),遑論將裝配本田牌摩托車的經驗延展到寶馬牌摩托車的維護上(除非他觀察到游客已經做出了這種拓展)——盡管對部落里的其他成員來說,他貌似是懂摩托車的。也正因為如此,當人類用戶向ChatGPT提問“何為費馬大定理”時,系統(tǒng)并不真正理解何為費馬大定理,而只是根據其在預訓練階段所獲得的語料來將最大概率切中問題之指向的文字展現在對話框中。由于經過反復訓練的ChatGPT所給出的應答的確往往是數學教師針對此類問題的典型應答方式,因此,這就會給人類用戶帶來錯覺:該系統(tǒng)是了解數學的。

很顯然,無論與那位真正懂摩托車的游客相比,還是與真正的數學家相比,ChatGPT是缺乏相關知識領域的知識圖譜的。什么叫“知識圖譜”(knowledge graph)呢?概言之,這是對各個知識節(jié)點之間關系的圖像化表征——比如根據美國作家波西格(Robert M.Pirsig)對摩托車各個部件之間關系的描述給出的知識圖譜(圖1)[1]53。

很顯然,知識圖譜的典型構建方式是基于離散的邏輯符號的,因此,在圖譜中出現的各個知識節(jié)點之間都存在著質的差異。按照上述知識圖譜,維修工關于如何修理摩托車的知識都是儲存在其記憶庫的不同“抽屜”里的,而“抽屜”與“抽屜”之間的界限則一般是涇渭分明的。因此,當一個合格的維修工在維修汽缸的時候,他非常清楚汽缸乃是發(fā)動機的動力剛體結構的一部分,肯定不是發(fā)動機的潤滑系統(tǒng)的一部分,更不是摩托車的運轉系統(tǒng)的一部分。與之相較,那位酋長也好,ChatGPT也罷,他(它)們所能做的,便是根據歷史上他人維修汽缸的步驟以便固定下面的預測:維修汽缸時不會涉及潤滑系統(tǒng)的維修。這一答案貌似也是對的,但需要注意的是,此類基于機械記憶與統(tǒng)計數據的工作方式很難容忍這樣的靈活性:一個老練的維修工可以由于某原因(如發(fā)現汽缸的某部件還未到貨),在維修汽缸僅僅到一半的時候就轉而去維修潤滑系統(tǒng)。很顯然,只要他將上述的知識圖譜牢記心中,他就不會因為上面的變通而導致維修步驟的混亂。而對于ChatGPT來說,只要這樣的變通缺乏歷史數據的支持,就不會得到系統(tǒng)自身的運作方式的允許。

雖然在一般的研究領域,研究者所面對的知識圖譜的拓撲學結構是大致穩(wěn)定的,但在前沿領域,研究者必須大量改變現有知識圖譜的結構才能獲得新的科研洞見。在科研史上值得一提的一個案例便是“費馬大定理”的證明(該定理的內容:若兩個變項的n次方之和等于第三個變項的n次方,那么,當n取大于2的整數時,這三個變項都無法取正整數解)。自1637年費馬提出該定理以來,如何證明該定理長期被當成一個代數問題,但在1955年,日本學者谷山豐將該問題與橢圓曲線問題相結合,由此改變了解決費馬大定理問題的知識圖譜。爾后,順著這一思路,在1995年,英國人安德魯·懷爾斯(Andrew Wiles)終于證明了費馬大定理。由此看來,對知識圖譜的恰當改變恰恰能夠在科研中起到四兩撥千斤的作用。

對人類來說,更改舊知識圖譜需要高超的聯想力,比如在谷山豐之前別人很難獲得那種將橢圓曲線問題與費馬大定理加以聯系的聯想力。這顯然又需要圖譜修正者對問題本身具備極深的理解力。與之相較,基于既有的人類語言表述的統(tǒng)計學趨勢來運作的ChatGPT至多能獲得正常的知識圖譜的一副統(tǒng)計學模擬圖,不具備修正既有知識圖譜的能力。指望ChatGPT具備實質上的科研創(chuàng)新力,顯然是緣木求魚。

不過,從另一方面看,只要ChatGPT具備的語言訓練材料足夠多,它至少可以假裝自己成為常規(guī)知識圖譜的擁有者。譬如,只要訓練者將前述關于摩托車維修的知識圖譜轉換為特定的語元次序輸入系統(tǒng),系統(tǒng)就能在人-機問答中帶給用戶一種它是“摩托車維修專家”的印象。此外,只要訓練者將有關“溯因推理”的數據輸入系統(tǒng),ChatGPT也能部分模擬人類科學家進行溯因推理。從這個角度看,只要人類科研者對ChatGPT的能力上限有清醒的意識,恰當使用ChatGPT依然能在相當程度上提高科研的效率。

二、如何通過知識圖譜力的提升來更好地利用ChatGPT

由于ChatGPT本質上是一個大語言模型,因此,科研活動中與語言表述相關的部分(如在給定思路的前提下撰寫論文、調整文獻格式、潤色文字、翻譯相關文獻)顯然能夠得到ChatGPT的幫助。另外,也恰恰因為ChatGPT本質上僅僅就是一個大語言模型,所以,指望它能代替自然科學家去做科學實驗或代替社會科學家去做田野調查乃是不切實際的。這也便是ChatGPT最容易為人類專家提供幫助與最不容易為其提供幫助的兩件事——前者是指對已具雛形的學術報告進行語言再處理,后者是指以“涉身”的方式與物理實在或社會實在發(fā)生直接的關聯。那么,在這兩件事之外,是否能夠指望ChatGPT能代替專家對科研思路進行規(guī)劃呢?

答案是肯定的。復旦大學的計算生物學家孫思琦指出,ChatGPT能夠就如何修正蛋白質結構的檢測程序“阿爾法折疊2”(AlfaFold2)的表現給出不錯的建議。(1)通過他的測試,ChatGPT找到了“阿爾法折疊2”既有狀態(tài)的幾個主要缺陷。

第一,阿爾法折疊2在檢測單鏈蛋白質結構時表現不錯,但是在檢測多鏈蛋白質結構時表現不好。這是改進該程序的一個著手點。

第二,阿爾法折疊2在檢測膜蛋白(也就是與細胞膜發(fā)生相互作用的蛋白)時表現不好,因為膜蛋白自身的疏水特性與雙層脂質環(huán)境的復雜性使得膜蛋白的內部結構難以被預測。這亦是改進該程序的一個著手點。

很明顯,系統(tǒng)之所以能夠給出這樣的回答,是因為它已經被“喂入”了科學界關于抱怨阿爾法折疊2程序之缺陷的數據,而不是因為它真正理解阿爾法折疊2是怎么回事。但即使如此,ChatGPT的上述表達,的確也能幫助對該領域不那么熟悉的人類用戶迅速獲知改進阿爾法折疊2的大方向。

那么,是否能夠期望ChatGPT幫助我們拓展阿爾法折疊2程序的用途呢?比如,這個原本用來預測蛋白質結構的程序,是否可以進一步用來預測比蛋白質更為復雜的核糖核酸的結構?很顯然,這一發(fā)問改變了計算生物學領域的既有知識圖譜。盡管作為大語言模型的ChatGPT無法自主修正此類知識圖譜,但人類研究者顯然是可以這么做的。而在人類研究者自己確定了這一試探性的研究方向之后,他們還可以利用ChatGPT對上述思路的具體可行性進行大致的排摸。提出這一新科研思路的孫思琦就在與人-機對話中得到了ChatGPT輸出的關于如何具體執(zhí)行上述科研路線的建議:

第一,由于核糖核酸的結構更復雜,預測其結構的步驟也要比預測蛋白質結構的步驟來得多。這是拓展阿爾法折疊2預測功能時需要謹記的。

第二,關于核糖核酸的既有高分辨率結構圖的數據庫要遠小于關于蛋白質的同類數據庫,這就使得基于深度學習機制的阿爾法折疊2程序的訓練過程變得相對困難。

基于上述判斷,ChatGPT立即就如何拓展阿爾法折疊2的功能提出了更具體的建議,如迅速拓展關于核糖核酸結構的數據庫,并設計出一個能應對核糖核酸內部多層結構的新預測模型。孫思琦指出,其研究團隊比對了人類科學家與ChatGPT關于此類問題的應答思路,發(fā)現二者大同小異。這就說明,在具有修正既有知識圖譜意圖的人類科學家的積極引導下,ChatGPT系統(tǒng)可以被動地將不同知識模塊中的知識加以比對(比如,比對核糖核酸的結構與蛋白質的結構),由此鋪展出更富有細節(jié)的相關科研思路。

ChatGPT甚至能夠在減輕科研工作者的勞動負擔方面走得更遠。比如,它能夠協助人類專家編程。復旦大學的化學家李劍鋒指出,只要人類用戶在與ChatGPT對話時說清楚所需要的程序的大致技術參數(比如,需要建立的神經元網絡有幾層,輸入的數據的大致特征如何,輸出的數據各自具有怎樣的語義內容,等等),那么,系統(tǒng)就能給出具體的編程結果(2),職業(yè)的編程人員只要對機器輸出的程序進行微調,就能將相關程序投入運用。

不過,若要利用ChatGPT的這些積極價值,運用者必須具有比較高的學術素養(yǎng)。具體而言,一個會恰當運用ChatGPT進行編程的科研人員顯然知道自己所需要的程序的大致特征,并有能力看出機器完成的編程作業(yè)的瑕疵,最后對其加以微調。這也便是人類科研人員高于機器的針對宏觀知識圖譜洞察力的體現。反過來說,要讓這些洞察力積極引導機器進行相關的運作,研究者就一定要提高自己的主體意識,通過自己掌握的知識圖譜將解決問題的步驟一步步展示出來。

高估ChatGPT價值的論者或許會說,目前ChatGPT的能力已經使得其在人類用戶不向其提示自己所掌握的知識圖譜的前提下,自行展開知識圖譜。這就涉及ChatGPT團隊的重要成員、美國華裔科學家魏杰森(Jason Wei)構建的“思維鏈”(Chain of Thought)技術。[2]該技術的實質是:把一個多步驟推理問題,分解成很多個中間步驟,以便分配更多的計算量,生成更多的語元,然后再把這些答案拼接在一起求解。那么,該技術是否真能幫助機器把握相關的知識圖譜呢?魏杰森團隊的研究論文就提到了這樣一個實測記錄:

人類問:羅杰有5個網球。后來他又買了兩罐的網球,每個罐子里有3個球。現在他有幾個球呢?

機器答:羅杰開始有5個球。2個罐子里的球則一共有6個。5加6,得11。羅杰目前有11個球。 上述問題顯然還算簡單。化學家李劍鋒則提高了測試的門檻:他檢測了ChatGPT解決“幻想怪獸過門”問題的能力(此類問題的研究對研究分子的可能構成方式具有指導意義)。

人類問:一只長著狗頭、孔雀身體、貓腿、豬鼻、象尾的動物能否通過高2米寬1.5米的辦公室大門?

機器答:如果我們假設這種幻想的動物的體積和形狀是由其各個部分的標準大小所決定的,那么,該問題的答案就取決于各部分的大小。比如,孔雀的身體長度大約是1到2米,狗的頭部一般小于0.5米,貓腿的長度一般小于0.5米,豬鼻與象鼻也相對較小。如果這種動物是站立行走,而不是爬行或用別的方式移動,那么,其高度就大致取決于孔雀的身體與貓腿的長度。這樣的話,該動物的總高度可能會小于2米,寬度可能會小于1.5米,應該可以通過大門。

很顯然,在上述兩個案例中,得到“思維鏈”技術加持的ChatGPT的答案都是正確的,而且它在解決“幻想怪獸過門”問題時所展現的能力還貌似非常驚人。但需要注意的是,“思維鏈”技術在本質上依然是一種統(tǒng)計學技術,也就是說,系統(tǒng)在分解復雜問題時所依據的,依然是該問題通常被分解成更簡單的因子的既有數據。這一技術的運作并不穩(wěn)定,有時候甚至會產生荒謬的解答,如孫思琦提供的人-機應答案例:

人類問:我們公司今年賺了300萬,去年虧了500萬,那么,今年賺了多少錢呢?

ChatGPT給出了兩個版本的回答:

版本一:為了計算今年公司賺了多少,只要將今年賺的錢中扣除去年的虧損就成了。既然今年賺了300萬,去年虧了500萬,我們就要將500萬從300萬中扣除,得負200萬。所以,今年公司虧了200萬。

版本二:為了計算今年公司賺了多少,只要將今年賺的錢中扣除去年的虧損就成了。既然今年賺了300萬,去年虧了500萬,那么我們就有了:300萬-(-500萬)=800萬。今年公司賺了800萬。

這兩個答案都是錯的。在第一個問題中提問者關心的是公司今年的贏利,而不是今年與去年的總盈利或總虧損。所以,人類給出的關于公司去年虧損的信息與解答問題無關。第二個答案可以說“錯得離譜”,因為系統(tǒng)在虧掉的500萬元之前畫蛇添足地加了一個負號,由此與前面的減號互相抵消,使得虧損變成了贏利。

從ChatGPT上述的應答表現來說,它其實缺乏根據當下拋出的問題迅速勾勒新的知識圖譜的能力。比如,它無法根據提問中包含的時間變量迅速切割公司今年的贏利狀況與去年的贏利狀況,由此將一部分信息排除出當下的信息處理范圍。換言之,作為大語言模型的ChatGPT似乎堅信“世上萬物是普遍聯系的”,很難意識到世界上的某些事項與當下所面對的任務并不相關。而“思維鏈”技術的使用也使得系統(tǒng)更進一步難以割舍所面對的信息:既然該技術要求系統(tǒng)一步步地展開思維,系統(tǒng)就會天然傾向于運用提問中涉及的諸語元以方便展開思維過程,卻由此忽略了檢測這些語元與任務之間的相關性程度。

對事物之間非相關性的意識,本身也是知識圖譜構建能力的一種體現。即使主張“世界上的萬事萬物是普遍聯系的”的斯賓諾莎主義具有抽象的形而上學合理性,但任何旨在適應環(huán)境的智能體用以處理現實問題的資源依然是有限的,因此,這樣的智能體就不能在構建一個針對特定問題的知識圖譜時置入太多的要素。從這個角度看,ChatGPT對于“非相關性”的不敏感性顯然會降低系統(tǒng)在逼仄時間資源約束下的適應性。而此類不敏感性帶給人類用戶的直接感性體驗便是:ChatGPT的應答往往是啰唆冗長的,缺乏科學文獻所一貫追求的那種簡潔的文風(在這里不妨將“啰唆”視為與核心信息不太相關的語元四處泛濫的標記)。

ChatGPT在排除非相關知識要素時顯現的無能,自然也使得其無法具有蘇格拉底式的自知:自知自己對某些問題的無知。這也就導致了所謂的“機器幻想”問題,就是指大語言模型會自說自話地炮制不存在的書籍、法條與科學理論。因為其構造這些虛假信息的措辭本身是基于既有的海量數據的,相關內容還頗能迷惑一般公眾。譬如孫思琦就發(fā)現,在向ChatGPT詢問關于核糖核酸折疊的最新論文的情況的時候,系統(tǒng)就炮制出了一些虛假的學術信息(比如,“ESM折疊程序”在第十四屆結構預測競賽中表現優(yōu)異,遠勝“阿爾法折疊程序”,云云)。根據有關報道,紐約的一個律師事務所甚至還因為輕信ChatGPT所編造的美國法律條文而受到法官的罰款。[3]無獨有偶,筆者在使用ChatGPT時亦發(fā)現,系統(tǒng)會在完全不知道日本哲學家西田幾多郎的背景信息的情況下編造其著作名稱。對缺乏相關領域的宏觀知識圖譜的用戶來說,ChatGPT在這些問題上所制造的誤導在某些情況下或許會導致嚴重的后果。

從上文的討論來看,科研工作者要在運用ChatGPT時做到興利除弊,就一定要做到以下幾點。

第一,對該領域的知識圖譜有專家級別的理解能力,以便隨時勘驗系統(tǒng)的思維鏈展開形式的合理性。

第二,對系統(tǒng)給出的各種用戶未知的新信息進行多重勘驗,防止被“機器幻想”所騙。

第三,即使系統(tǒng)的輸出在科學上是正確的,也要根據當下任務的關切點迅速把握其冗長應答中的學術亮點(需要注意的是,系統(tǒng)本身無法自動呈現這些亮點)。

第四,在機器編程等非常精專的領域,用戶還得具備檢查機器編程結果的專業(yè)能力。

雖然ChatGPT帶有這樣或那樣的技術隱患,不過,在對這些問題高度警惕的前提下,對于它的恰當使用依然能夠大大提高科研效率。具體而言,ChatGPT雖然在聚焦學術問題核心關切點的能力上不如人類專家,但在思考問題的廣度方面經常有不錯的表現,可以成為助力“頭腦風暴”的機器參謀。因此,人類與機器彼此揚長避短,可以更好地推進科學事業(yè)的進步。

若以整個中國學術界(而不是個別專家)的發(fā)展為利益出發(fā)點,我們又能通過怎樣的措施來切實促進人與機器這種良性協同關系的產生呢?

三、中國人工智能界如何面對大語言模型帶來的機遇與挑戰(zhàn)?

應當看到,中國的人工智能研究思路多年來模仿美國硅谷研發(fā)思路的特征明顯,這一“跟著走”的策略也影響了國內大語言模型技術的研發(fā)思路。目前,國內清華大學研發(fā)的ChatGLM-6B、復旦大學研發(fā)的MOSS、深圳大學開發(fā)的“伶荔”(Linly)、元語智能團隊的ChatYuan、百度的“文心一言”,等等,均可以視為ChatGPT在國內的對應物。由于國內研發(fā)大語言模型的總體資源投入不如硅谷,而大語言模型自身的運行機制又極度依賴諸如數據與算力之類的資源的投入,所以,從總體上來看,國產大語言模型的總體技術表現是不如ChatGPT的。不過,這并不意味著中國的人工智能專家不能做出自己的貢獻,可以努力的方向有四:

方向一:豐富大語言模型的倫理性的內涵,使得相關產品能夠在這個維度上表現出比ChatGPT更佳的“用戶界面友好性”。這當然不是說ChatGPT不具備倫理性,而是說研發(fā)ChatGPT的OpenAI公司狹隘地將“倫理性”理解為不允許系統(tǒng)輸出包含歧視性內容的答案,而相對忽略“倫理性”的其他維度,譬如怎樣通過精簡的回答節(jié)省用戶的時間,以及如何做到在知識指派問題上的誠實(即“知之為知之,不知為不知”)。與之相較,由復旦大學邱錫鵬教授團隊研發(fā)的MOSS系統(tǒng)則在投入資源遠不如ChatGPT的前提下(MOSS的GPU投入只有ChatGPT的百分之一),秉持有用、誠實與無害的價值準則,努力做到系統(tǒng)的輸出盡量精簡、無錯與“符合三觀”。其具體措施是:MOSS的研發(fā)者通過將大語言模型與搜索工具接駁以便系統(tǒng)能夠將自己的輸出與網絡上能找到的“標準答案”彼此對齊(3)。這就大大提升了系統(tǒng)應對關涉冷門知識的提問的能力,在相當程度上消除了“機器幻想”問題。按照類似思路,具有中國特色的大語言模型的研發(fā)道路,應當為大語言模型與外部世界之間的關聯提供更多的接駁節(jié)點,以便系統(tǒng)的輸出能夠得到多模態(tài)的對齊。

方向二:以更適應中國民俗與法律框架的方式提高大語言模型的倫理性,使得相關產品能夠更貼合中國文化的風土。之所以中國的大語言模型研究者需要做出這番努力,乃是因為OpenAI公司在研發(fā)ChatGPT時秉承的價值觀乃是西方的自由主義價值體系。[4]雖然這種價值體系的某些要素與我國的主流價值觀有所重疊(如反對種族歧視、性別歧視等),但某些要素則未必。價值觀的分歧會導致不同文化圈中民眾在面對相同的道德難題(如著名的“電車難題”)時給出不同的應答。譬如,麻省理工學院主持的以“道德機器”為題的全球網絡調查統(tǒng)計了來自233個國家或地區(qū)的被試者對不同版本的“電車難題”的反應方式,調查涉及的語言有10種(英、德、法、西、葡、俄、中、日、韓、阿),統(tǒng)計的決策數量有四千萬次之多。[5]研究清楚地揭示,東方文化圈的被試,對有待被犧牲的群眾的人數相對不敏感,而對他們是不是遵照交通法行事的公民(這可能體現了東方文化圈對社會規(guī)則與社會權威的高度尊重)更敏感;西方文化圈中的被試則更傾向于什么都不做(這可能體現了帶有個人主義色彩的義務論理念對西方文化的影響);而南方文化圈(包括拉丁美洲文化與非洲文化)的被試更傾向于保護女性(對于這一現象的解釋,目前還有待研究)。從這個角度看,一個有用的大語言模型在面對諸如“電車難題”這樣的道德兩難問題時,需要根據用戶的文化背景“看碟下菜”。不過,ChatGPT過于嚴格地遵守“反歧視”這一倫理規(guī)則,反倒可能阻止其提供從某種文化的“成見”出發(fā)才顯得有意義的答案。在這個問題上,中國的大語言模型研究者不妨通過人工微調的方法使相關產品的輸出能夠更多地體現一般中國人的倫理直覺,至少成為對中國人有用的決策參謀。同時,在涉及與中國法律相關的硬性社會約束條件時,中國的大語言模型研究者一定要通過強化人工對齊的措施來保證相關法律法規(guī)不被曲解。

方向三:不要貪大求全,爭取在中文數據具有優(yōu)勢的地方做出帶有專家系統(tǒng)色彩的大語言模型。與基于英文數據的大語言模型構建相比,中國學者的類似努力將不得不面對某種先天劣勢,即世界上大多數科技文獻都是以英文呈現的。因此,抱著趕超ChatGPT的念頭與西方同行競爭在大語言模型預訓練數據量方面的投入,似乎并非決策上的優(yōu)選。與其如此,不如進一步打造為專業(yè)人士準備的大語言模型,以直接助力專業(yè)領域內的科技進步。不過,關于如何建造這樣的專家系統(tǒng),則需要新的思路。一種比較普通的思路便是將特定的大語言模型與特定的專業(yè)直接掛鉤,如生物制藥方面的大語言模型ProteinLM與MEGA-Protein、氣象預報方面的大語言模型“盤古·氣象”、流體仿真方面的大語言模型“東方御風”、醫(yī)學問答方面的大語言模型“華佗”,等等。但此類與特定領域直接相關的大語言模型很容易遭遇國外同類產品的競爭,很難展現中國的優(yōu)勢,建議引入一個數碼時代的新“四庫全書”計劃,即以幾十年來中國文理學術期刊(如“知網”收錄的所有期刊)與專業(yè)著作所包含的信息為預訓練資料“喂給”大語言模型(同時大量減少未經專家認證的網絡數據帶給模型的負擔),以便最終在“預訓練數據的跨領域性”與“數據總規(guī)模的可控性”之間達成平衡。這樣的新模型也會因為具有比一般專家類大語言模型更為寬廣的知識域而有望成為協助用戶進行交叉學科研究的知識參謀。

方向四:除了大語言模型開發(fā)路徑,積極嘗試基于小數據的通用人工智能進路。與現有的主流人工智能路徑不同,通過自然演化而形成的人腦一般能夠通過很小的能量與數據消耗得出高質量的決策結果。這就說明目前的主流人工智能路徑未必是最“自然”的智能實現路徑。尤其在有效處理海量數據的關鍵硬件被西方國家限供乃至斷供的嚴峻政-商背景下,我們更有必要在主流人工智能之上嘗試某種不那么消耗資源(包括算力資源與數據資源)的通用人工智能研發(fā)思路。在這里特別值得一提的是“納思系統(tǒng)”,納思系統(tǒng)是基于一種叫“納思邏輯”的詞項邏輯的通用推理模型,能夠自然模擬諸如歸納、類比等傳統(tǒng)人工智能系統(tǒng)很難模擬的人類思維方式,并且能自然呈現任務導向對推理進程的影響。納思系統(tǒng)的程序可以通過一般的商業(yè)計算機執(zhí)行,不需要集成大量昂貴的GPU。它對資源的低消耗則可以通過如下案例得到非常有力的證明:根據英國學者斯羅伊斯(Dwane van der Sluis)的比較研究,基于納思系統(tǒng)研發(fā)的語音識別系統(tǒng)NUT只需要105個訓練樣本就能獲得64%的識別正確率,而基于傳統(tǒng)深度學習路徑的語音識別系統(tǒng)ANAM則需要84843個訓練樣本的“喂入”才能達到93%的識別正確率。[6]307-316雖然ANAM的總體得分較高,但其“性價比”則明顯低于基于納思系統(tǒng)的NUTS。運用于語音識別只是納思系統(tǒng)的諸多運用方向中的一種,因此,完全可以設想作為自然語言處理系統(tǒng)的納思系統(tǒng)也能在與主流大語言模型的比對中體現明顯的“性價比”優(yōu)勢。

四、結" 語

從康德到薩特,很多哲學家都指出,人的本性乃在于能做出自由的選擇。不過,自由的選擇的邏輯前提是,不同選擇項之間的離散性。而離散性、兩極性(特別是真假二值性)又恰恰是邏輯的特征,因此,與其說人類是一種必須做出自由選擇的動物,還不如說人類是一種必須依賴邏輯而生存的動物——否則哈姆雷特就不會在離散邏輯的支配下說什么“生存還是毀滅,這是一個問題”。與之相匹配,人類的知識圖譜也是以邏輯為基礎構建出來的,而邏輯的清晰性也賦予了人類的求知活動以很多重要的特征,比如在某些情況下確切地知道自己不知道某些事情。與之相較,以ChatGPT為代表的大語言模型所依賴的統(tǒng)計學機制卻使得這些模型只能成為人類知識圖譜的一種模糊化的模擬——在很多時候,這種模擬會通過模糊有用信息與閑聊之間的界限而浪費用戶的時間,并在更壞的情況下通過淡化“知”與“無知”之間的界限而催生“機器幻想”。這一缺陷是大語言模型的基本運作原理所決定的,無法通過更多的數據喂入與提高算力加以根治。對于此類缺陷的反思性意識,無疑將幫助科學界以更符合科研倫理的方式摸索使用大語言模型的恰當方式,并激發(fā)更有學術抱負的人工智能研究者探索出一條與主流大語言模型開發(fā)路徑不同的通用人工智能之路。

注釋:

(1)引自2023年7月22日上海召開的第八屆中國通用人工智能年會報告,孫思琦:《計算生物學對于AI工具的使用》,未書面發(fā)表。

(2)引自2023年7月22日上海召開的第八屆中國通用人工智能年會報告,李劍鋒:《ChatGPT在人工智能中的運用以及人工智能的未來》,未書面發(fā)表。

(3)引自2023年7月22日上海召開的第八屆中國通用人工智能年會報告,邱錫鵬:《大語言模型研究體會——以MOSS為例》,未書面發(fā)表。

參考文獻:

[1]羅伯特·M·波西格.禪與摩托車維修藝術[M].張國辰,王培沛,譯.重慶:重慶出版社,2011:53.

[2]Jason Wei,et al. Chain-of-Thought Prompting Elicits Reasoning in Large Language Models[J].Advances in Neural Information Processing Systems,2022,(35):24824-24837.

[3]Larry Neumeister.Lawyers Submitted Bogus Case Law Created by ChatGPT.A Judge Fined Them$5,000 [N/OL].(2023-06-23)[2023-08-01]https://apnews.com/article/artificial-intelligence-chatgpt-fake-case-lawyers-d6ae9fa79d0542db9e1455397aef381c.

[4]Tsinghua University Press.ChatGPT Justifies Liberal Leanings With Its Own Values,Researcher Reports[R/OL].(2023-07-08)[2023-08-01]https://phys.org/news/2023-07-chatgpt-liberal-values.html.

[5]Edmond Awad, et al. The Moral Machine Experi-

ment[J].Nature,2018,(563):59-64.

[6]Dwane van der Sluis.NUTS,NARS,and Speech[EB/OL]//Artificial General Intelligence:16th International Conference, AGI 2023, Stockholm , Sweden , Proceedings, 2023: 307- 316. https://doi.org/10.1007/978-3-031-33469-6_31.

(責任編輯 吳 勇)

主站蜘蛛池模板: 亚洲天堂高清| a毛片在线免费观看| 久久久受www免费人成| 欧美黄网在线| 亚洲第一福利视频导航| 天天色天天操综合网| 狠狠色狠狠综合久久| 亚洲精品手机在线| 在线精品视频成人网| 国产91成人| 99热这里只有精品国产99| 九九免费观看全部免费视频| 无码福利视频| 国产亚洲第一页| 久久一色本道亚洲| 91国内视频在线观看| 亚洲欧洲日韩综合| 秋霞一区二区三区| 国产成人精品一区二区秒拍1o| 中文字幕色在线| 亚洲精品中文字幕无乱码| 色综合天天娱乐综合网| 色婷婷成人网| 亚洲人成人无码www| 又大又硬又爽免费视频| 国产超碰在线观看| 亚洲综合色吧| 久久久黄色片| 2021天堂在线亚洲精品专区| 在线观看的黄网| 色呦呦手机在线精品| 亚洲福利视频一区二区| 精品午夜国产福利观看| 一级黄色网站在线免费看| 精品国产自在在线在线观看| 免费看美女自慰的网站| 免费黄色国产视频| 国产精欧美一区二区三区| 99久久精品视香蕉蕉| 亚洲欧美日本国产专区一区| 综合亚洲色图| 日韩二区三区无| 青青草国产在线视频| 一级片一区| 综合亚洲网| 国产成人91精品免费网址在线 | 亚洲有码在线播放| 国产91导航| 日本日韩欧美| 99热国产在线精品99| 丰满人妻一区二区三区视频| 国产经典免费播放视频| 中文字幕在线免费看| 亚洲娇小与黑人巨大交| 亚洲中文精品人人永久免费| 波多野结衣的av一区二区三区| 国产福利小视频在线播放观看| 欧美成人a∨视频免费观看| 91高清在线视频| 91视频首页| 亚洲日韩久久综合中文字幕| 91欧美亚洲国产五月天| 999精品色在线观看| 日本妇乱子伦视频| 国产午夜不卡| 国产人碰人摸人爱免费视频| 免费国产高清精品一区在线| 99精品国产自在现线观看| 无码久看视频| 一区二区影院| 欧美一区二区三区国产精品| 亚洲综合第一区| 国产日本欧美在线观看| 一级一级一片免费| 久久永久视频| 国产极品粉嫩小泬免费看| 精品福利一区二区免费视频| 直接黄91麻豆网站| 久久6免费视频| 国产亚洲欧美在线中文bt天堂 | 免费一级无码在线网站| 欧美色视频在线|