999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

ChatGPT 來了!人工智能時代的人文社會科學

2023-10-09 15:17:44施春宏王德夫等
寫作 2023年2期
關鍵詞:人工智能語言

李 昱 施春宏 王德夫等

2023年2月15日,武漢大學文學院言吾學社在振華樓多功能會議室舉辦了“ChatGPT 來了!人工智能如何改寫人文社會科學的教學與研究”圓桌論壇。北京語言大學語言科學院施春宏教授、武漢大學法學院王德夫副教授、華中科技大學青年教師陳禹老師、劉星老師等人文社會科學各個研究領域的專家學者作為特邀嘉賓在論壇上做了精彩發言,武漢大學文學院的李建中教授、郭婷婷副教授,青年教師代表楊旭老師等文學院師生也積極參與了此次討論。論壇由武漢大學文學院李昱老師主持,在李昱老師對ChatGPT 的發展歷史、原理和應用現狀做了介紹后,特邀嘉賓和武漢大學文學院師生就人工智能的技術發展情況,人工智能對人文社科領域學術發表、法律體系、國家安全的影響及其應對方法,人工智能和社會科學教學和研究之間的關系和未來趨勢展開了熱烈討論。

一、人工智能產品給本科教學帶來挑戰與變革

李建中(武漢大學文學院教授,武漢大學通識教育中心主任):作為武大通識教育的負責人,我對人工智能產品的更新換代懷有一種深深的憂慮。武大通識教育有兩門必修課——“人文社科經典導引”和“自然科學經典導引”,每一門課程都有8次小班研討,最后還有一篇結課論文,小班研討差不多要寫8次小論文,最后結課還要寫一篇論文。前幾年我們就發現有同學用人工智能作弊,為此我們還專門購買了查重系統?,F在看來,人工智能的一些最新產品(比如ChatGPT)很有可能成為新的作弊工具。如何防止有同學用人工智能產品作弊?或者換一種思路:如何從正面引導同學們將人工智能產品用作通識課程學習的輔助工具?這是需要我們認真思考和嚴肅應對的問題。

大學通識教育的首要任務是培養學生的批判性思維、獨立思考意識和學術的或文學的表達能力。西方文論講“陌生化”,中國古代文論講“望今制奇”,禪宗講“熟路上不著活漢”,實際上都是在講批判性思維,講創新??墒侨斯ぶ悄艿那闆r正好與之相反,它就給你一些套路,一些程序化的東西,一些正確的廢話。當然有一些文本,像法律文本、財經文本、平面設計、工作總結等等,都可以拿來做,這個是沒問題的。但是,學術寫作,藝術創造,是最需要創新的,如果不正確使用人工智能,就會對正常的學術生態、藝術生態還有教育生態形成傷害甚至破壞。

魏子超(武漢大學文學院2019 級本科生):我認為從語言學的角度來看,可以考慮通過一些語言學方法來識別ChatGPT 生成的文本。有學者比較了人類專家和ChatGPT 的回答在詞匯特征、情感、詞類、依存關系等方面的差異,發現了一些區別①Guo Biyang et al.,“How Close is ChatGPT to Human Experts? Comparison Corpus, Evaluation,and Detection.”arXiv preprint arXiv:2301.07597(2023).。我用他們的語料也做了一些語言學分析,發現ChatGPT和人類語言在詞匯豐富度、重復率以及相對重復度等幾個指標方面具有顯著的差異。

另外關于作弊,我覺得以后可能需要改革布置作業和考核的方式。學生總是接受新技術比較快,教師需要有更好的應對辦法,比如說如何從技術上識別它。

李昱:魏子超剛才提到的改革,比如說改革我們的考試方式。有可能以后考試會越來越難,以前只是需要寫一篇論文,你還可以去參閱參考文獻,但以后的考試就可能變為現場來創作一篇文章。

魏子超:我個人是不太擔心這種改變的。我們過去的很多考試都是強化記憶的類型,在這個領域上,人類永遠不可能超越大型自然語言模型。在這種賽道上,我不敢想象怎么去和人工智能比較,所以以后必然會轉向更強調人的創造性和臨場反應能力的考核方式。作為學生,我們必須掌握流暢的自我表達能力和隨時創作的能力。

彭志豪(武漢大學文學院2019 級本科生):我個人對ChatGPT 的準確度持懷疑態度,因為我看到它對于中國歷史知識的一些回答,它會生成一些很莫名其妙的答案。之前我們可能會有思維定勢,認為機器的回答具有準確性,可能會產生依賴。但現階段的ChatGPT 可能會編造答案,在這一點上我并不信任它。另外,它雖然具有摘要總結的能力,但是我認為我們自己完成學術作業,首先自己要去查閱很多資料,在這樣一個過程中自己就會獲得很多知識,這是機器無法替代完成的。機器無法替代人類去提升自己的能力。如果用ChatGPT 去完成作業,那就與布置作業的目的背道而馳了。

李昱:喬姆斯基也是這樣的看法。如果學生的學習工具越豐富越便利,我們對學生的要求就會越來越高,對老師的要求也越來越高,如果當一個老師的課不能再吸引學生的話,那么學生上課走神,用各種各樣的工具來敷衍學習,這是一個意料中的結果。所以喬姆斯基說這就迫使老師只有把上課變得更有趣,才能夠讓學生回到課堂。

人工智能的產生,一方面給我們的學習和科研帶來了很多便利,另一方面也對我們提出了更高的要求。我們總有一天會接納它,只是我們現在正處在一個過渡的階段,目前還沒有做好準備,所以暫時對他采取了一種看似抵制的態度。等到做好準備的那一天,我們自己必須進化出更好的能力,既然它給我們提供了很多的便利,省去了寫作、潤色的時間,就會留給我們更多思考的時間、創新的空間,這其實給人提出了更高的要求。

二、ChatGPT給學術寫作帶來沖擊與機遇

李昱:還有一個大家比較關心的問題,大家都從事科研工作,ChatGPT 對我們未來學術寫作可能會產生一定的影響。就在最近一段時間,國際上很多知名學術期刊,包括《自然》和《科學》,都發表聲明禁止將ChatGPT列為合著者。國內的一些期刊也已經做出類似反應。今天我們也有幸請到了《語言教學與研究》雜志主編、北京語言大學教授施春宏先生來參加我們的討論。請問施老師,站在語言學雜志主編的角度上,您對此有何看法?

施春宏:人工智能必然會在某種程度上影響未來的學術論文寫作和發表,但從目前來看,對我們專業性學術期刊影響不大,不是太可怕,因為這要看人工智能到底是怎么寫作的,它寫出來的東西是怎樣的產品。也就是說,看它輸出的內容是否有學術性,是否合乎學術寫作規范。

雜志如何判斷文章的質量?

我們從編雜志的角度判斷一篇文章好不好,實際上有三個基本要求。

第一個要求是要有知識創新。學術論文的根本特點是為知識積累和發展提供前人沒有發現的東西。創新度的高低是判斷論文學學術性的根本依據。

第二個要求是要有論證過程。論文的基本論證方式有兩種:一個是證實,另一個是證偽。證實比較好辦,舉出與論點一致的例子來支持自己;而證偽則比較難,要給自己的理論畫一個邊界,并指出超出這個邊界的東西從理論上看應該都是錯誤的,或者是當下的理論所不論及的。相對而言,證實比較容易,如果有的課程或者有的專業偏向于用證實法來論證,那么受人工智能的影響可能更大。如果將來ChatGPT 能夠自己通過大數據運算而發現一個數學定理、物理規律,而且能夠證明,那么它就完全滿足了這兩項要求了。

第三個要求是要符合基本的學術規范。這點看上去似乎比較簡單,而實際上ChatGPT 實現起來還真不容易,至少目前就ChatGPT的輸出方式和結果來看,還難以達到理想狀態。對比較注重學術規范的期刊來講,作者在引用別人的觀點時,要明確地標識來源,讓編輯和讀者能夠有效溯源。但是目前ChatGPT 給出的答案,都沒有明確清晰地對所引用的觀點來源做出說明,就憑這一點,也能夠說明它不符合學術規范。還有就是學術表達的規范問題,作者自身的表達方式實際上是具有唯一性的。但ChatGPT 那里,更多的是整合別人已有的表達。另外,ChatGPT 從“正能量”設定出發,在倫理方面做得很好,不提供負面的回答,這種規范跟學術規范也是不一樣的。

那么ChatGPT“寫”出的東西有沒有用?要不要反對?實際上還是有用的,某些情況下甚至非常有用、好用。因為它用來訓練和生成的數據庫特別大,用到的參數非常多,能給使用者思考問題提供幫助。很多新的工具能拓展我們認知的邊界,能夠幫助我們做一些前期的分類加工工作,甚至跟外界的互聯互動都有可能建立起來。所以我覺得ChatGPT是一個非常有用而強大的工具。但是從學術創造的角度來講,它又是一個非常受限的工具,我們剛才講的幾點它都很難實現。其實,目前ChatGPT的應用場景也不在此。

ChatGPT能寫出什么樣的論文?

我們學術研究中的很多問題,不是那種有一個明確答案的問題。這個問題可以換一個角度看,就是ChatGPT能為論文提供哪些幫助,它到底是助手還是合作者,甚至是唯一作者?它可能更多的還是一個助手,所以沒什么可擔心的。它生成的文本是依賴于它接受訓練的數據以及它背后的數據庫的。這不是說它沒有任何“創造性”,文字內容整合本身也是一定的“創造”;但這種所謂的“創造”主要還是一種組合式、庫藏式的鏈接。總體而言,它是一個“知道分子”,不是一個知識分子。知識分子是要創造的,而ChatGPT 只是基于我們當下的知識。如果它將來和中國知網之類的學術資源庫合作的話,而且用學術研究和寫作的方式來訓練,那么對學術論文的寫作和發表的沖擊可能就更大了。那個時候要判斷ChatGPT 生成的產品是不是學術論文,就看雜志編輯和審稿專家的眼光和水平了。越是容易放水的雜志,辨別力可能就更低。

拿綜述性文章來說,將來如果ChatGPT跟規模巨大的學術資源庫綁定以后,它必然給我們寫綜述提供很大方便,甚至可能比一般學生寫綜述的水平還要高。現在某些領域就已經有幫助我們寫提要的工具了。語言學學科歷史維度的資料很多,現在做綜述主要還是靠自己一篇一篇地讀,然后歸納整理。ChatGPT肯定還在迭代,現在是3.5代,說不定現在是為了推出GPT-4代做一個預演,未來可能還有5 代、6 代出來,它的水平可能就越來越高,那么它在綜述方面肯定會寫得更好。目前ChatGPT 有兩個功能:搬運和整合。凡是側重于這方面的綜述,例如你要講怎么成為一個高尚的人,怎樣做一個旅游攻略,它一二三四五,分析得特別好,已經達到常人的水平。實際上,ChatGPT目前輸出的“知識”多帶有綜述性、分類性,越是確定的知識框架和內容,它做起來越方便。

有一個方面它一定寫得不好,就是批評性的內容,尤其是針對具體觀點的批評,針對當前正在發生的特殊現象的批評。ChatGPT 背后的程序給了倫理道德上的規定,因此在內容批評性創新上就有很大欠缺。文科論文,特別是我們語言學論文,多是先講學界研究現狀,并從中發現某些研究不足,再陳述自己的看法,采取事實論證、邏輯論證或者是證偽論證等等。批評是學術成長的重要動力。

批評性文字難,讓我想起了托爾斯泰的一句話:“幸福的家庭都是相似的,不幸的家庭各有各的不幸?!蔽覀冏稣撐淖龅木褪呛蟀攵巍恍业募彝ジ饔胁桓鞯牟恍?。批評的難度還在于從特殊性當中發現普遍性意義。

總的來說,從我們學術論文的角度,我覺得ChatGPT對寫某些類型的綜述可能幫助大一些。這倒進一步給我啟發,對我們如何帶研究生會有幫助:我們要在哪些方面訓練和培養研究生?它能做得好的,讓研究生自己去學,省了不少事;它做得不好的,要著意培養。如此一來,對研究生將來的學術研究和發展應該是有幫助的。

如何應對ChatGPT對學術發表產生的沖擊?

從學術期刊的角度可能就是8 個字:與狼共舞,規范使用。狼來了你也回避不掉,在你的院墻外叫了;要是你的窗子又破的話,它就往里躥了。所以只能是與狼共舞,考慮怎么樣把基本功搞好。

ChatGPT 寫出來的都是“平庸”文本,機械生成的文本,這里的“平庸”要打引號,是中性的。它這種“平庸”文本是基于共享的知識整合出來的。我們在這個基礎上怎樣創造一個非平庸的文本?我們實際上很多研究在消滅“平庸”的同時也在制造“平庸”,是因為“平庸”,所以我們“平庸”了,我們很多研究都是這種路徑。

國內的學術雜志會不會像國外某些雜志那樣,出臺一些針對人工智能寫作論文的限制性措施呢?暫時恐怕不會,因為沒有必要。如果將來有必要,那就是它真的跟知網之類的學術資源庫合作了。目前,國外雜志對ChatGPT 的使用限制,基本上體現在是否允許ChatGPT 署名的問題上。我想,像《自然》《科學》這樣的雜志,難道作者用ChatGPT這種工具寫出來的東西,也能發出來嗎?

國內兩家雜志已經發表了類似限制人工智能寫作使用的聲明,但目前來看這個意義還不夠明朗,所以還是要回到根本,看ChatGPT 到底寫的是什么樣的“論文”。將來難以預測,我們只能說當下:如果是以創新為主導追求的期刊的話,那么目前我們看不出來它有多大的威脅。像我們這種語言研究,連訓練的語料庫都沒有,它目前還會對我們有威脅嗎?

我們換一個角度,從正面來看是不是更好一點?任何新技術肯定會帶來一些負面的東西,但是一定會推動著更多的東西向前走,而且對我們的學術研究一定是個好事。

今后最好能實現它協助人去創新,然后一道前行。如果它真的從人造意識到了有自我意識,那個時代才真是一個特殊的時代。它一旦真的有了共情能力,有了自我想象的空間,有了“無中生有”的創造,有了反事實的判斷,有了證偽的思考方法,有了獨立的倫理問題,在那種情況下,學術雜志的編輯部,就不是現在這個樣子了,可能我們就在給它打工了。

就目前我的理解而言,撇開倫理問題,ChatGPT 等人工智能技術和產品并不可怕,怕的是我們在害怕,因為從進化的角度看,人類對異常的東西容易產生懼怕的心理。經歷了,回頭一看,都是往事,都是充滿不確定的美好回憶。

李昱:謝謝施老師的精彩分析,施老師從比較獨特的角度,幫我們分析了一些我們可能無法分析到的問題,看得出來,施老師對新技術的出現目前還是比較樂觀的。ChatGPT 目前來看應該欠缺思維的能力,更談不上批判性或者原創性的思維,所以他要代替人做科研和寫學術論文,現階段可能性比較低?;蛘哒f它的水平,顯然是不能跟人類相比的。但是另外一方面,它也可以作為一種寫作工具,來幫助科研工作者更有效率或者說更有質量地來完成科研論文的寫作。

三、ChatGPT背后的數據安全風險和法律問題

李昱:今天我們也很高興能夠請到來自武漢大學法學院知識產權方向的專家王德夫老師來參加我們的討論。我們也想請教一下王老師,ChatGPT 的出現引發了不少關于知識產權方面的擔憂,比如關于人工智能剽竊的界定。那么從法律的角度來看,ChatGPT 的出現是否帶來了網絡和數據安全方面的風險?人工智能工具的大規模使用可能引發的爭議又主要有哪些?

王德夫:謝謝李昱老師。在知識產權方向上,我認識有人在中國頂級的律師事務所里做一些前沿法學研究。從法律人的角度,我們第一反應是ChatGPT 能干什么?它能拿來干什么壞事?它背后的數據我們管不住怎么辦?我們中國如果依賴外國的ChatGPT,它如果對我們斷供怎么辦?我們一般都是琢磨它怎么干壞事。

我自己是編程序出身的,我大致知道自然語言處理在我們整個人工智能學科里面的重要性,它絕對不是一個聊天或者說翻譯的工具。它對我們整個現代社會,我們的數字中國,我們的智能制造,我們能想到的一切的時髦的前沿的詞匯,包括我們中國式現代化,它都起到一個基礎設施的作用,關鍵在這個地方。它是我們自然人和信息系統溝通的這么一個橋梁。

ChatGPT技術上有何突破?

我們今天談論的ChatGPT,它其實有兩部分內容,第一部分是讓機器知道人想要什么,這一點很關鍵。第二步才是他知道了人要什么東西,他去找能做這件事情的資源,這是兩部分。我們一直都有做事情的資源,中國是全世界工業門類最為齊全的國家之一。但是計算機信息系統不知道我們人能干什么,人想干什么。以前誰負責讓機器了解人類的意圖?那是程序員。

剛才李老師說了,最基礎的自然語言處理是基于規則和概率。這跟我們智能電飯煲其實是一樣的,第一步先加米,第二步加水。到了多少分鐘的時候高火,到了多少分鐘的時候,我又想做一鍋稀飯出來,為什么這時候往往走不通?因為事情太復雜了,你得需要多少個規則去做?所以它一定會撞上一面叫復雜性的墻。

那么最近這些年人工智能火起來之前,自然語言處理學家在干什么?剛才我聽李老師講,是在做神經網絡。說得再具體一點,在做卷積神經網絡。但是卷積神經網絡的問題是效率低,它是順序進行處置的。卷積神經網絡處理不了很長的文本。它在處理長句的時候,每一個字的翻譯和理解只能管它前后這么一點點。一旦這個句子走到了下一段,它馬上就忘得差不多了。所以說,這是我們卷積神經網絡不可避免的一個技術障礙。

但是現在ChatGPT 進行預處理,它首先對每個字進行編碼,之后它要定位滾動到什么位置,定位完了他的預處理這個模型的轉變輸出什么,它把文章中的每一個字或單詞和每一個字的關聯度進行計算。稍微扯遠一點,它涉及我們智能時代的計算問題,我們經常講計算,我們計算的是什么?它最開始的計算是二進制數字,只能做加法。智能時代是算向量的,所以說到了ChatGPT 的時代,它變得很復雜,有很大的計算規模。

人工智能發展到ChatGPT 階段,我們不能把它只當做一個好玩的工具。就ChatGPT 實話實說,文章寫得好不好,表達得像不像人,說的俏皮話是不是真的像一個詼諧幽默的人,其實我本人并不是很關心這些事,我關心的是什么?是它背后有很多很基礎的東西,它其實是把簡單的事情重復多次的。ChatGPT 聊天只是個副產品,它不是拿來玩的,它是讓我們的機器世界知道我們自然人在干什么,想要什么,這個就很厲害。

比如說作為一個聊天機器人,它陪我解悶的時候,它能理解我,講講笑話,它能理解我的需求。比如說假如我是開飯館的,我需要一個自動化的系統。今天我要進肉進蛋,我今天用了多少食材,它能知道我是開飯館的,然后在另一端去調用、做菜、管賬。這本身也是一個十分開放的環境。

ChatGPT會帶來數據安全風險和知識產權問題?

從法律的角度來看,我們眼下最關注的是ChatGPT 能不能夠馬上拿來做壞事。它可以做很多壞事,如果我們這里開個討論會,說現在的ChatGPT 之類的自然語言模型能夠做多少壞事,我們討論到明天都沒問題。

我們要看它的背后。我們給有關部門提交的報告中,很少直接用“ChatGPT”這個詞。我們用的是“美國自然語言模型人工智能”。一定要強調“美國“這兩個字,因為美國真的查能會跟我們斷供。ChatGPT 發展到一定程度以后,如果它不開源了,我們就只是一個用戶了。想想看,如果我們的智能產品是基于美國人告訴我們中國的機器中國人想干什么,我們還依賴它,美國把API(Application Programming Interface,應用編程接口)關了,我們不就傻眼了嗎?所以說我們第一個考慮的問題是被斷供的風險。

第二個風險,提一些涉及政治立場的問題,比如說我問它中國民用氣球失控進入美國領空,中國有沒有侵犯美國人的主權?它的回答可能會有政治風險。這里頭其實就是第二個隱藏的風險。沒有野生的人工智能,全部都是家養的。這個家是誰呢?往小了看,是微軟投資的企業,往大了看,背后一定有著政治實體的影響。所以說它的有害信息的問題、它的立場、它對我們信息投放的問題,都納入了我們做的一個規劃。

第三個像剛才已經討論很熱烈的作弊的問題。假設我們學校的領導說我們本科生寫作業不能用這種自然語言模型來幫你寫,否則的話就要評零分甚至開除。你說得再嚇人,只要發現不了,那就沒有意義。但是能不能發現?其實這個事情不難。我們講人工智能的時候,經常講有個概念叫“系統性風險”,系統性風險里面有一個很重要的概念叫“趨同”,什么是趨同?打個比方,假如李老師問ChatGPT 一個問題,我也問它這個問題,魏同學也問它這個問題,它的輸出文本是差不多的。在金融的自動合約、自動交易里面這種問題比較常見,比如說自動交易定盤的這個軟件,大盤如果下跌出現某種信號,就拋售手中的股份。如果我們不同的券商用的都是同一款人工智能,這個事情就遭殃了,這就產生了踩踏。

我們給有關部門提供的這種建議很多。能運營這種自然語言模型人工智能的公司數量不會太多,這個東西門檻很高,就那么幾家公司。你要求他做一些技術上的處理,這是很容易的事情。比如說加一些冗余的代碼,加一些不隱藏于外的識別標志,甚至說對某一個區域,比如說武漢大學校內的IP訪問進行一些統計,都是很容易做得到的事情。

從法律的角度,還可以有很多的討論。比如說知識產權,我們很多時候在討論機器人能不能成為作者的問題。這種討論沒有任何意義,起碼我覺得沒有任何意義。因為《中華人民共和國著作權法》上寫的清清楚楚:作者是自然人。作者能不能從自然人擴展到到機器人?這是一個嚴肅的科學問題,不是閑聊。我們只能從法律、從利益的角度來討論。等到機器人他畫的畫、寫的詩歌、創作的音樂甚至創作的視頻,在網絡上鋪天蓋地的時候,機器人有著作權意味著什么?意味著你作為用戶,你看一眼、聽一下都要付費。你們現在在網上下載一點東西,甚至只是個空表格,他都要你來注冊、收你幾塊錢。如果這些機器生成了大量的充斥于網絡空間的、有使用價值的文字圖像,它享有著作權,就意味著有人可以收費。知識產權的本質是對信息流動的限制,我覺得這是不利的。所以說從這個角度,我們所發出的聲音都是拒絕承認機器人的作者地位。不是因為我喜歡或者討厭機器,我從小就喜歡機器。但是要考慮利益因素。

李昱:非常感謝王老師非常精彩的發言,把我們今天這個主題提升到了一個新的高度和維度。剛才王老師從國家戰略安全的角度分析,人工智能現在已經成為了一種基礎設施,它不僅僅是一個聊天工具、一個幫我們寫論文的東西,而是以后我們生活中可能離不開的東西。除了思考可能存在的風險,我們更應該考慮如何更好地使用它。

四、ChatGPT引發對人類語言和語言學理論的新思考

李昱:ChatGPT 從根本上來說是一個語言模型,跟人類的自然語言和語言學理論有著密不可分的關系。今天我們也請到了幾位語言學專家,請他們就ChatGPT 這個語言模型與當下的語言學理論之間的關系談談看法。

楊旭(武漢大學文學院講師):關于ChatGPT 對語言學界的影響,我先介紹三個名人的觀點,再提出自己的一些疑惑或想法。

第一個是特德·姜(科幻小說家),他在《紐約客》發表了一篇題為“ChatGPT 是網絡上的一個模糊的JPEG 文件”①Chiang Ted.“ChatGPT is a blurry JPEG of the web”.The New Yorker,2023.,https://www.newyorker.com/tech/annals-oftechnology/chatgpt-is-a-blurry-jpeg-of-the-web.的文章,引起了很大的反響。JPEG 相對RAW 是一種壓縮后的格式,會丟失很多重要的信息或數據,他認為ChatGPT轉述信息就是一種壓縮,如果將來人工智能產生的語言也被喂進模型,那么丟失的信息或數據會越來越多,這就好比一張照片經過無數次復印會變得越來越模糊不清。

第二個是喬姆斯基(語言學家),他說ChatGPT 是一種高科技抄襲和避免學習的方式。從喬姆斯基嘴里說出這句話,好像顯得有點平庸,因為好多媒體都在討論人工智能剽竊的問題。但我個人認為這也是一種隱喻,就是說,ChatGPT 并不像人類語言一樣具有創造性,它只是基于大語言模型的概率模式生成語言,但不理解語言,也無法創造思想——這種認識其實和特德·姜類似。

第三個是趙智恩(Jieun Kiaer,牛津大學韓語教授),她在新近出版的著作《與人工智能同行:一位語言學家對ChatGPT 的回應》中討論了ChatGPT 帶來的種種問題,尤其是從語言學視角提出了人工智能的兩個缺陷:其一是缺乏語言多樣性,即人工智能的主要語言是英語,在非歐洲語言中的運行效果并不好;其二是缺乏語用多樣性,即人工智能尚無法重現人類交際過程中微妙而復雜的語用意義。

下面是我個人的疑惑或想法:

1.人類溝通很重要的基礎是社會認知能力,就是說我們會在交流中有意無意地猜測他人的知識、意圖和信念,以此來決定如何交流。李昱老師提到一個研究,說ChatGPT 的達芬奇-003(davinci-003)可以解決93%的心智理論任務,與9 歲兒童的表現相當,表明其可能發展出了一定的心智理論,這值得我們進一步探究。

2.那么我們是如何猜測他人的心理狀態的呢?我們是通過身體感覺到的各種線索,就是常說的多模態。但是ChatGPT目前只能進行文字交流(所謂“聊天”只是書面聊天,好比過去的短信),如果線索的種類沒有那么豐富,那么ChatGPT猜測我們心思的能力就很值得懷疑,運用語言交流的能力(而非語法能力)也會存在問題。

3.人工智能除了缺乏語言多樣性和語用多樣性,還缺乏變體多樣性。ChatGPT 的訓練數據主要是書面語言,語言學史中的書面偏見阻礙了語言學進步,如果不認識到這一點也將阻礙人工智能的進步。事實上,書面和口語二元對立無法涵蓋所有的語言變體,還包括各種社會方言、情景方言、個人方言等變體,這都是人工智能暫時難以勝任的地方。

4.人工智能可以成為語言學家的助手甚至合作者,比如趙智恩就邀請了ChatGPT 成為她的合作者。人工智能掌握了大量的語言數據和語言學知識,因此可以協助語言學家處理各種語言學難題,比如對已有的“三千萬種語法理論”①Mac Cawley James D.Thirty Million Theories of Grammar.Croom Helm,1982.進行反思,為人工智能的下一次升級提供來自語言學的智慧。

5.在人工智能的發展中,語言學或語言學家好像缺席或隱身了。我問了ChatGPT 這方面的問題,它說參考了語言學的一些成果,但沒有采用某個具體的理論(ChatGPT 的全稱是Chat Generative Pre-trained Transformer,即聊天生成式預訓練轉換器,里面出現了“生成”和“轉換”的字眼,但和轉換生成語法沒有什么關聯),而是采用了一些不同于傳統語言學中的方法和技術。我們都聽過“每當我們解雇一名語言學家,我們的系統都會變得更準確”的說法(來自IBM 的工程師Frederick Jelinek),個人感覺這將進一步加重語言學的危機感,或者說會推動語言學發生范式變化甚至革命。

6.ChatGPT 的火熱也給語言學帶來很多新的議題,比如ChatGPT 等聊天機器人產出了一種新的語言,值得我們對語言的定義和本質進行更深入的思考。ChatGPT 雖然基于自然語言,但無論是底層邏輯還是表層形式,都不同于人類語言。此外,ChatGPT 還帶熱了古已有之的對話體,很多文章都以截圖或轉錄的方式直接呈現對話記錄,這證明了它不止是一種工具,更是一種數字人(Digital Human)的角色,可以以主體身份參與到我們的創作活動中。

陳禹(華中科技大學中文系講師):我想說三點感想,一是追求極致的效率會帶來風險,二是人工智能尚未實現自反性,三是面對ChatGPT的到來仍然要高揚人文精神。

首先,追求極致的效率是人工智能不斷發展的根本動力,計算機不怕累,擁有超強的記憶力、反應力,幾乎在卡尼曼所述的“系統二”(system 2)之中的每個方面都遠超人類。追求極致的效率,必須大量使用人工智能,才能保證在教育、科技、工業、商業的競爭不落下風,但一旦相關人工智能服務出了問題,或者某個環節被卡了脖子,造成的風險或許是災難性的,最近芯片的摩擦就很能說明問題。

其次,我們語言學評價一種理論,一個很重要的方式是看“自反性”,也就是這個理論能不能用來解釋這個理論自身,比如說結構主義動用離心結構、向心結構描寫語言,但這些說法本身也是語言,結構主義理論能給出其確立的合理性嗎?似乎不能,于是就有了后面的其他新的理論流派。以ChatGPT 為代表的人工智能也可能存在這個問題,它雖然似乎知道很多問題的答案,但是它知道它究竟回答的是什么嗎?并且它知道它為什么要回答嗎?更進一步它知道是怎么做到能夠回答這個問題的嗎?我作為人可以意識到,我相信現場的各位也可以意識到。不過我非常懷疑ChatGPT 能夠做到這種自反性。

結合第一點,我們在發展人工智能的同時,一定要注重緩沖力量的制衡。結合第二點,自反性或許是我們永不會被ChatGPT所取代的關鍵,我們有感覺、有直覺、有自我意識、能夠不斷反思。所以我依然認為在人工智能時代到來之際,依然要高揚人文主義的精神,也就是說“即使有汽車火車飛機替代了人類的雙腳,人類也不應放棄步行”。

劉星(華中科技大學中文系講師):我是比較傾向擁抱新技術的。但在擁抱這個技術之前,我們可能還需要儲備一些能力,來更好地發揮它的作用,我覺得其中一個比較重要的能力就是提問能力。我第一次用ChatGPT 是給印度尼西亞的一個學校寫信,請求學校允許我在那里實習的研究生返回中國完成畢業論文,我最初的預想是他可能會寫一封中規中矩的信,但最后這封信的內容有點超乎我的想象。它不僅把我的核心需求用幾句話就交代清楚了,還嘗試去說服對方學校允許辦成這件事。我想這說明,通過描述問題的背景它是能明白我的需求的。同一個問題換一個問法,可能會有不同的結果。和楊旭老師不同,我是這么問的:“你好,我是一名生成語言學的研究者,我想知道生成語言學理論對ChatGPT 有什么影響,”它的回答就不太一樣:它說我們用到了很多語言學的理論來完善ChatGPT,其中就包括生成語言學理論,然后說它既有基于大數據,也有基于這種規則性的這樣的一些方法來訓練他們的模型。總的來說,我們還是得給它更多背景信息才能更好地讓它明白我們想做什么,當然這其中當然也存在著一定的風險,這是我的一些使用體驗。

楊逸云(武漢大學文學院寫作學博士研究生):我的博士論文的方向就是人工智能寫作,看到各位老師或是一些公眾號的說法,認為ChatGPT 改變了一個時代,但從技術方法的角度看,我覺得它其實沒有質的改變。因為自然語言處理到現在為止,我們可以把它總結為兩種大的方法,一種是理性主義,一種是經驗主義。

最原始的聊天機器人是任務型的,我認為它就是理性主義的方法,是一種基于規則的方法。包括剛才老師們在討論說喬姆斯基跟人工智能有什么關系,其實喬姆斯基跟人工智能的關系應該就在這個地方。它是基于喬姆斯基的理論構建的,它把我們的語言規則總結出來,然后在人工智能當中運用。

到了20世紀90年代的時候,我們就換成了生成型的方法,也就是經驗主義。至今,包括ChatGPT,人工智能的寫作這方面其實一直都是經驗主義為主。經驗主義存在一個問題:它是一種概率統計,我一個不會寫作的人也可以用人工智能寫作的軟件去寫作,ChatGPT實際上還是在做概率計算,只是實現了算法上的提升和數據上的擴大。

所以我一直在思考的一個問題,就是這種經驗主義它的盡頭在哪兒。國內的學者像馮志偉先生,還有國外的邱奇先生,他們很早就提出了這個問題。是不是這個數據越多,然后算法能力越強,它就能生成越好的文章,它有沒有一個盡頭?或者說,它的盡頭是不是還是要回歸到理性主義上?

魏子超:一個語言學家,他能遍歷多少語料?他們自己能了解多少個單詞?他基于這部分語料總結出來的規律可靠嗎?這個我覺得是值得懷疑的一點。盡管我更傾向于相信我的語言學知識是可靠的,但實踐的結果讓我懷疑這一點。我覺得只有那種復雜的訓練才能導向更可靠的知識,這對研究者來說可能是一個很悲觀的回答。我們可能真的沒有人工智能懂語言。以阿爾法狗(Alpha-Go)為例,他對圍棋的造詣,可以說已經是“超乎技近乎道”了,已經超越了一切人類棋手,這時候再要求阿爾法狗去學習我們人類,這對他的水平不一定有提升。

郭婷婷(武漢大學文學院副教授):看來子超同學是堅定的經驗主義的支持者。現在的ChatGPT這種大語言模型,它是需要用海量的數據去訓練的,簡而言之就是“大力出奇跡”,但這樣的一種方式顯然不是真正意義上的我們人類的思維模式。我們人類的思維是小而美、小而精的,不需要海量的數據一樣能夠進行推理和創新。

經驗主義的人工智能產品確實有非常廣闊的應用場景,但我個人覺得它和理想中的具有真正理性的人類智能還是有差距的。我之前參與了一些語言知識工程的項目,主要采用的是理性主義的方式,這跟目前的經驗主義的方法是不同的思路。如果今后的人工智能能夠把兩個方向進行結合或許是一條比較理想的路徑,比如說用大數據的方式,去幫助我們挖掘有關語法、語義規則的知識,就能再進一步去完善產品,提升產品性能。

經驗主義的方法還有兩個問題。一是成本問題,處理大規模數據的費用非常高昂,只有資金實力極為雄厚的大公司才可能開發類似的產品,這勢必會帶來人工智能技術的壟斷;二是風險信息的問題,剛剛王德夫老師也說了類似的觀點,人工智能背后都帶有開發者的價值觀、世界觀、倫理觀,它或許只想讓你看到它想讓你看到的內容。因此,我們應該秉持更加理性的態度去看待當今人工智能的發展,經驗主義和理性主義兩個方向我們都沒有必要去完全肯定或是完全否定。

王德夫:我長期以來都有一個核心的觀點:沒有天上掉下來的智能?;诖髷祿倪@種海量數據挖掘,是我們用強大的計算機把簡單的事情飛快地做了無數遍。我相信我們現在所有體現出的智能都是把簡單的事件重復一千萬遍。ChatGPT 背后是人工智能的優勢:擴散算法,其核心在于想辦法減少計算機的運算而不是增加。任何計算機都支撐不起指數級別數據的運算。所以我們在考慮能不能把計算機的智能做到更小,這就是郭老師所說的小而美,也可以叫小數據大智慧。地球是圓的,你一直往錯誤的方向走,也能繞著地球轉一圈,那我們在大數據的道路上“南轅北轍”能不能也能到達終點?

李昱:今天非常感謝各位專家從各種不同的角度,像施老師從科研和學術發表角度、王老師從法律、知識產權、數據安全等角度,陳老師和劉老師從各自的研究領域給我們做的分析。非常感謝各位專家提供了自己非常獨到也很有價值的見解。我相信今天是一個小而美的討論會。對于新事物,每個人接受的程度和對它的態度都不一樣,有的人可能對它比較謹慎,有的人甚至對它比較警惕,但是我相信更多的人會去擁抱新的技術。從下個學期開始,我們很多老師可能就要開始跟ChatGPT 斗智斗勇。雖然我們面對新技術,一開始會感覺到有一點惶恐或是錯愕,但是我相信我們未來會慢慢習慣它滲入到我們生活的方方面面。謝謝大家。

猜你喜歡
人工智能語言
我校新增“人工智能”本科專業
語言是刀
文苑(2020年4期)2020-05-30 12:35:30
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
讓語言描寫搖曳多姿
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
多向度交往對語言磨蝕的補正之道
累積動態分析下的同聲傳譯語言壓縮
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 04:56:22
主站蜘蛛池模板: 午夜啪啪福利| 亚洲国产精品一区二区第一页免 | 成人av专区精品无码国产| 亚洲欧美日韩精品专区| 亚洲中文在线看视频一区| 亚洲日韩久久综合中文字幕| 日韩欧美综合在线制服| 亚洲成人黄色网址| 国产h视频在线观看视频| a级毛片网| 欧美一级高清片欧美国产欧美| 秋霞国产在线| 青青操国产| 国产鲁鲁视频在线观看| 久久美女精品国产精品亚洲| 99久久婷婷国产综合精| 夜精品a一区二区三区| 无码人中文字幕| 91探花在线观看国产最新| 亚洲成人网在线观看| 在线视频精品一区| 538国产在线| 日韩大乳视频中文字幕| 国产成人无码Av在线播放无广告| 亚洲欧美综合另类图片小说区| 国产精品99久久久久久董美香| 国产成人三级| www.av男人.com| 成人无码区免费视频网站蜜臀| 色网站在线视频| 天天摸夜夜操| 亚洲av无码专区久久蜜芽| 欧美性久久久久| 白浆免费视频国产精品视频| 亚洲国产中文在线二区三区免| 亚洲第一成年网| 91精品久久久无码中文字幕vr| 亚洲综合精品第一页| 一本大道香蕉久中文在线播放| 国产国拍精品视频免费看| 色婷婷久久| 国产欧美视频一区二区三区| 欧美激情二区三区| 亚洲va在线观看| 国产精品人莉莉成在线播放| 亚洲天堂网在线观看视频| 欧洲av毛片| 在线看国产精品| 好久久免费视频高清| 国产激情无码一区二区免费| 国模在线视频一区二区三区| 国产一级二级三级毛片| 亚洲中文字幕手机在线第一页| 在线观看亚洲成人| 国产一区二区精品高清在线观看| 久爱午夜精品免费视频| 亚洲色大成网站www国产| 久久久久亚洲AV成人人电影软件| 青青青草国产| 中文字幕久久精品波多野结| 亚洲天堂首页| 精品国产自在现线看久久| 国产素人在线| 亚洲成人www| 欧美一区二区三区欧美日韩亚洲 | 成年看免费观看视频拍拍| 在线欧美日韩| 国产高清在线丝袜精品一区| 欧美精品成人一区二区视频一| 国产综合精品日本亚洲777| 尤物特级无码毛片免费| 久久无码av三级| 欧美另类一区| 国产精品黑色丝袜的老师| 国产免费一级精品视频| 欧洲高清无码在线| 一本综合久久| 欧美高清国产| 免费在线成人网| 一级毛片免费高清视频| 亚洲 欧美 中文 AⅤ在线视频| 九色视频线上播放|