999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

應用場景、風險與前景:ChatGPT 類大語言模型時代的學術出版

2023-12-15 00:17:15宋時磊楊逸云
出版科學 2023年5期
關鍵詞:人工智能內容語言

宋時磊 楊逸云

(武漢大學文學院/漢語寫作研究中心,武漢,430072)(武漢大學文學院,武漢,430072)

2022 年11 月 底,美 國OpenAI 公 司 發布ChatGPT 后,人工智能聊天機器人(AI Chatbot)迅速成為“網紅”,各領域掀起了與其文本對話、使用其生產內容的網絡“狂歡”,各學科也在評估和反思其帶來的挑戰和機遇[1]。 ChatGPT 是一款經過訓練的大語言模型,經過了數個版本的迭代,與之前同類的聊天機器人相比,它能更出色地理解和生成自然語言,能夠完成廣泛的多種類任務,特別是在整合信息、回答人類問題方面表現驚艷,并且還在不斷自動學習、進化和提高。在此之前,AlphaGo 等專用人工智能已經擊敗了人類的特定技能,而ChatGPT 大大推動了通用人工智能的發展,人工智能接近或者超越人類的時代或許即將到來。ChatGPT 類大語言模型通用人工智能是人類自我打開的“潘多拉魔盒”,勢必將對科技、教育、醫療、文學、藝術等領域產生深刻影響。近幾年跨媒介的人工智能發展迅速,ChatGPT 的優異性體現在形式上的問與答以及內容上的“從文本到文本”,生成的文字極具邏輯性和論證力。這對以文本內容生產為使命的出版業,特別是強調原創性的學術出版業造成了極大沖擊,引發了學術規范、倫理和道德的爭論,各期刊和出版社基于不同立場和態度出臺了針對大語言模型工具的規制政策。本文試對此分析,并提出ChatGPT 革命的意義以及學術出版應對策略。

1 大語言模型在出版業中的應用場景

1.1 研究對象或工具性的輔助者

從事學術研究最基礎的工作是文獻綜述。然而查找相關文獻、閱讀、整理形成觀點,研究人員需要花費大量時間和精力。ChatGPT類大語言模型工具有很好的上下文理解和總結能力,故研究人員嘗試運用其撰寫研究綜述。奧梅爾·艾登(?mer Ayd?n)等人以“醫療保健中的數字孿生”為題從谷歌學術上檢索文獻,經ChatGPT 閱讀和理解后,研究者向其提問,結果發現ChatGPT 轉述的論文內容,與原論文有顯著的匹配性,較好地回答了提問。這說明現階段的人工智能工具能夠加速知識的編譯和表達[2]。研究者開始將ChatGPT 作為生產力工具來使用,輔助論文寫作、檢查編程代碼、撰寫科研項目申請書、引導頭腦風暴等。ChatGPT 有被當做數字秘書或數字助理的趨勢,哈佛大學的一位學者認為ChatGPT 在非常專業的學術領域尚難完全勝任工作,但他也承認使用其給出某個科研問題的20 種解決辦法時,ChatGPT 給出了他從未聽說過的統計學術語,進而為論文撰寫打開了一個新的文獻領域[3]。有研究者使用ChatGPT 探討其快速生成、重寫和評估臨床小插圖集的能力,發現ChatGPT 在編寫基于疾病名稱的小插圖時能夠快速生成不同的上下文和癥狀概況描述,但過度使用了一些核心疾病癥狀。因此,這種應用場景的使用過程需要人工監控,結論也要進行適當審查[4]。

1.2 學術研究的共同合作者

ChatGPT 自然流利、邏輯完整的生成內容激發了人們的興趣,研究者通過不同問題測試模型及其效果,獲得了相應的文本。而這些文本成為研究對象或論文內容的有機構成部分,承擔了論文合作者的角色,故已有少部分論文將ChatGPT 列為論文作者。根據語義學者(Semantic Scholar)、《自然》雜志的統計數據,已有10 余篇論文把ChatGPT署為合作者,即賦予ChatGPT 人格化的署名權。2022 年6 月哈爾開放科學(HAL open science)上發表了一篇探討AI 論文生成能力的論文,GPT-3 被列為第一作者,ChatGPT是基于GPT 系列模型微調而誕生的聊天機器人,因此這篇論文可視為第一篇將大語言模型列為作者的學術論文[5]。ChatGPT 自2022 年11 月底上線以來,這類論文迅速增多。2022年12 月,醫學預印本資料庫medRxiv 上,發表了一篇測試ChatGPT 在美國醫學執照考試過關能力的論文,ChatGPT 就被列為作者[6];AI 制藥公司香港英科智能創始人亞歷克斯·扎沃龍科夫(Alex Zhavoronkov)與ChatGPT合作完成了一篇探討雷帕霉素抗衰老應用的論文[7]。扎沃龍科夫還表示,他們公司發表了80 多篇使用生成式人工智能工具寫作的論文,盡管這些論文沒有將人工智能工具署名[8]。2023 年1 月,英國曼徹斯特大學的健康技術研究員西沃恩·奧康納(Siobhan O’Connora)使用ChatGPT 撰寫了一篇社論的前五段,向學生和教師演示如何使用這一工具撰寫評估報告或者是學科論文,這篇文章同樣采取了合作署名的方式[9]。一些期刊編輯在撰寫“編者按”時,也與ChatGPT 共同署名[10]。還有一些文章是訪談式的,人類作者是訪談者,ChatGPT 是被訪談者,人機對話生成文章、共同署名[11]。這種人機對話的文章頗多,其中涉及一些學術和專業領域的話題探討,《時代周刊》、中國新聞網、《中國教育報》、《中國證券報》等都曾刊登了相關文章。

1.3 內容、語言和風格的潤色者

ChatGPT 類大語言模型工具生成的內容有多維和多元的特性。其一,針對同一個問題對象,它的回答內容和方式不盡相同,并非是對網絡內容的復制而是有機地整合和表達,所形成的文字可以通過專門的文字工具進行查重。其二,它的語料數據庫極其龐大,涉及多國語言,它可以根據問題調用各語言的信息,并用多種語言回答。其三,它可以根據人類的問題生成特定語言風格和類型的文字,如可以快速生成莎士比亞式的表達風格。在此之前,已有一些機構或軟件開發了語法與修辭方面的語言修改、潤色工具如Grammaly,與這些工具相比,ChatGPT 在智能化、隨機化和多樣化等方面已經有了質的躍升。這些特性使得ChatGPT 類大語言模型工具可以成為人類很好的寫作助手,2022年計算生物學家凱西·格林(Casey Greene)和米爾頓·皮維多里(Milton Pividori)使用GPT-3 潤色論文,這一寫作助手在幾秒鐘內就給出了修改建議,每篇文章只用5 分鐘便完成修改,可讀性大為提高,它還發現了一篇論文中一個方程式的參考文獻存在錯誤,并且成本和費用很低,每篇不到0.5 美元[12]。故《華爾街日報》使用人工智能為讀者生成個性化的浪漫喜劇宣傳文字內容。2023 年1 月,熱點速報(BuzzFeed)宣布使用ChatGPT 來“增強”和“個性化”其平臺上的文字內容,其首席執行官約拿·帕瑞蒂(Jonah Peretti)認為此舉可以發揮作家、制片人和創作者以及公司業務的創造力[13]。此功能的負面應用隨之而來,如研究者可以在ChatGPT 中輸入一段已發表的文字并要求其用某學科的學術語言風格改寫這段文字,則會生成一段主旨和主題一致、表達語氣和風格全然不同的文字,這為學術剽竊打開了方便之門。

1.4 文本內容乃至生態構建者

鑒于ChatGPT 類大語言模型的強大能力,有學者已經嘗試由其完成一篇完整的論文。《金融研究快報》上刊登的一篇文章,以“加密貨幣的金融”為主題,首次提供了ChatGPT 幫助撰寫研究報告潛力的結構化測試。他們借助這一工具實現了整篇論文想法生成、文獻回顧、數據識別和處理以及實證測試四個過程的內容生成[14]。研究結果表明,通過ChatGPT 可以寫出一篇能夠被學術期刊接受的金融論文。其實,在此之前運用人工智能手段獨立完成一部圖書或著作,生產內容并不限于學術領域。1999 年美國舊金山曾發起“全國小說寫作月”(NaNoWriMo)的活動,要求參與者在一個月內寫出一部5 萬字的小說。受此啟發,網絡藝術家卡澤米在吉特哈伯(GitHub)上創辦了“全國小說生產月”,參與者需要將創作圖書所使用的全部程序代碼以及生產的文本在吉特哈伯社區公開,供其他參與者查閱、評論和開源使用,這已經成為一項參與度頗高的人工智能寫作活動[15]。不僅如此,人工智能還可以生成小說,乃至可以生成整套書系,從銷售主題書店、圖書生產到書評的全流程都可由人工智能模型完成[16]。

2 大語言模型應用的主要風險

2.1 剽竊的隱蔽性與知識產權認定的難度

ChatGPT 類大語言模型在學術出版等領域的應用,帶來的首要風險是剽竊。大語言模型的智能之處在于使用完全相同的提示符多次生成響應,每次都會產生不同的結果[17]。也就是說,每個使用者用同一個問題提問,獲得的答案和反饋各不相同。這使得剽竊效率大為提升,更加隱蔽和難以發現。甚至使用大語言模型撰寫的表面“原創”的文字,比較容易通過剽竊工具的檢測。美國西北大學一個研究小組使用ChatGPT 生成醫學研究論文摘要,以測試科學家是否能發現它們。他們從《美國醫學會雜志》《新英格蘭醫學雜志》《英國醫學雜志》《柳葉刀》和《自然醫學》等頂級刊物上精選文章,讓ChatGPT 撰寫了50 篇醫學研究摘要。為了找出哪些摘要是ChatGPT 生成的,一方面,他們使用了剽竊檢測器和人工智能輸出檢測器,另一方面,他們還請一批醫學研究人員來人工閱讀。經過試驗和測試,ChatGPT 生成的摘要順利通過了剽竊檢查,在原創性方面的得分率為100%,即沒有發現有抄襲的痕跡;人工智能輸出檢測器發現了66%的生成摘要;人工審稿人只正確地識別了68%的生成摘要和86%的原始摘要,但錯誤地將32%的生成摘要識別為真實摘要,14%的真實摘要識別為生成摘要[18]。這說明當下階段的大語言模型工具已經具備撰寫高信度科學摘要的能力,甚至可以假亂真。這就提出了許多非常嚴峻的問題,怎樣鑒定和識別學術出版物中的文章是否由大語言模型工具撰寫,以及有多大比例是使用這類工具撰寫的;大語言模型工具是否可以成為學術出版物的作者等。進一步說,使用大語言模型工具撰寫學術內容可接受的限度以及寫作的規范、道德和倫理應當如何,這些問題亟待回答。

隨之衍生出來的問題,還有生成內容原創性和知識產權的認定問題。由大語言模型生成的內容和觀點是現有知識整合的結果,還是新穎的獨創性觀點有待進一步分析。另外,基于這些模型所生成的文字、圖表的所有權是歸生成模型的用戶,訓練模型的開發人員,還是制作訓練示例的內容創建者,這些問題還有待厘清[19]。已發表的人類與ChatGPT 共同署名的文章,這種署名方式是否得到了OpenAI公司的授權,還是人類作者擅自主張的行為,還有待確認。隨著這些內容生成式模型被更廣泛地采用,這些問題以及更多問題將隨著時間的推移需要得到進一步解答。

2.2 知識謬誤的傳播和學術造假問題

大語言模型生成內容的權威性和真實性無法得到保證,容易導致知識謬誤的廣泛傳播,或者是成為學術造假的源頭。國內外的眾多測試者意識到,在一些專業領域ChatGPT 類大語言模型會模仿人類方式從事偽造知識的生產,尼格爾·柯蒂斯(Nigel Curtis)等發現用ChatGPT 撰寫論文,所有生成的參考文獻是無意義的,相關的網絡鏈接是不相關的,是由所謂的人工智能幻覺或“隨機鸚鵡學舌”引起的虛假參考文獻[20]。筆者曾以“請講一下達摩眼皮變茶樹的故事”提問,ChatGPT 給出了一個它自行虛構的故事,而實際上這個故事出自18 世紀荷蘭坎貝爾的《日本史》[21]。如果不具備這類專門知識的受眾,將ChatGPT 版本的故事信以為真并發布到網絡上,經過多次謬誤傳播,則會成為錯誤信息傳播的源頭。中國傳媒大學腦科學與智能媒體研究院院長曹立宏認為如果從事科學研究的學者把ChatGPT 這類“穿了個AI 的深度學習的馬甲”的工具當成研究向導,會常常出現“很一本正經地胡說八道”的問題[22]。大語言模型使用的語料還可能存在過時信息或垃圾信息,以及有種族、性別和宣揚偏見和仇恨的內容,進而生成有害信息或者是有特定文化優越性的觀點。盡管開發公司已經采取了人工標記等方式來規避這些問題,但使用者可以通過變換提問的方式,逃避過濾規則[23]。基于這些風險,一些知識問答類的平臺發布了臨時禁用政策,如知名開發者問答論壇棧溢出(Stack Overflow)臨時禁止用戶在其上發布ChatGPT 生成內容來回答提問,這是因為很多開發者將ChatGPT 生成的看起來科學嚴謹、實則錯誤眾多的答案搬到平臺中,沖擊了該網站內容質量管理體系。

2.3 內容生產公平性、知識壁壘等風險

大語言模型工具在提升寫作效率、加速內容生產的同時,還會帶來學術生產不公平、學術出版壁壘、科學民主化等難題。新加坡國立大學的科學傳播研究者擔心,大語言模型工具可能會加劇不同資源獲取渠道或對嘗試新技術持開放態度的實驗室之間的不平等:使用人工智能工具寫作的機構會有更快的學術生產,盡早產出論文,可以加速獲得科學認可和利潤風口的知識產權;反之,不使用這類工具的機構和作者則會在學術競爭中處于弱勢地位[24]。隨著大語言模型的不斷進步,它會成為一把雙刃劍:一方面,它的推廣和使用會提升學術的大眾化,知識獲取的知識門檻和壁壘會大為降低;另一方面,大語言模型工具的能力強弱與學術生產能力和效率正相關,那些掌握大語言模型的先進工具國家會利用知識的快速累積而掀起一場場學術革命,這會使學術生產出現不平等的狀況。當大語言模型走向收費模式,特別是與國家科學和教育安全等議題聯系在一起時,更是如此—大語言模型會成為人工智能的新型壁壘。

3 國內外出版界的態度和應對政策

3.1 國外機構的臨時性政策調整

基于上述風險和問題,國內外出版機構開始探討并制定大語言模型工具的使用規則和內容生成政策。率先行動的是《自然》雜志。該雜志對于作者的要求采用了2018 年發表在《美國國家科學院院刊》上的一份研究報告[25]。鑒于大語言模型在學術出版中的快速應用和濫用風險,《自然》在2023 年初更新了作者政策。關于作者權的規定中說,大型語言模型如ChatGPT 目前不滿足作者的標準。之所以這樣規定,是因為署名權意味著要對研究負責任,而大語言模型模型工具無法承擔這種責任。在否定了作者署名權的同時,《自然》又對怎樣使用大語言模型工具做出了說明:在論文的方法部分要適當地記載使用情況,如果論文沒有方法部分則可在其他合適地方說明[26]。即如果在論文寫作時使用了大型語言模型工具,要遵循自我聲明和披露原則。在《自然》及其子刊中,這一關于ChatGPT 類大語言模型工具的規定已經在推行和使用,體現在其投稿指南中。

《科學》雜志主編H. 霍爾頓· 索普(H.Holden Thorp)在一篇社論中提到,《科學》及其系列刊物都要與作者簽署一份許可協議,證明“作品為原創”,“原創”一詞足以表明 ChatGPT 編寫的文本是不可接受的,因為利用ChatGPT 編寫文本的行為,等同于從ChatGPT 中抄襲。基于這兩點,人工智能程序不能成為作者。故《科學》雜志已經著手更新許可和編輯政策,規定ChatGPT(或任何其他AI 工具)生成的文本不能在作品中使用,圖表、圖像或圖形也不能是此類工具的產物。違反這些政策將構成學術不端行為,這與更改圖像或抄襲現有作品的性質相同[27]。

另一關于大語言模型的論文政策出自2023 年1 月國際機器學習會議(ICML)發布的2023 論文征稿公告。公告聲明禁止包含從大語言模型(如ChatGPT)生成文本的論文,除非這些生成的文本是作為論文實驗分析的一部分。國際機器學習會議是一項與人工智能有關的重要國際會議,參會人員眾多,這一政策在社交媒體上引起了廣泛的爭論,會議組織方不得不發表一份更具體的解釋和說明,主要包括三個方面的內容:第一,2023年國際機器學習會議的大語言模型政策禁止完全由其生成的文本,但并不禁止作者使用這些工具編輯或潤色作者撰寫的文本;第二,這一大語言模型政策是基于保守原則制定的,為的是防止使用這些模型所產生的剽竊等潛在問題;第三,這一政策適用于2023 年的會議,隨著主辦方對大語言模型及其對學術出版影響更好地理解,未來的會議中可能會得到改進[28]。盡管國際機器學習會議做出了詳細的說明,但仍有一些懸而未決的問題,如怎樣劃定使用大語言模型工具編輯和寫作之間的界限,以及怎樣檢查論文是否出自大語言模型工具等。這些問題需要今后在學術出版實踐中不斷探索和完善。

3.2 中國期刊界發布的相關聲明

國內期刊同樣意識到此問題的嚴峻性,也在嘗試出臺相關內容政策。2023 年2 月《暨南學報(哲學社會科學版)》《天津師范大學學報(基礎教育版)》《中南民族大學學報》等期刊發布聲明,表示暫不接受任何大語言模型工具(如ChatGPT)單獨或聯合署名的文章;如在論文創作中使用過相關工具,要在參考文獻、致謝或正文等部分詳細解釋如何使用以及論證作者自身的創作性;如對于引用AI 寫作工具的文章作為參考文獻的,需提供詳細的引用論證[29]。

3.3 國內外政策的態度傾向和共性

國內外學術機構的大語言模型政策體現出了保守性和穩妥性的傾向,基于研究方法上的透明度以及作者完整性和真實性等學術原則,國內各主流期刊現階段在作者署名權上傾向于禁止,但仍接受使用ChatGPT 類大語言模型工具的研究,只是要對過程、方法、程度等做出說明,以規避剽竊、濫用等方面的風險,確保大語言模型使用的誠信、透明與公正。總體來說,大語言模型已經推倒了人類作者的多米諾骨牌,英國的知名出版商泰勒和弗朗西斯,以及arXiv、medRxiv、bioRxiv等預印本論文平臺都已在考慮或著手制定大語言模型應用的相關政策[30]。其中arXiv 在2023 年1 月底,發布了ChatGPT 及類似工具的最新政策,規定在論文中使用從本文到文本生成人工智能工具的論文應該在研究方法中報告;內容生成式人工智能語言工具不應被列為作者,如果使用了這類工具的論文中出現了不恰當的語言,剽竊的內容,錯誤、不正確的引用或誤導性等內容,由人類作者負責[31]。中國出版業也應跟蹤最新動態積極研討,共同應對大語言模型帶來的內容生成挑戰。

4 大語言模型時代學術生產和出版的前景

ChatGPT 類大語言模型工具是當代人類創造的“弗蘭肯斯坦”,這一新時代的普羅米修斯已經點燃了人工智能新的火種。在未來,經過不斷迭代和發展,人類將迎來人工智能時代的“摩爾定律”,徹底改變內容生產的方式、速度和效率,顛覆出版業的傳統生態,催生新的出版模式和業態。人工智能研究專家亞歷克斯·扎沃龍科夫博士表示,出版業可能是生成式人工智能革命的最大贏家[32]。但是對于學術出版業而言,期刊、出版社和編輯將越來越難以區分人類撰寫的文本和人工智能生成的文本。我們既應該看到ChatGPT 類大語言模型工具的革命性一面,同時要為其確立法則和準繩,積極面對它所帶來的消極影響。最終,在接受與拒絕、存在與善用中,實現大語言模型時代的新平衡。

4.1 借助模型工具實現科研生產力的新飛躍

馬克思對生產工具和生產力之間的關系有精辟論述[33],當代科學化、信息化生產工具的快速迭代使人類生產力實現了指數級飛躍。ChatGPT 標志著大語言模型工具走向成熟,展現出多場景的巨大應用前景。在學術出版領域只要合理運用ChatGPT 類大語言模型工具,將會大幅度提高科研工作者的生產力。傳統學術研究收集資料多采取卡片式摘抄、編制目錄和索引等方式,而數據庫和云服務成熟后涌現了多種類型和用途的學術數據庫,這徹底改變了文獻資料搜集的傳統方式、提升了檢索效率和質量。同理,ChatGPT類大語言模型廣泛使用后,在學術文獻閱讀和理解方面同樣會發生一場革命:借助這些工具可快速檢索、定位某個特定領域或研究話題的文獻,研究者不必花費大量時間和精力去逐篇閱讀,而是可以向其提問或者用其快速總結文獻要點,甚至可以形成一篇完整的文獻綜述文章。在具體寫作環節,ChatGPT類大語言模型可以指導寫作,如給出文章的結構和邏輯框架;能根據意向投稿期刊的語言風格和類型,提供修改方案和建議;對非母語國家的研究者而言,可以幫助快速糾正語法錯誤、潤色全文、優化表達,撰寫出與母語研究者同等語言水平的文章,這無疑消弭了語言的障礙和壁壘。有學者認為,未來的學術內容生產需要更少的人力,這反過來將使學者專注于他們的研究[34]。在大語言模型時代,是否會減少人力的使用有待觀察,但可以確定的是可以提升研究者知識獲取的速度和效率,減少簡單重復的勞動投入,進而實現科研生產力的飛躍和向馬克思的“自由王國”進一步邁進。

4.2 倒逼產出原創性內容、加速學術創新進程

學術研究的核心在于創新。學術出版的價值和意義在于通過期刊、出版社等平臺,挖掘、評價和傳播原創性的學術成果,借此促進人類社會的進步。長期以來,學術成果創新性的評價主要是主觀性評價,即通過專家審稿、同行評議等方式進行,且多采取匿名方式。這種評價方式能夠體現學術活動的內在邏輯而成為一種固定性的制度安排。但由少數學術精英主宰學術標準和評價,評議活動的本身因素、過程中的制度性因素和非制度的個人因素以及過程以外的其他因素會影響公平[35]。這會帶來學術系統的等級和派別等問題,甚至會抑制或阻礙學術創新。另一方面,出版機構將學術評價交由外部專家,形成學術成果發表與否的過濾和裁決機制,這影響了學術平臺的定位和風格取向,抑制了編輯主觀能動性的發揮等。為了解決這些問題,近年來學術界有兩種趨向:一是嘗試開放式同行評審,迫使評論者撰寫更加深思熟慮和負責任的評論;二是擴大編輯在學術裁判等方面的權限[36]。這些調整帶來的直接結果是編輯工作量的大幅增加。在大語言模型時代,編輯借助ChatGPT 等工具可與已有的學術文獻快速對比分析,在創新性等維度給出分析和建議,這既減輕了編輯在閱讀等方面的工作投入,又在一定程度上避免審稿人在知識和視野上的偏狹。借助人工智能評價工具,學術評價或許不再是一群由身份不明的法官組成的法庭、一個城堡式的卡夫卡的世界。客觀上,這會壓縮陳詞濫調、缺乏新意、簡單重復類學術成果的生產,進而倒逼研究者加大在學術創新方面的投入和生產進程。

4.3 以善治理念推動大語言模型賦能學術生產

ChatGPT 類大語言模型工具的成熟和普及,會帶來一系列重大變革。有學者提出互聯網給人類社會帶來了“空間革命”,智能手機開辟了“時間革命”,而大語言模型橫空出世則是第三次革命性產品,有望形成“思維革命”[37]。在人工智能時代,ChatGPT 類大語言模型能夠模擬人類從事較為復雜的思維活動,工具的不斷演化會改變知識生產的傳統方式,形成新的內容生成生態,給人類的發展帶來深遠影響。但ChatGPT 類大語言模型有被錯用、濫用的風險,在剽竊、知識謬誤、產權糾紛等方面的問題不容忽視,或將有模型霸權、知識公正等諸多不可預知、無法確定的局限性。因此,學術出版平臺、政府等本著善治的理念[38],為大語言模型的使用立“良法”,即通過制度性或非制度性的法令、標準和規則促進其使用的透明性和有效性,確保其符合增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養等人工智能的基本倫理要求[39]。大語言模型善治的過程就是促使其公共利益最大化的治理過程。唯有如此,大語言模型才能在“思維革命”時代賦能學術和知識的生產,加速推進科學創新和人類進步。

5 結 語

ChatGPT 的出現標志著人工智能文本輸出能力實現了質的飛躍,給學術出版業帶來了新現象和新問題。一些研究者雖看到了這一寫作工具的強大功能,但認為它還沒有達到開始撰寫學術論文的地步,其創造力受到語料庫和人類模型設計者判斷力的限制等[40]。但是應意識到,這一工具的底層生成模型已經具備了多模態的跨文本內容生成能力,2023 年底OpenAI 公司將會推出更大的語料庫、更進步的算法和更龐大的測試參數,這有望成為更具革命性的語言模型[41]。除了OpenAI 公司外,全球人工智能企業和機構都紛紛投身這場大語言模型的“軍備競賽”,將會有更多、更優秀、更智能的模型不斷涌現,形成一批大語言模型的競品工具和產品。未來,最優質的學術創新者或許不是人類,不是大語言模型工具,而是熟練而深刻地使用大語言模型工具的作者,人機合一完成內容生產將是新常態。知識生產領域的一場百年未有之大變局已經展現出生動的發展圖景,這給學術出版業帶來了空前挑戰和契機。因此,學術出版業需要應對大語言模型廣泛應用帶來的法律、道德和倫理等方面的問題,制定使用規則并在實踐中不斷調適和修正,以適應發展變化的形勢,推動內容生產效率和學術原創能力的不斷躍升。

猜你喜歡
人工智能內容語言
內容回顧溫故知新
科學大眾(2022年11期)2022-06-21 09:20:52
語言是刀
文苑(2020年4期)2020-05-30 12:35:30
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
讓語言描寫搖曳多姿
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
累積動態分析下的同聲傳譯語言壓縮
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
主要內容
臺聲(2016年2期)2016-09-16 01:06:53
我有我語言
主站蜘蛛池模板: 国产在线无码av完整版在线观看| 国产制服丝袜91在线| 一级做a爰片久久免费| 欧美一道本| 香蕉蕉亚亚洲aav综合| 国产91特黄特色A级毛片| 国产成人精品第一区二区| 在线精品亚洲国产| 国产精品分类视频分类一区| 欧美日韩高清在线| 久久亚洲高清国产| 狠狠做深爱婷婷久久一区| 谁有在线观看日韩亚洲最新视频| 国产微拍精品| 成人国产精品视频频| 国产男女免费完整版视频| 午夜爽爽视频| 日韩最新中文字幕| 午夜日b视频| 日韩一级毛一欧美一国产| 国产成人高精品免费视频| 无码高潮喷水专区久久| 日本人妻一区二区三区不卡影院 | 国产日韩欧美成人| 日韩在线影院| 亚洲黄色成人| 中文字幕在线观看日本| 在线免费看黄的网站| 国产精品亚洲综合久久小说| 91在线一9|永久视频在线| 免费在线色| www成人国产在线观看网站| 国产91高清视频| 国模私拍一区二区三区| 九九视频免费在线观看| 一级片一区| 婷婷综合在线观看丁香| 露脸国产精品自产在线播| 亚洲欧美日韩动漫| 欧美高清三区| AⅤ色综合久久天堂AV色综合| 国产精品私拍99pans大尺度 | 欧美亚洲国产视频| 欧美专区在线观看| 亚洲欧洲自拍拍偷午夜色无码| 久草视频精品| 精品国产三级在线观看| 亚洲天堂网在线播放| 97se综合| 国产精品久久久久久久久kt| 国产美女丝袜高潮| 大乳丰满人妻中文字幕日本| 国产玖玖视频| 精品欧美日韩国产日漫一区不卡| 小说区 亚洲 自拍 另类| 亚洲精品无码专区在线观看| 亚洲二三区| 国产午夜精品一区二区三| 91小视频在线观看| 亚洲手机在线| 九色在线视频导航91| 日韩av无码精品专区| 久久青草精品一区二区三区| 国产成人精品一区二区免费看京| 亚洲精品va| 欧美 亚洲 日韩 国产| 欧美成人看片一区二区三区| jizz国产在线| 国产菊爆视频在线观看| 国产成人精品午夜视频'| 色综合久久久久8天国| 国产成人免费手机在线观看视频| 久青草国产高清在线视频| 无码人中文字幕| 久久国产香蕉| 国产99在线观看| 白丝美女办公室高潮喷水视频| 国产手机在线小视频免费观看| 97无码免费人妻超级碰碰碰| 国产制服丝袜91在线| 国精品91人妻无码一区二区三区| 九一九色国产|