張璐 郭曉亮 景勇 孫俊
生成式人工智能ChatGPT(Chat Genera tive Pre-trained Transformer)自發布以來,迅速風靡全球,廣泛應用于金融、教育、傳媒等領域。壹點智庫研究員運用壹點智庫“傳播力測評工具”對ChatGPT 進行傳播力測評發現,僅2022 年11 月至2023 年2 月,關于ChatGPT 的信息傳播總量就達到2 829 057 條,其網絡傳播影響力指數的月度平均傳播廣度值達到5.24,根據信息傳播廣度等級的劃分標準,可將ChatGPT 的信息傳播廣度認定為最高級—爆發級。[1]ChatGPT 使用大規模的預訓練模型和海量的語料庫來學習自然語言的語法、語義和上下文,具有強大的語言處理能力和邏輯能力,在全球產生了廣泛影響。ChatGPT 強大的搜索能力和邏輯推理能力,使其具備了學術文本生成能力,給學術期刊的發展帶來挑戰。學術期刊是學術活動和學術研究成果的展示平臺,ChatGPT 的出現,增加了對學術不端行為的甄別難度,降低了學術生產的門檻,有可能引發更多隱私安全問題。因此,學術期刊一方面要積極擁抱新技術,探索ChatGPT 在學術生產中的可能應用;另一方面也應充分考慮ChatGPT 在學術期刊領域可能引發的負面影響,有效控制其無序發展,避免其對學術生態造成威脅和破壞,進而影響學術期刊的良性發展。
ChatGPT 是由美國人工智能研究實驗室OpenAI 研發的聊天機器人程序。作為一款由人工智能技術驅動的自然語言處理工具,ChatGPT 被認為是人類科技的又一個“技術奇點”,其使用處理序列數據的Transformer 神經網絡架構,能夠通過學習和理解人類的語言,連接大量來自真實世界中形成的語料庫,使用英語或其他語言就用戶感興趣的話題展開深度交流。[2]不僅如此,ChatGPT 還能夠撰寫郵件、視頻腳本、文案、代碼,為用戶提供翻譯、繪圖、撰寫論文和詩句等服務,可謂是一個“全能者”。截至2023 年1 月,ChatGPT 的月用戶數已突破1 億人次,成為歷史上增長最迅速的消費者應用程序。據調查,美國有89%的大學生曾利用ChatGPT 完成作業。[3]以色列總統赫爾佐格(Isaac Herzog)更是利用ChatGPT 撰寫演講稿件,成為全球首位公開使用ChatGPT 的國家領導人。[4]
ChatGPT 在短時間內能夠在全球掀起風暴是因為其廣泛的應用領域。[5—6]作為一種機器學習系統,ChatGPT 可以在大量文本數據集上進行訓練后,完成復雜且智能的寫作。例如,在醫療領域,應用ChatGPT 生成簡潔的出院小結和檢查報告,可節省人力成本,為醫護人員騰出寶貴的時間;[7]在工程管理領域,應用ChatGPT 可為簡單的建筑項目生成施工進度表;在學術研究領域,ChatGPT 可用于學術論文摘要的撰寫和文獻的搜集工作。[8]
ChatGPT 可以基于大量的互聯網文本數據進行訓練,根據用戶給定的上下文或者提示生成類似于人類撰寫的文本,內容可涵蓋各種主題,并支持多種不同的語言和風格。使用ChatGPT 進行AI 對話時,用戶可以簡單地描述想要其完成的任務,讓ChatGPT 按照所提供的主題寫作。例如,用戶可以發出指令“寫一篇關于ChatGPT 的文章”;也可以進一步要求其按照提供的框架進行寫作,例如“介紹ChatGPT 的由來,圍繞其使用的技術和算法、應用領域、未來前景等寫一篇文章”;還可以接著提出補充要求,如“將文章增加至1000 字”;等等。通過這些操作,用戶可以對ChatGPT 進行精準且有效的引導。[9]操作的便利、性能的卓越以及極低的應用成本使ChatGPT 被大量應用于學術寫作。但如果不加限制地將ChatGPT 濫用于學術寫作,就會造成抄襲泛濫,導致學術不端行為的發生。
由于ChatGPT 具有強大的文本生成能力和邏輯推理能力,可以生成高質量、邏輯嚴密的文本,因此辨別由ChatGPT 生成的文本內容難度較高。有研究者曾經做過一個實驗,將作者原創的摘要和ChatGPT 根據論文內容生成的摘要交予專業審稿人審讀并進行辨識,結果32%的由ChatGPT 生成的摘要被審稿人識別為原創的論文摘要,14%的原創論文摘要被審稿人識別為ChatGPT 生成的摘要。[10]這意味著,僅僅依靠審稿人已較難識別論文的哪些內容是由作者原創,哪些內容是由ChatGPT 生成的。由此可以預見,未來隨著ChatGPT 的發展和更迭換代,在學術審稿環節中,識別論文文本是否由ChatGPT 生成將變得更為困難。這將大大增加學術期刊甄別學術不端行為的難度,從長遠來看將影響學術期刊的高質量發展。
ChatGPT 借助海量數據,應用語言訓練模型,可以接受和輸出多種語言文本,表面上降低了知識生成和共享的門檻,但由于ChatGPT 尚未發展完善,被應用于論文寫作時,往往會給出一個看似合理但卻經不起推敲甚至荒謬的答案,有時還會杜撰一些事件或未經證實的研究成果。實際上ChatGPT 生成的文本中常常存在錯誤和有違學術倫理的內容,如果作者在學術研究中不當使用ChatGPT,學術期刊審稿人又未能及時識別,就可能導致這些錯誤內容的傳播,擾亂學術生態環境。
此外,ChatGPT “參與”寫作,還可能帶來學術責任分散的風險,[11]如果ChatGPT 生成的文本出現問題,有可能導致問責無法落實到具體的個人。更重要的是,在論文寫作過程中過多使用ChatGPT,會導致作者對ChatGPT 形成依賴,削弱作者的創造能力。長此以往,可能產生大量由ChatGPT 拼湊而成的“學術垃圾”,看似“形式規范、論述嚴謹”,卻經不起推敲,更談不上學術創新,嚴重影響整個學術生態的良性發展。
隨著語料庫的不斷擴容,ChatGPT 的深度學習特質和高度仿真性,使其在人機互動時越來越接近人類思維,表現出更高智能。未來,不僅作者應用ChatGPT 來撰寫論文,同行評審人也可能借助ChatGPT 審閱稿件、提供審稿意見。由于ChatGPT 生成文本的準確性和可靠性尚不能保證,如果在學術研究中廣泛使用ChatGPT,可能增加作者、評審人、編輯、讀者等學術共同體成員之間的不信任感。
ChatGPT 擁有強大的邏輯推理能力和“萬能計算能力”。當用戶首次使用該程序時,需要對個人信息進行登記,以便在系統中建立個人賬戶,為系統的大數據算法和智能推理等核心功能提供必要的信息。這一操作就可能引發隱私安全問題。若該研究者之后使用ChatGPT 輔助學術創作時,又在系統中提供研究的創作思路、核心觀點、創新點等,不僅會引發隱私安全問題,還有可能造成涉密信息和數據泄露的風險。
當前,人工智能技術正從“弱人工智能”模式向“強人工智能”模式轉變,以ChatGPT為代表的人工智能可以輔助科研工作者進行文獻搜集,快速找到與投稿方向相適應的學術期刊,加快學術科研成果的生成和傳播。但是,ChatGPT 不能完全代替人類完成論文撰寫工作,在學術寫作中使用ChatGPT 必須以人為中心,人工智能為輔助。
對學術期刊來說,在學術出版的各個階段都可以考慮如何有效利用ChatGPT。例如:在選題策劃階段,可以嘗試使用ChatGPT 廣泛收集信息,形成備選方案,供編輯部討論和論證,形成最終決策;在同行評審階段,ChatGPT 可以對論文進行分類標引,推薦審稿專家,收集相同主題的論文,輔助審稿專家審閱稿件;在編輯出版階段,ChatGPT 可以替代人工完成大量重復、繁瑣的編校工作,如核對參考文獻、規范格式、修改錯別字、統一表述等,期刊編輯可節省出時間加強期刊內容建設。利用ChatGPT 的技術賦能,可以實現對學術期刊出版全流程管控與監測,以提高學術期刊的辦刊靈活性,打造人機協同工作模式。[12—13]
ChatGPT 廣泛應用于學術期刊出版,在提高研究者和編輯工作效率的同時,也不可避免帶來抄襲、剽竊等學術不端問題,影響學術環境的公平性。因此,為防止ChatGPT 對學術生態造成負面影響,學術期刊應加強對學術不端行為的審查,一旦發現學術不端行為,即可通報給作者所在單位進行內部調查,并在專門的學術不端治理機構(如教育行政部門、高校學術委員會等)備案,請求其跟蹤、調查,從根本上杜絕學術研究中的不正之風。
技術在發展,相關政策也應隨之調整。毋庸置疑,今后將有越來越多的學者使用ChatGPT 生成文本、撰寫摘要、生成圖表或圖片,學術期刊及其主管部門盡快制定關于人工智能輔助學術生產的新政策成為學術界的當務之急。國外著名期刊Science(《科學》)、Nature(《自然》)、Cell(《細胞》)、The Lancet(《柳葉刀》)等最近紛紛更新了出版政策,特別說明了關于人工智能的應用規范。Science發表了一篇標題為ChatGPT is fun,but not an author(《ChatGPT 很有趣,但它不是作者》) 的文章,認為如果沒有得到明確許可,任何論文都不得使用ChatGPT 生成的文本,更不能將ChatGPT列為文章作者。[14]Nature于2023 年1 月24日發布了類似禁令,即不接受將人工智能模型列為論文作者,不同的是,論文本身可使用人工智能工具產生文本,但應在研究方法或致謝中標示清楚。Cell和The Lancet也允許使用人工智能工具,但不能取代文章作者完成關鍵性任務,作者還必須在論文中聲明是否以及如何使用了人工智能工具。同時,針對ChatGPT 生成的文本難以辨識這一問題,施普林格·自然(Springer Nature)正在積極研發偵測AI 產生文本的工具,以期能對其準確分辨。[15]關于ChatGPT 的使用限制也擴展至高校,例如,香港大學禁止學生在課堂、作業和考試中使用ChatGPT 等人工智能工具,違規使用將被視為剽竊,如教師懷疑學生使用ChatGPT 等人工智能工具,可要求其進行額外加試。[16]
就當前來看,ChatGPT 生成內容的最大問題在于其無法代替人類的責任以及知識產權歸屬問題,也就是說人工智能無法對論文內容的完整性和道德倫理性負責。但人工智能的發展勢不可擋,筆者認為,不必完全禁止ChatGPT 的使用,要利用其相關優點,推動科技進步和文化傳播。目前,ChatGPT 正迅猛介入學術研究領域,但相關政策制定卻相對滯后,監督機制尚未建立,難以有效應對ChatGPT 賦能學術生產可能導致的新型道德倫理問題。除法律法規、管理規范等硬約束手段不健全,關于ChatGPT 使用的道德準則和倫理原則等軟約束條件也同樣欠缺,使在學術研究領域使用人工智能工具的行為尚處于自由生發狀態。要解決這些問題意味著學術期刊界需要制定共同的行業道德標準、樹立一致的價值理念、建立ChatGPT 等人工智能使用的倫理和準則,提出一套相對完善、可操作、兼顧工具理性和價值理性的實操框架,以防止技術的濫用。
習近平總書記指出“沒有網絡安全就沒有國家安全”[17],這無疑強調了網絡安全的重要性。作為網絡安全的重要組成部分,數據安全受到廣大科研工作者的關注,保障數據安全是一項極其復雜的系統工程。在數據隱私和數據安全方面,由于ChatGPT 可能在未征得用戶授權的情況下收集、處理數據或超范圍使用數據,這將帶來個人信息和隱私泄露的風險。這一問題已引起各行各業的擔憂。同樣,ChatGPT 的使用也給學術期刊的用戶隱私保護和數據安全等帶來了諸多隱患。
然而,隱私保護不是一個單一的問題,必須通過國家、行業以及個人等多層面的努力,加強對用戶隱私的保護。首先,在國家層面,應該通過立法保護用戶的隱私和數據安全。目前,與人工智能使用相關的法律法規不夠健全,迫切需要進行修訂與完善。只有通過國家立法從根本上保護用戶的隱私和數據安全,才能有法可依地打擊ChatGPT 等人工智能工具對用戶個人隱私和個人信息的侵犯。[18]這也是保護學術期刊用戶個人隱私和數據安全的重要措施。其次,在行業層面,學術期刊應遵守行業底線,擔負起保護用戶數據和隱私的社會責任。學術期刊的投審稿系統在登記用戶信息時,應秉持“最小收集”原則,充分尊重用戶個人隱私,并最大程度地防止用戶個人隱私的濫用和泄露。最后,在個人層面,用戶需要主動提高隱私保護意識。以ChatGPT 的安裝為例,用戶要想使用該程序模型,需要填寫必要的個人相關信息,如聯系人、電話、郵箱等,同時需要注明使用ChatGPT 的原因及用途。這意味著從此時起,使用者的個人隱私已存在被泄露的風險。為防止ChatGPT 等人工智能工具對信息數據的竊取,用戶個人需要建立起隱私保護的第一道屏障,主動提高隱私保護意識,在使用結束后可主動刪除歷史數據。此外,用戶進行數據匿名也不失為強化數據安全和隱私保護的一種方法。
ChatGPT 等人工智能工具的廣泛應用,給學術期刊帶來了許多潛在風險,但挑戰與機遇并存,不能因為存在風險就一概否定。ChatGPT 如被不加限制地使用,可能對學術研究和學術期刊造成威脅和破壞,影響學術期刊的高質量發展;但如果善加引導,則將助力學術期刊的良性發展。為規避新興技術使用可能帶來的風險,使其發揮積極作用,應從多方面入手,例如通過探索新模式、制定新政策、開發新技術等,使ChatGPT 等人工智能工具得到正確使用,為學術期刊高質量發展保駕護航。