王楠
規范使用GenAI,保障學術研究的質量和誠信,還學術界一片晴朗藍天。
生成式人工智能技術(generative?artificial?intelligence,GenAI)是指具有文本、圖片、音頻、視頻、數據、代碼、模式等內容生成能力的模型及相關技術。自從ChatGPT暴火,不少人都將其作為論文寫作的重要工具,引發了一系列涉及原創性、學術誠信、倫理、法律等方面的爭議和討論。
不久前,中華醫學會雜志社發布《關于在論文寫作和評審過程中使用生成人工智能技術的有關規定》(以下簡稱《規定》),其中明確,由于GenAI不具備作者的基本屬性,且不能承擔署名作者的相應責任,因此GenAI及其產品、團隊不能作為論文的作者進行署名。而且,GenAI不能用于整篇論文或論文重要部分的撰寫(如研究方法、結果和對結果的解釋分析等)。作者應對論文的所有內容負有全部責任,包括GenAI輔助完成的部分。《規定》有利于規避期刊出現內容缺陷,甚至是憑空捏造的虛假研究。
事實上,這并不是學術界第一次針對GenAI論文造假進行規范。近一年來,全球數以千計的期刊更新了編輯聲明,對投稿人在論文寫作過程中的各種GenAI使用途徑加以限制或完全禁止。在國內,2023年2月10日,《暨南學報》曾發布《關于使用人工智能寫作工具的說明》,稱暫不接受任何大型語言模型工具單獨或聯合署名的文章,如果在論文創作中使用過相關工具,需單獨提出,如有隱瞞使用情況,將對文章直接退稿或撤稿處理。2023年9月20日,中國科學技術信息研究所發布《學術出版中AIGC使用邊界指南》,建議研究人員使用生成式人工智能直接生成的稿件文字等資料(AIGC)必須提供明確的披露和聲明,否則將構成學術不端行為。2023年12月21日,科技部監督司發布《負責任研究行為規范指引(2023)》,對醫療機構等科研主體提出了科學道德準則和學術研究規范,明確在研究項目申報環節,不得抄襲、買賣、代寫申報材料,不得使用生成式人工智能直接生成申報材料。
科技日新月異的時代,人們對新事物的認知必然要經歷從摸索到了解的過程。面對GenAI,學術界一方面逐漸看到其潛在的風險,另一方面也并未否認其實際價值,《規定》也十分注重引導合法、合理使用新技術,提到“對GenAI在論文寫作中的應用予以審慎推薦,應嚴格在約定邊界內使用”。比如,認可GenAI可用于研究過程所需要的文獻檢索、選題思路、關鍵詞推薦等啟發式探索用途;可用于論文的語言潤色,不同語種的翻譯,提升論文的可讀性;可用于推薦合適的統計圖表類型,輔助制圖;可用于參考文獻格式的規范化檢查、參考文獻與正文對應的自動化排序、自動引用生成等方面。但也特別指出,建議作者將GenAI輔助完成的部分(文本、圖表、程序等)作為補充材料提交、存檔,以便審稿人和編輯對論文的原創性進行評判。另外,一經研判認為作者在論文寫作中存在違反GenAI使用規定的情形,將直接退稿或撤稿;情節嚴重者,將列入作者學術失信名單,兩年內禁止作者向中華醫學會系列雜志投稿;如作者是期刊審稿人,同時禁止其參與審稿工作。
建立科學合理的制度指引,不做“一刀切”,作者秉持誠信態度、遵循規范,對造假者有嚴厲的懲罰措施。這樣的多維度“出擊”,才能讓虛假研究無所遁形,保障學術研究的質量和誠信,還學術界一片晴朗藍天。
(作者系廈門南洋職業學院講師)