摘 要:生成式人工智能以強大的知識生成能力為基本特征,在拓寬學術研究領域及提升學術研究效率的同時,也給學術不端治理帶來新的挑戰,一方面,其在創作主體性及內容原創性方面給當前學術不端概念帶來了沖擊;另一方面,在生成式人工智能的加持下,學術不端行為呈現出新的特點,致使學術不端治理更為復雜。為排除生成式人工智能對學術不端治理的妨礙,需將學術不端治理推向法律規制與技術手段并重的階段,并通過重塑科研規范,構建學術不端治理新框架。
關鍵詞:生成式人工智能;學術不端 ;法律規制;技術手段
中圖分類號:G230.7 " " " " " "文獻標志碼:B 文章編號:1671-0142(2025)01-0032-04
2022年底,ChatGPT-3.5以其強大的信息整合和自然語言處理能力引發了全球人工智能風暴,生成式人工智能迅速嵌入社會各領域,其嵌入社會的深度、廣度、速度疊加推進,不斷重構著人類社會的現在及未來圖景。
生成式人工智能以強大的知識生成能力為基本特征,其不僅能夠生成文本,還可以生成圖片、視頻等多媒體內容,革命性的人機交互模式為社會生活的許多領域帶來了新的可能性,給肩負文化傳承與技術創新使命的學術研究帶來顛覆性影響。同時,基于人工智能的強大能力,學術不端問題也會大量出現,并以新的形式和特征出現,為學術研究范式帶來了一系列的變革和挑戰。
1 學術不端概念在生成式人工智能背景下的重新定義
根據《中華人民共和國著作權法》《中華人民共和國著作權法實施條例》等法律法規的規制,參照科技部、教育部、新聞出版總署等部門的有關規定,學術不端行為是指違反學術規范、學術道德的行為,一般體現為三種形式,一是捏造數據,指虛構或編造數據、事實的行為;二是篡改數據,指故意修改研究數據或事實,使作品失去真實性的行為;三是剽竊,主要是指采用不當手段,故意竊取他人研究方法、數據、觀點、 圖像、文字表述等并以自己名義發表的行為[1]。實踐中一稿多投、不當署名、重復發表等行為也可包括進去。
一般而言,著作權認定必須同時滿足或具備兩個條件,其一是著作權主體要件,其二是客觀上內容符合作品的特征。人工智能生成文本能否獲得法律保護及受法律規制,在于其創作過程中是否存在創作者的主體性、作品內容的獨立性以及原創性,探討使用人工智能作品是否構成學術不端行為,必須以違背著作權法為基本特征。
1.1 創作主體性
我國著作權法將作者限定為“自然人、法人或其他非法人組織”。“作品是作為有血有肉的自然人對于思想觀念的表達……由非人類‘創作’的東西不屬于著作權法意義上的‘作品’”[2]。人工智能技術因其強大的數據生成能力引發了對機器人是否具有法律主體地位的思索。基于法理論的認識,法律上的“人”應具有兩個條件:一是法律賦予該主體享有權利、履行義務的法律資格,即規范條件;二是該主體必須具有實現前述法律資格的意志能力,即事實條件。其中,法人作為擬制的人,通過“歸入”技術和生物人的行為建立起聯系,其法律自認最終由生物人承擔。而人工智能因其不可能承擔獨立責任而被排斥為法律主體。既然生成式人工智能不能是作者,那么也就不能成為學術不端行為的擔責主體,這對當前學術不端概念的內涵帶來了沖擊。
1.2 內容原創性
“原創性”或“獨創性” 一方面要求作者獨立完成作品,另一方面要求作品具有一定的創新性,即作品中要有作者的智力創造,帶有作者的個人意志。而人工智能生成物通常是在大量數據廣泛訓練的基礎上,通過尋找規則,借助強大的綜合能力和生成能力自動生成新的作品,其創作過程受到算法和數據的限制,創作靈感和決策過程與人類創作者有著本質的區別,不符合著作權法規定的原創性標準,無法獲得著作權法的保護,而一旦這樣的作品得以傳播,可能會導致其他作者隨意使用、引用他人的觀點和數據,因無法尋根溯源,將使其被推向被動利用他人研究成果的尷尬境地,并帶來此類被動行為是否屬于學術不端行為定義的疑慮。
2 人工智能引發的新型學術不端行為
生成式人工智能的迅速迭代為學術研究的發展帶來了新機遇,其通過非常強的可訪問性、參與性和協作性,在很大程度上能將科研人員從重復、繁雜的數據資料收集、歸納、分析等勞動中釋放出來,隨著人工智能技術的發展,其生成的內容質量也越來越具有真實性,語言理解和生成能力越來越趨于人性化,還能夠根據用戶特定需求量身定制各種個性化方案,為拓寬科學發現的邊界,提高科學研究的效率以及提升數值模擬速度和準確度方面帶來了前所未有的突破[3]。但同時,生成式人工智能對網絡數據的肆意使用、組合必將帶來一系列學術不端問題。
2.1 人工智能直接參與寫作
人工智能獨立寫作模式是當前學術研究領域借助生成式人工智能進行學術抄襲的主要模式,人工智能直接參與寫作是指人工智能按照使用者的語句指示,直接生成與使用者數據請求有較高關聯性的文章或文字組合,如直接生成論文、生成論文摘要、生成文獻綜述、論文翻譯、論文降重等。當前,使用者通過人工智能生成文章或論文主要服務于兩種目的,一是在校學生為完成學業任務,借助生成式人工智能直接寫作或潤色其文章、論文;二是擔負學術研究任務的個別主體,利用生成式人工智能進行虛假研究、論文寫作、尋求在學術期刊發表。針對此類學術不端行為,目前各高校及學術期刊編輯部都提出了相應對策,如要求作者主動聲明,增加技術和人工審查及加大懲處力度等,但一方面這些對策不具有普適性,另一方面人工智能因其強大的學習能力,其生成能力越來越強大,文本質量越來越高,必然帶來識別難度的增加,使用人工智能直接參與論文寫作構成學術抄襲的行為仍是防不勝防。
2.2 人工智能洗稿行為
“洗稿”就是對別人的原創內容進行篡改、刪減,利用其部分思想內容和素材,通過調整結構、轉換表達方式、變更詞語等方式產生新的作品并以自己的名義發表的行為,修改后的作品好像煥然一新,但其實最有價值的部分還是抄襲的,是典型的學術不端行為。人工智能時代使信息的收集、整理、傳播更為迅捷和方便,洗稿行為也變得更為簡便易行,不同于傳統時代的抄錄、復制粘貼,人工智能時代不僅能短時間內實現“一稿多洗”“多稿多洗”,而且更具隱蔽性,能逃避查重技術的檢測。使用者不但能借助生成式人工智能在龐大的網絡數據庫中進行數據收集,還能在與人工智能的“互動”中不斷提出各種要求,使人工智能在其“引導”下一步步完善文本,達到洗稿目的。人工智能給洗稿行為帶來的便捷性和隱蔽性進一步加劇了洗稿行為。
2.3 人工智能技術缺陷導致的學術不端
(1)數據調研帶來的學術不端風險。人工智能在技術層面,主要是通過對使用者的數據命令或請求,聚類搜集、梳理和分析海量網絡數據,依據使用者指示探索、歸納數據規律以及數據與指示之間的關聯,按照使用者要求智能處理、生成答案。在這一過程中,首先,人工智能必須在受到外界刺激后才能啟動智能思維模式,即必須由使用者對其發出指令,而同時,人工智能設定的迎合式代碼要求其必須完成使用者發出的指令,即必須響應使用者指令、回答使用者問題,在代碼運行中,數據編造與事實的相符與否并不在人工智能的判斷中。其次,生成式人工智能信息辨別數據真實度的能力受限于其計算能力,其在收集信息時并不能嚴格判斷收集的數據信息是否正確、是否真實,比如涉嫌學術造假的數據也可能被人工智能所收集。此外,生成式人工智能對模糊數據或加密數據的還原能力有限,比如某些模糊的圖片或經過人工加密的語言,甚至拼音縮寫等都會對人工智能還原信息造成誤導。由此導致的結果就是這些真真假假的數據在使用過程中就可能產生各種矛盾,而使用者基于其實際使用目的、學術研究態度和能力,或是不關心數據的真假,或是排除假數據,甚或有可能排除真數據,如果將此類最終生成結果應用于學術研究必然產生學術不端行為。
(2)文獻引用侵害他人權益。規范地標注引用是區分學術論文寫作時合法使用他人學術成果與剽竊行為的最佳方法。生成式人工智能進行“學術創作”的前提是“學習”海量的文獻資料,借助資料作為其訓練數據,模擬學習文獻的邏輯、內容、語言表達等,再根據指令要求模仿寫作,如果按照規定正確引用其使用所有文獻,這些文獻占據的篇幅甚或超過正文內容。因此,人工智能最終的生成文本都會不同程度地存在著漏掉引注、錯誤引注的現象,甚至胡亂偽注,從而構成對他人學術論文或學術觀點的剽竊,產生學術不端行為。
(3)反復使用擴散學術不端。生成式人工智能提高了學術生產的效率,更加速了學術成果的傳播。人工智能生成的學術文本得以發表或在網絡進行傳播后,人工智能通過精準捕捉用戶興趣,精準定向推送相關研究成果,并在內容和形式上保持高度的定制化風格,從而實現更好的用戶體驗和傳播效率,加速傳播效果,如這類文本本身涉嫌學術不端,存在造假、剽竊等行為,人工智能則加速產生了新的傳播造假,擴散加劇了學術不端行為。
3 人工智能時代學術不端行為的規制框架
3.1 法律規制:強化敏捷善治頂層設計
技術發展的“加速度”與傳統技術治理的“滯后性”的矛盾一直存在,技術是呈指數級增長的,但社會和法律系統只會緩慢發展,但生成式人工智能發展迅猛,推廣應用價值廣泛,亟需治理速度與之相匹配。
(1)逐步確立生成式人工智能主體資格。人工智能背景下產生學術不端行為的原因之一是人工智能在法律上的地位未定,其生成的作品是否受法律保護存在爭議。
由于目前人工智能還未完全擺脫人工控制,不具有獨立的意志能力和責任能力,暫不宜確定為“人”。“法學理論和法律制度應當及時關注和回應技術帶來的新問題,不可以抱殘守缺,但也不能脫離體系化思維”[4],故我們亟需建立一套能夠將“包容性”和“適應性”統合起來的治理人工智能學術不端行為的法律體系。比如可以適當借鑒擬制民事主體學說,在某些領域承認其擬制的法律主體資格,在權利義務的承擔上,將人工智能的研發者、投資人、使用者或其他實際控制人作為權利義務的最終承擔對象。
(2)完善法律法規體系。我國現行法律體系中《網絡安全法》《個人信息保護法》《互聯網信息服務算法推薦管理規定》等均有與人工智能相關的規定。2023年7月10日,我國頒布了全球范圍內首部生成式人工智能法規,即《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》),《暫行辦法》明確規定“國家堅持安全和發展并重,促進創新和依法治理相結合的原則,采取有效措施鼓勵生成式人工智能創新發展,對生成式人工智能服務實行包容審慎和分類分級監管”[5]。這部法規對生成式人工智能劃定分級監管“紅線”,將審慎容錯納入監管框架,能有效彌補技術發展和治理能力之間的空隙,健全了我國人工智能法律治理體系。
3.2 技術手段:規范人工智能技術開發及使用,防范學術不端行為
(1)研發階段:完善人工智能技術,嚴密防范學術不端行為。人工智能研發企業是引導技術向善的重要源頭,也是防范技術不端行為的第一踐行者。《暫行辦法》明確了生成式人工智能服務的法律紅線:不得生成違法內容;在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中,采取有效措施防止歧視;尊重知識產權和其他合法權益;提高生成內容準確性和可靠性[5]。據此,研發企業在研發和升級智能技術時,應將負面影響作為優先和研究重點,全面預防人工智能技術的惡意使用;同時,提高人工智能信息過濾的能力,嚴格把控信息輸入,加強數據來源的識別,審查內容并人工標記,優化訓練數據集,通過增加限制性條件等從技術上控制人工智能接觸不良信息,并設置警示系統,一旦發現虛假性、危險性內容,能夠迅速做出警示或拒絕反饋。此外,還要注重保護隱私信息,植入相關程序,增強系統防護能力。
(2)使用階段:生成式人工智能甄別學術不端的利用和進步。中國學術不端檢測軟件最早是2008年3月研制成功的PaperPass檢測系統,目前使用最廣泛的是中國知網學術不端檢測系統,但該系統只能對文本相似度進行檢測,無法檢測圖片的相似性,在論文圖片抄襲檢測上有所欠缺。因此,利用生成式人工智能升級學術不端檢測系統的檢測能力,在文獻引證識別功能、圖表識別技術等方面加強技術進步,檢索論文中涉及的文獻數據,使論文抄襲行為無所遁形。同時,還要確保檢測系統的及時性,即要保持期刊、出版社與檢測系統的數據共享、數據同步更新等,堵住學術不端行為主體利用時間差規避學術不端檢測系統的漏洞。
(3)技術防范:抵制并嚴懲助長學術不端行為的軟件工具。利用軟件查殺降重助長了學術抄襲、剽竊等行為,對當前的學術規范工作造成了極大的干擾,必須將此類軟件納入“惡意軟件”范疇進行治理。通過技術手段,限制或禁止其安裝、使用及傳播,當前在淘寶搜索“論文降重”已無內容顯示,但這種治理僅依靠單個或幾個平臺單獨治理無法根治,需要各平臺協調才能實現根治,網絡安全和網信平臺應統一出臺相關治理措施,限制此類信息搜索及相關軟件的安裝。
3.3 道德引領:重塑科研規范,營造良好的科研生態環境
生成式人工智能在科研中的廣泛使用會不斷影響沖擊現有的科研道德和規范,但不能因此而抵制人工智能,因噎廢食。認可接受人工智能是社會發展的必然,法律政策約束為學術研究提供了重要的規范機制,而加快形成道德倫理共識則有助于推動政策落實。首先,對待人工智能要持開放和積極的態度,但也必須樹立“數據應用,安全第一”的意識,在限定合理范圍內安全使用人工智能,對于使用人工智能的部分,作者應予以聲明,采用人工智能生成數據的,必須審核數據的真實性,且不得在未充分引用和注明出處的情況下介紹他人的觀點、數據等。其次,一定要堅持“以人為本”的學術理念,堅持生成式人工智能對人類科學研究的輔助地位,堅持學術研究過程中人的主體性及自主權,不斷提高各類研究主體的人工智能素養,克服現有人工智能的部分缺陷,提高科研效率。再次,積極開展學術誠信教育,塑造人工智能時代學術誠信價值觀和倫理觀念,建立科研誠信跨部門跨區域共享平臺,各級管理部門依法依規對學術不端行為進行懲戒,提高學術不端行為成本。
3.4 懲戒機制:建立AI監管和問責機制,嚴格學術不端責任
針對學術研究中利用AI抄襲、直接生成、洗稿等學術不端行為,必須確立嚴格的問責機制,可以從法律責任、行業責任兩個方面進行規制。在法律責任層面,若研究人員在期刊投稿過程中存有此類行為,需對涉事作者追究退還稿費、賠償名譽損失等民事責任;除涉事者須承擔因違背誠信造成其他主體損失的民事責任外,還應在刑事法律框架下加以規制,即當學術不端行為造成嚴重后果時,涉事者或將面臨刑事法律的追究。
在行業責任層面,首要措施是建立科研誠信信息共享平臺,推動對不端行為的認定標準統一,確保結果互認,建立科研失信人數據庫,對于情節嚴重者,給予列入失信名單之懲戒并予以公示;在學術不端頻發的領域,包括高校、科研機構等,要完善相應懲戒制度建設,構建科學合理的懲戒規范體系,以嚴密的監管網絡,用更加嚴格的標準和更為嚴厲的手段來維護學術的純凈與尊嚴。對于在讀學生的不誠信行為,特別是學位論文中的抄襲、造假等,應實施終身追責制度,一經被發現,涉事者將喪失其學位資格及后續所有相關學位。對于科研人員,除承擔法律責任外,還可進一步處以撤銷科研獎勵、阻斷職稱晉升通道、解除職務或禁止投稿等處罰。
4 結語
“使用這項技術是不可避免的,因此,禁止它是行不通的”[6],人工智能時代的到來開辟了學術研究快速發展的新航道,但隨之而來的風險也不可避免,探索有效的化解之道,必將是一個復雜、長期而艱巨的過程,必須直面生成式人工智能在科研應用中的挑戰,前瞻式及動態式調整既有法律規范,構建學術不端治理新框架,同時不斷完善技術手段,重塑科研規范,更好地推動生成式人工智能向上向善發展。
參考文獻:
[1]楊順.ChatGPT等生成式人工智能對學術誠信的挑戰及應對[C]//《新興權利》集刊2024年第1卷——智慧法治學術共同體研究文集.上海大學法學院,2024.
[2]李明德,許超.著作權法[M].北京:法律出版社,2009.
[3]劉瑤瑤,梁永霞,李正風.生成式人工智能與科研倫理:變革、挑戰與展望[J].科學觀察,2024,19(4):1-8.
[4]李琛.論人工智能的法學分析方法——以著作權為例[J].知識產權,2019(7):14-22.
[5]姜濤,葉思雨.生成式人工智能浪潮下的學術生態:機遇、挑戰及應對[J].河北科技大學學報(社會科學版),2024,24(2):85-92.
[6]Van Dis Eam,Bollen J,Zuidema W,et" al.ChatGPT:five priorities for research[J].Nature,2023,614(7947):224-226.
(責任編輯 顧雅麗)