隨著數智融合加劇、科研大數據集日益豐富、自然語言模型的技術爆發,以及芯片與CPU算力提升,以ChatGPT和Sora為典型代表的人工智能生成內容(ArtificialIntelligenceGeneratedContent,AIGC)成為繼專業生成內容(PGC)和用戶生成內容(UGC)之后的又一種內容創造形式,極大推動了科學研究由數據密集型范式向人工智能科研(AIfor science)范式轉變。AIGC技術不僅依托機器學習、大數據訓練、知識圖譜等技術顛覆了傳統知識生產模式和促進跨學科融合,也在文獻檢索、試驗設計、數據分析、成果繪圖、格式編排等環節有效提高了科研工作效率。但同時,作為驅動科研范式變革的“雙刃劍”,其參與科學研究所引發的學術造假、科研誠信、破壞公平競爭等問題亦日益嚴峻:截至2023年底,全球因使用AIGC 被撤稿的論文數達到了9408篇,Nature、Science和Cell等世界知名期刊發表了“禁止和嚴格限制將AIGC用于撰寫論文”的聲明,國內部分大學學報和專業領域期刊也發表聲明將隱瞞AIGC在論文中的貢獻視為學術不端。為盡可能規避AIGC技術參與科學研究所引發的一系列風險,近年來世界各國密集出臺法案和準則以應對,如美國總統科技顧問委員會發布的《通過人工智能應對全球挑戰》、歐盟出臺的《科學中的人工智能》和《科研領域負責任使用生成式人工智能指南》、法國與歐洲24國共同簽署的《人工智能合作宣言》及圍繞交通和醫療領域的AI算法風險倫理安全監管文件,我國科技部、自然科學基金委聯合啟動的“人工智能驅動的科學研究”(AI4S)項目,旨在促進人工智能與數學、物理、天文、醫學領域的跨學科深度融合,并應對AI運用風險。
目前,針對AIGC參與科研的批判主要集中在“AI不具備自然法人的署名法律主體資格”1]、“無法判斷回答是否符合道德倫理、政治正確”2]、“引用溯源與知識產權保護困難”[3]、“數據隱私泄露”[4]、“編造無依據但有邏輯的內容”[5]等,雖然自2018 年來OpenAI一直致力于增加訓練節點個數、優化理解復雜文本和強化邏輯推理能力,實現了GPT-1向GPT-4的迭代,但上述批判所涉及問題并未得到根本解決。本文認為,ChatGPT和Sora等人工智能助力科學研究產生的風險,既來自技術水平局限導致的“類腦\"生成能力不足,也源自使用者(科研主體)過于依賴AIGC 導致的意向性缺失、學術功利主義以及偽包容科研生態。這些原因制約了AIGC技術參與科研活動的水平和效率,并使得工具濫用現象加劇。因此,有必要從知識生產特點、AIGC情景下的科學研究趨勢、AIGC技術參與科研的成果效應、科研活動對人工智能的反向訴求等視角,深入剖析生成式人工智能參與科學研究帶來的風險沖擊及形成機制,重視“人”與“制度”這兩大要素在實踐、干預科研活動中的重要作用,并汲取與借鑒典型國家和組織的經驗做法,形成應對風險的中國方案。
一AIGC技術參與科學研究帶來的風險沖擊
(一)意向性缺失不利于高質量科技供給體系的形成
科學研究是具有主觀能動性的“人”,通過對自然和社會現象、活動的觀察、實驗、調查、總結、演繹,形成創造性結論的知識生產活動。這一活動與其他改造世界的一般生產活動并無本質區別,因為它們都是“在符合意向性認知基礎上,為實現特定目的和需要所產生的行為”。一切科學規律發現和基于新規律的人類生產方式、行為和制度的變更,均立足于人對“物”“事”的意義認知,即在與自然界、生活群體長久共生與互動中,人類進行創造活動的意識驅動是“有必要明確各類事、物及內在規律存在的意義,對好或不好的經驗教訓進行系統總結,并抽象成最為精要的結論和為未來行動調整提供依據”。科學研究的價值邏輯在于增進人類福祉、促進人類文明。諸如提高勞動生產率、推動技術進步、維護生態和諧、延長人類壽命、優化社會資源配置、促進文明交流等科學研究目標,均不能脫離思維活動的“意向性”——科學家只有先通過感知、意識活動賦予事、物的重要價值,再形成探索計劃和預期研究目標。生成式人工智能“擁有智能,但不具有意識、意向和思維活動”[6],在AIGC 出現之前,知識生產有一階和二階兩種形態:一階生產是指基礎研究中的從0到1,那些被認為對人類生存發展有顯著影響的自然界與微觀世界運行規律得到了直接感知,碎片化信息得以系統整合成前人未知的知識;二階生產是指在一階知識上進行的推理、評述、預見。AIGC出現后,知識生產進入了三階時代,準確地說,AIGC技術發揮的是知識“生成”而非“創造”,雖然大語言模型下的人機交互能夠最大效率地搜集、整理并以文字和視頻的形式呈現知識,但不能回答“生產的知識價值何在?”這一基本問題。
因此,科學研究過度依賴AIGC,不利于高質量科技供給體系的形成。第一,AI助力研究的一大優勢是利用大數據訓練生成海量且前沿的學術文獻,研究者可獲得幾乎所有人類知識庫中的知識,助知、助學的同時易形成對工具的依賴,加劇科學研究的“歐美中心化”和“明星追隨\"現象——由于AIGC 提供的知識,普遍程度上超越了一般研究者的知識水平和認識,知識階梯決定了處于低位的一般研究者產生“適應性遵循”,全盤接受高被引文章和主流學術派別的觀點。故而,科學研究很容易陷入“技術追隨陷阱”,在問題立意、技術路線、研究目標上,大量重復式研究注重已有技術軌道上“ 1-∞ ”的復制和改良,這并不符合我國科技自立的戰略目標。第二,習近平總書記指出,“科技成果只有同國家需要、人民要求、市場需求相結合,完成從科學研究、實驗開發、推廣應用的三級跳,才能真正實現創新價值、實現創新驅動發展”7],新時期我國科技創新有著時代指向性,高質量科技供給要完成從“書架”到“貨架”的順利轉化,必須立足國內經濟大循環背景下產業轉型和高質量發展的現實需求,開展基于“意向性”的源頭科技創新,AIGC技術參與科研顯然無法主動從經濟社會運行規律出發進行知識生產。第三,AIGC知識生產客體由一階和二階知識生產中的自然、社會變成了Cassandra、Google等學術數據庫,雖然進行訓練反饋得到的知識也反映了相關作者對客體的意向性,但在面臨具體的場景化和帶有特殊目的的科學問題時,這些知識對解決問題的有效性值得商榷,更談不上立足中國式現代化實踐進程作出符合國情的邊際貢獻。
(二)科研同質性禁錮學科進步
一項基于241門細分學科、涉及9000萬篇論文的18億次引用的定量分析認為:大量論文的發表不但沒有加快研究范式的更替,反而鞏固了經典研究[8]。在以數量論英雄和以被引率為質量表征的學術認可機制下,圍繞主流文獻開展即時追蹤性研究是迅速撰寫刊發成果、以達到學術機構和個人雙重利益的普遍職業行為。多年來,我國擴張性Ramp;D 政策下的論文數量暴增,《2023年中國科技論文統計報告》指出,“2022年,中國在各學科最具影響力期刊上發表的論文數為16349 篇,占世界總量的 30.3% ,首次超過美國排名世界第1位,熱點論文數為1929 篇,占世界總量的 45.9% ”[9],但僅有 6% 的轉化率使得我國在芯片、光刻機、航空發動機、工業機床、集成電路、微球等35項前沿技術上仍處于“卡脖子\"狀態[10]。究其原因,不少研究者缺乏獨辟蹊徑的科學精神和“量變 $$ 質變”的硬核意識,只注重研究的規范性、嚴謹性,而忽略研究問題自身的意義,依托大模型和智能感知技術的強大助知、助寫功能,無疑會加劇科研同質化。
同時,過度依賴AIGC會導致新穎、突破式觀點被湮滅,遲滯學科進步。第一,在定義主題、創意探索、制定大綱、數據分析、潤色降重等一系列科研流程中,AIGC 技術大大降低了人的工作量,縮短了成果形成周期,但這是以大量同質化論文產生為代價的。ChatGPT、Sora 等智能軟件在科研領域的使用具有非排他性、非競爭性,任何個體均可輕松地通過這些軟件進行提問以獲得具有一定價值的選題,盡管不同個體在人機交互時的提問方式和語句不盡相同,但諸如“代表性文獻”“最新進展”“政策影響”“變化趨勢”等核心詞被神經網絡模型所共同識別,這意味著當越來越多的研究者使用人工智能工具時,他們所得到的信息回饋是一致的。“編碼器—解碼器”(Transformer)模型能夠將這些一致信息通過多輪對話轉化成常識性和推理性輸出,研究者很容易依據這些易于理解的知識,稍加修飾就可以形成“看起來有別于其他、但論點論據完全相同”的理論成果。第二,經典研究鞏固機制被AIGC技術增強,通過抓取互聯網上一切信息進行“歸納—建立聯系一生成創作”的鏈條式輸出,那些被廣泛引用和普遍宣傳的學術理論、觀點、佐證最大范圍地傳播擴散至科學共同體,隨著時間推移,大量學術成果具有很強的脈絡傳承特點,而那些新穎的思想與范式創新由于缺乏高推送性,難以對主流研究形成挑戰。第三,我國2020年出臺的《加強“從0到1\"基礎研究工作方案》明確提出,“注重科研平臺、科研手段、方法工具和高端科學儀器的自主研發與創新,推動基礎研究分類評價,探索支持非共識項目的機制”[11],國家自然科學基金委、上海市政府也設立了“原創探索計劃項目”和“探索者計劃”避免科研支持的“滄海遺珠”。AIGC 技術參與科研情景下,“國外有沒有做過”是申報課題、發表成果時的重要參考指標,學者們過于注重自身研究與主流觀點的契合性和延續性,對非共識、顛覆性、高風險的原創項目產生自我否定,不利于全球科技競爭態勢下“新賽道”的發現與培育。
(三)營造偽包容科研生態,加劇學術失范
與經濟領域強調的共同富裕有所區別,科學研究領域中因知識生產的高智力、高創新特征,以及個體稟賦與學術成長經歷的差異,從能力和結果視角要求所有科學家收斂于同一水平并不現實,尊重個體差異性,有序適當競爭與實現淘汰有助于篩選出卓越科學家,科研領域任何以“降低科研群體內部能力分化”的議題均是偽包容命題。隨著GPT工具廣泛運用于科研,學術群體很容易為人工智能的自然語言、反饋強化學習、知識推理等技術帶來的便捷性所誤導,甚至將毫無創新的論文裝扮成看似博覽群書、經過嚴密論證的智慧結晶,這顯然是對科研公正的巨大諷刺,科研人員之間的水平與貢獻差異會因人工智能變得模糊和難以界定,讓那些擁有真才實學、勇攀高峰的科研智者喪失創新動力,進而惡化學術生態。第一,長久以來學術造假、急功近利、“灌水”現象屢禁不止,在職位晉升、獎勵驅使下,部分研究者有著利用AIGC大肆生產水文的內在動機,不少關于ChatGPT的培訓課程和網絡短視頻,名為增強科研人員寫作能力,實則教授各種灌水技巧,包括學術裁縫、偷梁換柱、數據清洗等方法,很大程度上滿足了那些學術能力孱弱但又極具功利心態的“濫竽充數者”的內在需求。第二,AIGC 抹殺了優秀科研人員的先發優勢,形成學術界的“劣幣驅良幣”現象。缺乏創意思考的AIGC論文寫作,本質上與委托他人為己代作調查、代操實驗、代寫論文的學術不端并無不同,Shakked進行的一項基于453人的寫作任務對照試驗顯示,使用ChatGPT的實驗組在撰寫計劃、新聞稿、報告時的效率與質量明顯高于未使用該軟件的對照組;ChatGPT由于比Latex這一傳統復雜寫作軟件更便捷,有 80% 的實驗組人員在第二次任務中繼續使用,而對照組中比例只有5% ;除了提質增效,ChatGPT降低了不同人之間工作質量的差異[12]。從呈現結果來看,ChatGPT使得學術能力孱弱的人形成了與優秀科研人員看似相似的學術成果,但這不代表他們本身創造力和科研水平較高。第三,AIGC 的使用可能會加劇基金申報和職稱晉升中“唯關系”“唯資歷\"“唯人情”現象,對于那些缺乏真才實學的科學從業者,可在人工智能工具的加持下在短期內獲得所謂的學術成就,紙面條件的迅速滿足使得那些擁有更多權力、地位、人脈資源的人對稀缺的職稱與經費資源形成更高的壟斷,這極大妨礙了科研公正和引起科研資源錯配。總之,因GPT運用使得所有個體能力呈現同質化和均等化時,非科研本身的要素將會在資源分配和科研回報中扮演更重要的角色,即人工智能使得學術生態趨于隱蔽式的惡化。
(四)簡單化、利益化的反向訴求使得AIGC參與科研迷失方向
在包括科學研究在內的各項人類生產、生活、娛樂、學習、創新活動中人類一直追求 AI能夠幫助甚至替代自身進行思考和行為,從而減少個體投人、降低行為風險、增加幸福感。從技術目的來看,人工智能的發展方向有兩個,一是對大量重復性人力勞動進行替代,從而降低和杜絕疲勞、疏忽、經驗、能力原因導致的失誤率,比如移動支付、無人駕駛、工業機器人、智能家居、機器翻譯等;二是對人力無法完成或具有高度危險性的工作任務替代,比如深海勘探、太空探索、消防、救援、軍事等領域的智能設備運用。但是,由于人工智能技術創造者和使用者的簡單化、利益化反向訴求,“ChatGPT的未來,就像核裂變、核能源一樣,有可能違背造福人類社會的初衷,如果把重點放在武器的研制上,肯定與人類意圖、目標完全相悖,要在法律、倫理之間找到平衡點。”[13]美國調查組織ProPublica和《科學》的研究顯示:AI存在著“類似人的語義偏見”,開發者與權力組織通過對AI賦權來傳播與維護他們的價值觀和利益。換句話說,人工智能并不是物理學家霍金口中“新形式的生命”,而是制造和控制它的利益群體的擴展與延伸。
第一,科研人員有著很強的簡單化訴求——包括生成準確、高速反饋、過程簡易、成果美化等,達成這一訴求的關鍵是增加“數據投喂”,為大數據神經網絡訓練提供足夠營養,因此技術開發者將 AI技術發展的重心集中于維基百科、ProjectGutenberg、BookCorpus、PubMedCentral、arXiv、Reddit 鏈接、CommonCrawl、新聞語料庫、問答語料庫、搜索引擎數據、社交媒體數據、電商平臺數據等海量數據庫的開發,以及圍繞這些數據的運算、標簽化、圖像化模塊研發。這一技術走向并不符合“造福人類社會”宗旨,因為其并不以解決實際難題為最終目標,而僅僅是降低研究過程的難度感知,譬如文獻檢索、思想創造、數據分析、文本撰寫變得更容易,但這些卻是科研人員本身必須具備的素養。第二,技術發展與利益向來就是密不可分的,例如性愛機器人、基因再編輯、生物克隆、轉基因等均是科研逐利的產物。隨著國家之間、地區之間、機構之間競爭的加劇和資本的滲透,資本、AIGC技術開發者、科研主體之間容易形成合謀,開展符合共同利益但可能對社會有害的協同研究。第三,AIGC是“受限制的自由意志”——基于設計者預先訓練好的神經網絡架構生成答案,設計者可以操控與使用者的交流方式與結果,包括引導交流、推動符合設計者利益的答案,此時AIGC易淪為反映AI精英和權貴階層意志的工具,資本與權力可通過干預AIGC技術開發者決策,間接影響科學研究和社會走向。
二應對AIGC技術參與科研風險的國際經驗借鑒
(一)歐盟:“科研人員 + 科研機構 + 資助組織”三位一體式監管
歐洲聯盟(European Union,EU)2024年發布的《科研領域負責任使用生成式人工智能指南》(后文簡稱歐盟《指南》)中將科學研究視為生成式人工智能影響最為嚴重的領域[14],為避免高校、科研機構、創新組織以及學術出版機構在使用GPT時缺乏指導原則,歐盟《指南》基于早期出臺的《歐洲研究誠信行為準則》和《高級別專家制定的關于可信賴人工智能的工作和指南》給出了“科研人員 + 科研機構 + 資助組織”三位一體的14項指導準則,這些準則只具有建議性和適宜性而非強制性,并未給出具體實施步驟、責任主體與懲罰性措施,科研組織在實踐中可依據其清晰的原則制定符合各自組織、學科、項目特點的實施細則。
科研人員方面,歐盟《指南》要求“人工智能工具生成或在其支持下:1.對生成內容的完整性負責;2.在使用所產生的結果時應保持批判的態度,并意識到這些工具的局限性,如偏差、幻覺和不準確性;3.不會在科學研究過程中使用生成式人工智能制作的材料,例如偽造、篡改或操縱原始研究數據\"科研主體要明確科學規律發現和知識生產的一階屬性,必須堅定不移地以客觀對象為研究課題,用批判、唯真的科學精神指導探索活動,發揮AIGC優勢的同時要保持主動規避風險的態度。歐盟《指南》強調AIGC參與科研的透明性,認為“應公開使用工具的名稱、版本、日期,工具如何被使用和對研究過程產生的影響;應根據開放科學原則提供輸入(提示)和輸出”。這一建議對監管科學家的AIGC使用行為十分有效,良好的自我披露有助于明晰知識生產與成果形成中“人類”與“人工智能”的各自貢獻。《指南》進一步要求“考慮到隨機性,即相同的輸入會產生不同的輸出,力求結果和結論的可重復性和穩健性。披露或討論所使用的工具的局限性,包括生成內容中可能存在的偏差和緩解措施”。人工智能永遠無法取代人的科研主體地位,必須將其定位于輔助工具而非替代工具。此外,涉密信息和著作權保護、同行評審和研究提案禁用AIGC也被歐盟《指南》重點論述,為學術出版界的參考文獻引用機制優化和適用準則建立提供啟示。
科研機構方面,歐盟《指南》要求“向科學家提供道德、法律、操作等方面的培訓;密切圍繞研究活動過程,對具體運用進行實時監管、診斷,公開征集利益相關者的意見”。倡導科研機構不僅要將自身定位于為科學研究活動的服務者和監管者,也要本著“大一統”思想考慮人工智能參與科學探索、產品研發、技術社會化等一系列活動時對企業、居民、社會乃至自然環境的一系列影響,整合全社會力量集思廣益、頭腦風暴形成最廣泛的意見。歐盟《指南》要求科研資助組織“審查生成式人工智能在其內部流程中的使用情況”,即資助組織要建立其相應的審查機制,在科研人員申報書撰寫、數據生成、成果彰顯等各步驟中,就適用狀況作出說明,并將“負責任地使用GPT”作為是否決定資助和判定成果等級的重要依據。
(二)美國:學術自治下的多元化治理
美國應對人工智能參與科學研究的風險則表現為自由、自治特征,不同高校、學院、學科甚至教師均可以按照自身特點制定使用與監督方案,治理的模式更具多元化。2023年美國發布的第一版《人工智能風險管理框架》屬自愿適用的指導性文件,軟法規制特征顯著。為鼓勵人工智能的創新與發展,美國政府更傾向于放松監管,提出對特定人工智能領域可以采取非監管措施,相關機構應考慮法律規定的豁免情形,允許為特定人工智能技術應用程序提供安全港的試點計劃[15],具體到實踐層面,,各高校、研究機構開展形式各異的多元化治理。
模式I:認知啟發型。哈佛、斯坦福、杜克等美國高校注重人工智能“黑箱”機制的通識化教育,促進和提高包括教師、博士、碩士在內廣大研究者對智能科研的心理認知。哈佛大學 2024 年增設“人工與自然智能通識教育課程”(Artificial and Natural Intelligence,ANI)課程,教授人類智能與人工智能的關系、大型語言模型(LLMS)原理形成、不同學科運用AI的案例、可能的社會影響等多項知識內容[16];斯坦福大學 2023 年搭建的“教學共享平臺\"(TeachingCommons,TC)為教師答疑解惑,杜克大學 2024 年上線的“數智你”(DigitalU(You))向師生們展示AIGC工具背后的底層運作技術和數據庫,以實踐教學科研案例揭示工具使用過程中產生的學術不端、信息隱私、法律倫理等問題[17]。這些高校認為,相比于從制度層面施加使用約束和懲戒,從主觀層面提升科研主體對AIGC技術這一“黑箱”的運作機制與危害的認知,更能從源頭上抑制和消除不當使用的動機。模式Ⅱ:規則向導型。包括明尼蘇達大學、猶他大學在內的一些高校主張用詳細的AIGC使用條款主導學術行為,例如:在賦予科研人員自主權的基礎上,允許教師和學生使用AIGC技術進行論文寫作,但必須按照美國心理學會(APA)、美國現代語言學會(MLA)的引文標準合理標注;為防止數據“釣魚”,采購數據開發、分析、可視化等工具時要經過校方審核;禁止在同行評議和基金申報書評審中使用AIGC,理由是違反保密性原則和引起不良數據擴散;正式出版成果之前,不能通過包括AIGC在內的一切渠道公開隱秘數據;出版學術論文時,要作者提交完整的GPT使用報告.[18]這些高校通過制定詳細的 AIGC使用規則,在適用性、學術規范和信息披露上作出明確要求,從而規范每一個科研步驟。
模式ⅢI:分類化運用型。美國國家科學基金會(NSF)2024 年建立了“通過能力建設和合作伙伴關系擴大人工智能創新\"(ExpandAI)計劃,旨在通過對AI養老與護理、勞動力教育與擴大參與、半導體與機器人、智能食品棚、智能交通、邊緣計算、現實物理與AI結合、在線 STEM教育、農業預測決策、模擬植物等11個領域進行持續五年的2000萬美元/項的支持,鼓勵國內各大高校立足各自優勢學科和實驗室成立具有專業導向的分類化 AI研究所,與上述領域對應的分別是佐治亞理工學院、加州大學圣地亞哥分校、俄亥俄州立大學、杜克大學、華盛頓大學、北卡羅來納州立大學、佐治亞研究聯盟、愛荷華州立大學。這一模式的治理意義是在發揮各高校優勢學科的基礎上,以建立專業研究所和專項資助的形式鼓勵高校開展人工智能導向下的科技創新,提高AIGC技術參與科研的針對性。
美國在科研領域針對AIGC的治理還表現為較強的“干中學”效應。哈佛大學成立了由19位教授和主管科研工作的院校負責人組成的生成式AI科研學術組,專注于討論如何借助生成式工具支持和改進大學的學術活動,包括信息的準確性、機密數據和知識產權、利用生成式AI工具提升科研申報書的質量、廣泛傳播學術成果;麻省理工學院和加州大學定期召開涵蓋全員教師、學生、外部專家的學術研討會議,就最新AI科研進展、過程、影響與改進方案進行討論.[19]有研究認為“與勞動力不斷獲取知識、經驗積累引發的生產效率提高類似,AI與數據集集合進行機器學習提高了人工智能的智慧,并帶來生產力的推動。”[20]從相反視角看,科研人員在使用人工智能輔助科研活動中的“掃盲”、摸索與實踐,以及通過分享討論、專題研討、形成過程報告等形式的經驗擴散,有助于形成AIGC參與科研的“ PDCA′ ”循環式改進和科研水平顯著提升。
三應對AIGC參與科研風險的中國方案
(一)倡導意向性知識生產,鼓勵非共識研究
無論是純自主探究,還是生成式人工智能輔助科研,都回避不了知識生產中“人”主體定位的問題。科學界應當有清晰的認知:AIGC并非造成剽竊、知識產權、學術代理人等現象的根本原因,只不過其運用一定程度上加劇了這些現象,解決學術不端必須根本正源,從科研人員自身找原因并尋求方案。高校、科研院所、企業乃至全社會,都應當重視科學家知識生產的意向性倡導,尊重一階知識生產的不可動搖性。任何有價值的科學發現,一定來源于面向自然、社會、原子世界客觀現象的觀察與規律探索,而不是來自前人成果的拼湊、剪輯、總結、推理,將實驗和論文形成于車間一線、田間地頭、居民社區,明確每一份研究成果的現實價值,才是實際、實地、實干的科學精神所在。不人云亦云、敢于突破,是正確利用人工智能輔助科研的護航之器,運用ChatGPT就是要在最大限度掌握前人成果的基礎上提出新觀點、新方法、新路徑,以繼承和批判精神開展非共識創新,而不是“拿來主義”。
具體到科研工作實際,一是突出研究的場景性。盡量避免討論和評價具有通識性和普遍性的命題,要結合本專業知識就具體的產業、企業、群體、家庭、地域的生產生活場景問題進行探索,體現出與ChatGPT生成的文獻相比,研究客體有著怎樣的特殊性和對其研究的必要性。二是強化邊際貢獻說明。論文撰寫要重點表明在范式、方法、技術路線和結論方面的邊際貢獻,這正是學術研究的價值所在。這一工作在AIGC技術參與科研過程中有著顯著的自證作用,有利于出版機構和讀者迅速識別成果價值。三是善于發現小眾賽道,開展非共識研究。ChatGPT人機對話中,使用者獲得與研究有關的大量文獻并形成主流觀點和非共識觀點,這為塑造新視角、發現科研“藍海”和小眾賽道提供了可能,科研人員要利用人工智能的強大梳理與分類能力,尋找并確立與過去的科學共識相左甚至相悖的研究項目。四是堅持意向性創新。申報書、研究報告和論文的撰寫,秉持知識生產的一階性,除卻文獻回顧和理論總結部分,內容生產要立足于研究客體的價值和運動規律,杜絕用ChatGPT獲得的內容作為用于闡明、解釋、作證觀點的依據。
(二)建立健全監管機制,提升AIGC技術參與科研的可控性
對于ChatGPT和Sora等人工智能工具濫用及產生的風險沖擊,要以辯證的態度以對之,既不能將其視為“險些攻陷學術圈的怪物和垃圾論文泛濫成災的罪魁禍首”,也要審慎地從工具和使用者、監管者視角考慮風險生成原因并進行干預。我國2023年出臺了《生成式人工智能服務管理辦法(征求意見稿)》,明確指出“生成式人工智能服務提供者應當明確并公開其服務的適用人群、場合、用途,采取適當措施防范用戶過分依賴或沉迷生成內容。”[21]但在科研領域,并未給出AIGC 技術參與科研監管的具體管理辦法與細則,應結合我國學術界實際,充分借鑒其他國家、地區、組織經驗做法,形成監管體系。
(1)高校要實現對AIGC技術參與科研的“文化 + 激勵 + 監管”的三位一體監督,開展涵蓋所有教師、博士、碩士在內的人工智能通識教育,邀請培訓專家以原理介紹、軟件操作、科研實例等多種形式對常見的AIGC技術參與科研導致的學術不端、法律與倫理風險進行可視化展示,在校園宣傳區和官網網站設置板塊,引導正確的政治觀、利益觀和科研觀。依托校內外同行評議機制,對用于職稱評定、人才稱號的科研成果進行邊際貢獻評議,按照評議結果賦予不同成果得分,避免AIGC技術參與科研帶來的偽包容現象,保障機會公平,并修改科研獎勵規則,對于有邊際貢獻、主要工作內容非人工智能生成、具有場景性價值的成果加大獎勵力度。建立常態化監管機制,由校學術委員會牽頭組織科研監管小組,在不干涉科研人員自主權的前提下建立自查和互查規則,定期披露在研項目利用人工智能使用情況。(2)科技部、國家自然科學基金委、哲學社會科學規劃辦、教育部社會科學司以及各省市的科技廳作為科研立項管理和資助機構,應從標書撰寫申報、中期檢查、成果評定各個環節,對申報者和科研項目中AIGC的運用進行監管,申報書形成環節除原有的研究意義、文獻綜述、研究工具、技術路線、研究內容、預期成果與計劃模塊外,還應增設“AIGC工具使用計劃”模塊,要求申請人就標書中使用ChatGPT、Sora等軟件的情況作出說明,檢查與評定環節中,要求完成人給出AIGC自檢和創新對照的說明,以及詳細的AIGC技術使用與生成內容,并提出對照這些內容的研究創新與突破。(3)學術期刊應加強編輯和審稿人的職業素養,提升各類反抄襲軟件的使用能力,并積極完善投稿制度,在征稿啟事中明確要求投稿人在通過審核后的待刊環節就文章成果的AIGC工具使用作出自我說明,對成果由人工智能主要生成但未作出說明者,一旦發現將作出若干年內禁止投稿的處理。
(三)探索AIGC技術參與科研沙盒監管模式
解決生成式人工智能在科研使用的依賴、濫用及相關衍生風險,一個重要思路是從技術生成端提供標識技術,目前已有相關機構開展了此類技術和產品的研發實踐,例如OpenAI推出的檢測工具AI Text Classifier,該工具可以檢測濫用人工智能模仿人類的行為;馬里蘭大學開發的“能夠使那些由AI生成的文本附著不可刪除的特殊標記”的水印嵌入技術。“用魔法打敗魔法”的思路應當被用于中國AIGC參與科研的治理實踐,隨著Giiso 寫作機器人、文心一言等中國版ChatGPT的推出,技術開發者們應充分重視標記和嵌入技術的實現,與政產學研各界形成協作合力,開發出符合學術、法律、倫理規范的反剽竊工具。同時,科技管理部門應借鑒人工智能領域金融科技(Fintech)的“沙盒監管”[22],探索AIGC參與科研監管新機制,建議從AI技術生成與運用兩個環節開展的風險治理,包括:(1)交互式人機對話工具開發者,應嚴格遵守2023年出臺的《生成式人工智能服務管理辦法(征求意見稿)》指出的“增強透明度,包括算法安全評估、算法備案、內容標識和預訓練與優化訓練等訓練數據合法、質量保證、保護個人信息和隱私”,堅持注重知識產權、保護數據隱私、凈化創新環境,在底層架構、算法與監管輔助技術上精進,打造中國科研領域“防依賴”版人工智能產品。(2)借鑒“沙盒監管”思想,以審慎包容的態度制定一個風險可控的“沙盒”——允許符合一定監管條件的科研主體(機構、團隊、個人)使用ChatGPT等人工智能工具,實時動態記錄、監測AIGC 技術參與科研過程,以及在申報書與論文撰寫、公開發表、成果產業化和指導社會實踐等現實場景下研究成果所帶來的實際影響,尤其對于涉及科研誠信、數據隱私泄露、知識產權、產業與社會負面效應等不良結果,實時向科技監管部門匯報測試結果。通過逐步擴大沙盒測試范圍,監測獲得更多數量的測試主體和更多類型的AI工具在科研實踐中的行為、效果數據,從而進行歸納總結,找準主要風險與形成原因,為后續AIGC技術自我監管技術創新和規范科研主體行為方案制定提供依據。
(四)改革科研評價制度,落實科研誠信
生成式人工智能對科研的影響集中體現在以論文、申報書、專利為典型代表的文件成果,這些文件成果只是“紙面”上的科學機制描述,并不等同于嚴格意義上的生產力。看待與治理AIGC技術參與科研中的學術失范、過度依賴和灌水難題,應從“破唯論文”視角給出新的解釋與解決方案——既然AIGC技術加劇了“紙面\"學術研究的泡沫化,理應降低其在職稱晉級、評獎評優中的重要性,重新構建起包括圖紙、樣機、樣品、社會實踐報告、產業化努力、經濟社會環境效益在內的多元化科研評價體系,并提高這些具有高轉化屬性的“非紙面”成果在評價中的權重,這是扭轉學術界“重論文、輕轉化”堅持“四個面向”(面向世界科技前沿、面向經濟主戰場、面向國家重大需求、面向人民生命健康)創新、提高成果質量和轉化能力的必然舉措。
AIGC技術參與科學研究,對科研誠信落實帶來了相當的挑戰,例如ChatGPT強大的“洗稿”能力讓傳統反抄襲檢測系統失效,原有基于文本和圖像識別的查重工具已經無法甄別論文、申報書、專利的原創性,觀點剽竊、編造“看似合理實則虛假的信息”等現象對監管帶來挑戰,僅依靠AIGC技術自我創新和機構監管無法完全規避。因此,需要按照公開知情、公平正義、共同責任三大原則,促使研究者在ChatGPT應用中秉承科研誠信精神,遵循相應的倫理原則,是防止ChatGPT等人工智能工具濫用的根本保障[23]。研究者道德自覺和內在德行,是指引科研實踐中主動預防新技術運用風險的關鍵[24],研究機構、科研團隊應在組織氛圍培育、道德倫理宣揚等方面發揮積極作用。國家、地區、組織層面,應加快建立ChatGPT倫理審查機制,成立專門機構在章程指引下建立審查標準并實行常態化、制度化監督,編制符合機構、學科、項目特征的《AIGC輔助科學研究倫理手冊》,從而推動和實現人工智能在科研領域的道德化使用。
參考文獻:
[1]王樹義,張慶薇.ChatGPT給科研工作者帶來的機遇與挑戰[J].圖書館論壇,2023(3):109-118.
[2]姜濤,葉思雨.生成式人工智能浪潮下的學術生態:機遇、挑戰及應對[J].河北科技大學學報(社會科學版),2024(2):85-92.
[3]孫偉平,劉航宇.生成式人工智能與知識生產方式的革命——從Sora的沖擊波談起[J].思想理論教育,2024(5):12-18.
[4]羅楓.AI交互決定了隱私的感知、使用和開放[J].上海管理科學,2024(3):34-41.
[5]Eva A. M. van Dis,Johan Bollen,Willem Zuidema,et al. ChatGPT: Five priorities for Research[J].Nature,2023(3) :224-226.
[6]姜華.從辛棄疾到GPT:人工智能對人類知識生產格局的重塑及其效應[J].南京社會科學,2023(4) :135-145.
[7]王天友.以高質量科技成果轉化推進高水平科技自立自強[J].紅旗文稿,2023(23):17-20.
[8]Johan S. G.Chu,James A. Slowed Canonical Progress in Large Fields of Science[J].Proceedings of theNational Academy of Sciences of the United States of America,2021(41) :118-122.
[9]中國科學技術信息研究所.2023年中國科技論文統計報告發布[Z].(2023-09-21)[2024-12-27].https:// www. istic. ac. cn/html/1/284/338/1506840141409544642. html.
[10]金海年,顧強,鞏冰.大國的坎:如何破解“卡脖子\"難題[M].北京:中譯出版社,2022:3.
[11]中華人民共和國科學技術部.科技部 發展改革委 教育部 中科院自然科學基金委關于印發《加強“從0到1\"基礎研究工作方案》的通知[EB/OL].(2020-03-03)[2024-11-10].htps://www.most. gov. cn/ xxgk/xinxifenlei/ fdzdgknr/fgzc/gfxwj/gfxwj2020/202003/t20200303_152074. html.
[12]S Noy,W Zhang. Experimental Evidence on the Productivity Effects of Generative Artificial Intellience[J].Science,2023(14):187-192.
[13]鳳凰網財經訊.科技的進步是為人類社會進步的,而不是走向反面[EB/OL].(2023-03-30)[2024-12-05]. https://finance. ifeng. com/c/8OZSzmUKCAp.
[14]European Union. Responsible Use of Generative AI in Research[EB/OL]. (2024-03-22)[2024-11-14].https://intell ect ual-property-helpdesk.ec. europa. eu/news-events/news/new-guidelines-responsible-use-generative-artifici al-intelligence-2024-03-22_en.
[15]機器人庫.從美國和歐盟的最新政策看人工智能的發展和監管[EB/OL].(2021-09-14)[2024-12-05]. https:// www. sohu. com/a/491784859_371013.
[16]Gen Ed 1125 at Harvard University. Artificial and Natural Inteligence Syllabus[EB/OL].(2024-04-27)[2024-12-05]. htps://gened1125. github.io/spring2024/syllabus/.
[17]Duke Today.New University Course Offers a Technical and Ethical Exploration of Our Data-CentricWorld[EB/OL].(2024-04-27)[2024-12-05]. htps://today. duke. edu/10,2023/07/new-university-course-offers-technical-and- ethical-exploration-our-data-centric-world.
[18] UC Berkeley Academic Senate. Initial Thoughts and Suggestions Regarding Implications of LargeLanguage Models (LLMs) for Fall Final Assessment[EB/OL].(2024-04-27)[2024-12-05]. https://academic-senate. Berkeley. edu/implications-of-llms-chatgpt-for-final-assessments.
[19]常桐善,趙蕾.美國高校應對和使用人工智能工具的策略與原則[J].重慶高教研究,2024(6):1-12.
[20]馬驍,王軍,張毅.大數據環境下人工智能的“干中學”效應研究[J].華中科技大學學報(社會科學版),2024(2):43-56.
[21]國家互聯網信息辦公室.生成式人工智能服務管理辦法(征求意見稿)[EB/OL].(2023-04-11)[2025-02-05]. https://finance.sina.com. cn/tech/roll/2023-04-11/doc-imypytun7491355.shtml?cref
cj.
[22]戚聿東,劉歡歡.數字經濟背景下金融科技的創新發展與監管轉型——基于監管沙盒視角[J].經濟與管理研究,2022(4):67-81.
[23]周謹平.ChatGPT應用中的科研誠信風險及其倫理治理[J].中南大學學報(社會科學版),2024(1) :31-37.
[24]高建剛.“互聯網 + ”驅動我國產業高質量發展的路徑與對策研究[M].北京:經濟管理出版社,2024 :43
Abstract: Scientific research is the most influential field of generative artificial intelligence. Artificial inteligence tools such as ChatGPT and Sora While bringing great convenience to researchers, it is also like a“double-edged sword”that leads to the lack of “intentionality”of knowledge production and the homogeneity of scientific research. Risk shocks such as rumination, lagging discipline progress,deteriorating academic ecology,and deviation from the development track of artificial intelligence. We should fully learn from other parts of the world should be the diversified governance scheme and practice of generative artificial intelligence participating in scientific research risk, combined with the actual situation of scientific research in China, from encouraging non-consensus research, strengthen the self-innovation of generative artificial intelligence,build a regulatory mechanism, design sandbox testing,reform the scientific research evaluation system,and implement scientific research integrity.,form a Chinese plan to deal with risks.
Key words: Artificial Intelligence Generated Content; scientific research; risk impact;china scheme
(責任編輯:葉光雄)