摘要:歐盟委員會發布的《科研領域負責任使用生成式人工智能指南》針對研究人員、研究機構及研究資助機構等不同主體提出建議,為科研實踐提供明確的操作指導。該指南對我國生成式人工智能的科研應用有較好的借鑒價值,因此本文提出以下啟示:應盡快制訂適用于科學研究場景的專門規范或指南;強化科研數據保護機制,提升網絡安全水平;完善組織架構,確保生成式人工智能應用的有效監管。
關鍵詞:生成式人工智能;科學研究;應用規范;應用指南
中圖分類號:G434 文獻標識碼:A 論文編號:1674-2117(2024)23-0000-04
引言
生成式人工智能,作為一種顛覆性的技術,正在對經濟社會的發展產生深遠的影響。[1]它通過模擬人類的思維和創造力,能夠自動生成新的信息、產品和服務,從而推動經濟社會的全面變革。科學研究是推動經濟社會發展的關鍵因素,它通過探索未知、創新技術、培養人才和促進國際合作,為社會進步提供動力。高校作為科學研究的高地,不僅在學術領域具有重要地位,而且在推動社會進步和經濟發展中也起著關鍵作用。因此,如何更加科學、規范地推動生成式人工智能賦能高校科學研究是世界各國正面臨的一個重要的現實問題。
為解決生成式人工智能為科學研究帶來的關鍵機遇和挑戰,2024年3月20日,歐盟委員會與歐洲研究區國家和利益相關者共同提出《科研領域負責任使用生成式人工智能指南》(Living Guidelines on the Responsible Use of Generative Ai in Research)(簡稱《指南》),以指導歐洲研究界負責任地使用生成式人工智能。該指南為我國在人工智能賦能行動中推動生成式人工智能科學、規范賦能科學研究提供了重要參考。
《指南》的主要內容
在具體內容上,《指南》分別針對研究人員、研究機構和研究資助機構科學合理地使用生成式人工智能提出了建議。
1.對科學研究人員的建議
《指南》對科學研究人員主要提出以下六點建議:①科研人員對科研成果負最終責任。科研人員需對由人工智能工具生成或在其支持下生成的內容的完整性負責;對使用生成式人工智能所產生的結果應保持批判的態度,并意識到這些工具的局限性,如偏差、幻覺和不準確性;明確人工智能系統既不是作者,也不是共同作者;不能在科學研究過程中使用生成式人工智能創建的捏造材料,如偽造、篡改或操縱原始研究數據。②透明地使用生成式人工智能。科研人員應詳細說明在研究過程中主要使用了哪些生成式人工智能工具;應披露或討論所使用的生成式人工智能工具的局限性,包括生成內容中可能存在的偏差,以及可能的緩解措施。③在與人工智能工具共享敏感或受保護信息時,要特別注意隱私、保密及知識產權相關的問題。科研人員應保護未發表或敏感的作品,不要將其上傳到在線人工智能系統中,除非能保證這些數據不會被重復使用;不應向在線生成式人工智能系統提供第三方的個人數據,除非得到數據主體(個人)的同意;應了解有關隱私、保密和知識產權的技術和道德影響。④尊重適用的國家、歐盟和國際立法。科研人員在使用生成式人工智能的輸出結果時,要避免剽竊的可能,尊重他人的著作權;有責任妥善處理生成式人工智能輸出的任何個人數據,并遵守歐盟數據保護規則。⑤不斷學習生成式人工智能工具的正確使用方法。生成式人工智能工具發展迅速,不斷有新的使用方法涌現,科研人員要及時了解最佳實踐,并與其他利益相關者分享。⑥避免在可能影響他人的敏感活動中大量使用生成式人工智能工具。避免使用生成式人工智能工具,導致不公平待遇或潛在的評估風險;保護科研人員未發表的原創作品,使其免于暴露或被納入人工智能模型。
2.對科研機構的建議
《指南》對科研機構主要提出以下四點建議:①促進、指導和支持研究人員在研究活動中負責任地使用生成式人工智能工具。生成式人工智能工具的使用不僅涉及對技術能力的掌握,還涉及對相關倫理和法律要求的深刻理解。科研機構應提供和促進關于使用生成式人工智能工具的培訓,確保生成式人工智能工具的使用符合道德和法律要求。②監督組織內生成式人工智能系統的開發和使用情況。科研機構應重視機構內使用生成式人工智能工具的研究活動和流程,以便為生成式人工智能的使用提供進一步指導,確定培訓需求。同時,還應分析生成式人工智能技術和工具的局限性,并向科研人員提供反饋和建議。③將生成式人工智能相關指南納入研究實踐和倫理的一般研究指南中。科研機構可以生成式人工智能相關指南為基礎,制訂生成式人工智能的使用相關規定,并向科研人員和利益相關者征求意見;應盡可能以生成式人工智能相關指南為指導。④在可能和必要的情況下,對生成式人工智能工具施行本地托管或基于云的管理。本地托管或云管理能夠防止數據泄露和未授權訪問,這是保護敏感信息不被濫用的關鍵措施。這種管理策略不僅符合數據保護法規,而且對提升研究可信度及科研機構責任感至關重要。科研人員可將其科學數據保存到能保障數據安全的工具中,科研機構應確保這些系統達到相應的網絡安全水平。
3.對科研資助組織的建議
《指南》對科研資助組織提出以下四點建議:①促進和支持在研究中負責任地使用生成式人工智能。科研資助組織設計的資助工具應開放、易于接受,并支持科研人員負責任、合乎道德地使用生成式人工智能技術;應要求受資助的研究機構和受資助者,鼓勵科研人員和研究機構遵守現有的法律、研究標準,合乎道德和負責任地使用生成式人工智能技術。②審查生成式人工智能在其內部流程中的使用情況。科研資助組織對其在活動中使用生成式人工智能產生的影響負全部責任。科研資助組織應以透明的方式使用生成式人工智能,特別是在與評估和評價管理有關的活動中,并且不損害內容的保密性和過程的公平性;在選擇生成式人工智能工具時,應審查該工具是否符合質量、透明度、完整性、數據保護、保密性和尊重知識產權的標準。
③要求項目申請者在使用生成式人工智能方面保持透明性。科研項目申請者應聲明在申報過程中是否使用了生成式人工智能工具,并說明該工具在研究活動中的作用。④監督并推動生成式人工智能的發展。科研資助組織應加強對在科研中負責任地使用生成式人工智能的培訓和教育計劃的資助。
《指南》的借鑒價值
通過分析筆者認為,《指南》對推動生成式人工智能技術在我國高校科學研究中合理規范使用的啟示和借鑒主要有以下幾點。
1.細化現有相關政策,聚焦高校場景研制針對性規范或指南
我國面對形勢的變化,頒布了《生成式人工智能服務管理暫行辦法》《人工智能倫理治理標準化指南(2023版)》《新一代人工智能倫理規范》等一系列聚焦新一代人工智能倫理規范的制度文件,為新一代人工智能技術的合理規范應用提供了重要的政策保障。但是,現有的制度文件具有廣泛通用性,針對性聚焦高校科研領域的相關文件仍相對缺失。因此,急需在現有文件制度的基礎上,研究制訂針對高校科學研究領域合理使用新一代人工智能技術的規范或指南。在制訂過程中,可汲取歐盟《指南》的精髓,并強化國際合作,為我國規范構建提供較好的參考與啟示。
高校科學研究應重點聚焦以下幾方面研制相關規范或指南,明確人工智能在科研中的地位和作用,推動新一代人工智能技術在高校科學研究中的合理使用。①注重人工智能倫理準則。高校應制訂關于人工智能倫理的準則,確保科研人員在使用人工智能時遵循道德和法律規范,其中主要包括保護個人隱私、數據安全、避免歧視和偏見等方面的規定。②加強數據管理和共享。高校應制訂關于數據管理和共享的政策,確保科研人員在使用人工智能時能夠有效地管理和共享數據,其中主要包括數據收集、存儲、處理和共享的規定,以及數據隱私和安全性的保護措施。③建立人工智能研究評估和監督機制。高校應建立評估和監督機制,對人工智能研究進行定期評估和監督,以確保研究的質量和可靠性,主要包括同行評審、研究倫理審查委員會等機構,對研究過程和結果進行監督和評估。④加強人工智能培訓和教育。高校應制訂人工智能培訓和教育計劃,為科研人員提供必要的技能和知識,以更好地應用人工智能技術,其中主要包括人工智能課程、研討會、工作坊等形式,幫助科研人員了解和應用最新的人工智能技術和方法。⑤加強合作與交流。高校應積極通過共享資源、合作研究項目、學術交流等方式實現與其他高校、研究機構和企業建立合作與伙伴關系,促進人工智能技術的共享和傳播,共同推動人工智能在科學研究中的應用。
2.注重科研數據保護,加強網絡安全升級
近年來,以大數據、人工智能等為代表的信息技術的發展,推動了第四代科學研究范式即數據密集型科學(Data-intensive Science)的發展,引導科學研究由傳統的假設驅動向數據驅動轉變。[2]科學研究范式的轉變意味著高校科學研究數據密集型特征越來越明顯。此外,高校擁有人才、學科及研究條件的優勢,通過執行科技創新系統的任務,成為科學創新與基礎研究基地、國家關鍵技術攻堅基地和高技術產業化的孵化基地。高校科學研究在國家創新體系中占據重要地位,它們不僅是國家創新體系的重要組成部分,也是科技創新和理論創新的重要承擔者。面對激烈的國際競爭,國內高校也逐漸成為網絡攻擊的重要領域。因此,加強高校科學研究數據安全,也是落實國家戰略的重要任務。
在高等教育數字化改革深度推進的背景下,為進一步加強網絡安全,高校應重點加強和改進以下幾方面:①強化網絡意識形態安全教育。隨著信息網絡化的不斷發展,高校網絡意識形態安全教育也面臨著諸多挑戰,高校要以深化價值引領、擴展內容空間、融合新興技術和拓寬實踐路徑為抓手,協同推進高校網絡意識形態安全教育,筑牢高校網絡意識形態安全防線。[3]
②本地化部署和運行人工智能相關模型,把握數據主權。高校在與企業進行合作共建時,應始終堅持主導地位,明確責任,落實人工智能相關模型的本地部署和運行,把握數據主動權,確保數據安全,這也是國外人工智能在高校應用的主流形勢。[4]③優化高校數據治理架構,引導全員參與數據治理。高校應立足學校數據治理需要,進一步優化組織架構,形成涵蓋決策管理層、組織協調層、執行落實層、生成維護層的組織架構,并明確各層責任主體及主要職責,規范、引導全員深度參與學校數據治理。④加大經費投入,強化基礎設施和人才保障。高校應進一步加大網絡安全經費投入,對現有基礎設施進行定期升級維護,同時加大網絡安全人才引進,不斷夯實高校網絡安全基本保障。
3.加強組織機構建設,落實生成式人工智能應用監管
生成式人工智能為經濟社會各領域的發展帶來了顛覆性技術創新,也必然引發相應的制度創新,其中就包括組織機構變革。加強組織機構建設,落實生成式人工智能應用監管,是確保人工智能技術健康發展的重要措施。其中包括建立完善的組織機構、明確職責分工、加強人員培訓、完善制度建設、加強技術研發和創新投入以及建立風險評估機制等。
面對生成式人工智能技術的深度應用,相關組織已逐漸建立,如中國網絡空間安全協會人工智能安全治理專業委員會、人工智能倫理與治理工作委員會等,并已發揮重要作用。筆者認為,在現有工作的基礎上,為推動生成式人工智能技術在高校科學研究及其他領域的深度應用,在國家及社會層面應進一步建立健全現有組織的職能,充分發揮對人工智能合理應用的監管。該類機構應是一個獨立的、國際性和跨學科的科學組織,從準確性、偏差、安全性等方面對生成式人工智能工具及其使用進行評估;在人員構成上,應至少包括但不限于計算機科學、行為科學、心理學、人權、隱私、法律、倫理學、科學和哲學方面的專家;在主要職責上,應為科學實踐和社會中使用的生成式人工智能工具制訂質量標準和認證程序,至少涵蓋準確性和真實性,適當和準確的來源信用,歧視性和仇恨性內容,訓練數據、訓練設置和算法的細節,以及機器學習的驗證等;獨立的跨學科科學機構應開發和部署各種方法,以評估生成式人工智能是否促進公平,以及生成式人工智能開發者可采取哪些措施來促進公平和公平使用。[5]此外,在高校內部及相關項目資助機構,還應進一步健全現有機構職能或增設新的職能機構,以加強生成式人工智能技術在高校科研及教學等領域應用情況的全面監管。
結束語
生成式人工智能賦能高校科學研究是推動落實人工智能賦能行動的重要任務。本研究在介紹分析歐盟《科研領域負責任使用生成式人工智能指南》的基礎上,聚焦高校科學研究場域,對如何推動生成式人工智能更合理、規范地賦能高校科學研究提出了幾點建議,以期為未來發展提供有價值的參考。
參考文獻:
[1]鄭世林,姚守宇,王春峰.ChatGPT新一代人工智能技術發展的經濟和社會影響[J].產業經濟評論,2023(03):5-21.
[2]TOLLE M K,TANSLEY S W D, Hey J G A. The fourth paradigm: data-intensive scientific discovery[J].Proceedings of the IEEE,2011,99(08):1334-1337.
[3]蔣燕玲.強化高校網絡意識形態安全教育論析[J].中國高等教育,2021(06):34-36.
[4]苗逢春.生成式人工智能及其教育應用的基本爭議和對策[J].開放教育研究,2024,30(01):4-15.
[5]Claudi L B, Eva A M D, Robert R, etal. Living guidelines for generative AI—why scientists must oversee its use[J].Nature,2023(622):693-696.
基金項目:國家社會科學基金“十四五”規劃2021年度教育學青年課題“支撐教育高質量發展的國家教育管理信息化體系研究”(課題編號:CCA210253)。