999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能學術應用引發的倫理問題及其應對

2025-04-09 00:00:00和鴻鵬
倫理學研究 2025年2期

[摘要]生成式人工智能雖然問世不久,但已在學術領域得到廣泛使用,由此引發的學術倫理問題受到了社會尤其是學界的高度關注。基于學術機構已出臺的生成式人工智能學術倫理規范,可以提煉出生成式人工智能誘發的四類主要學術倫理問題,即難認定的內容剽竊、隱蔽性的數據泄露、系統性的知識偏見和自增強的虛假信息。與傳統的學術倫理問題相比較,道德內疚感降低、系統性傾向固化、理解幻覺、算法機制不公開等原因是此種學術倫理問題的根源。針對上述問題,在借鑒相關學術倫理規范的基礎上,應創新引注規范、審慎使用服務、人機雙向理解和數據全程監管,以應對生成式人工智能帶來的學術倫理沖擊。

[關鍵詞]生成式人工智能;大語言模型;學術倫理;科研不端;倫理治理

[作者簡介]和鴻鵬,北京航空航天大學人文與社會科學高等研究院助理教授。

*本文系北京市社會科學基金項目“智能時代人機合作科研的學術誠信問題及其治理”(24ZXC011)的階段性成果。

一、問題提出與研究現狀

1.問題提出

當前,生成式人工智能在學術活動中正日益得到廣泛應用。調查顯示,近一半的劍橋大學學生承認他們在學業中使用ChatGPT[1],近四分之三的浙江大學學生在科研活動或課程學習中使用生成式人工智能工具[2](89-98)。科研后備人才可以通過該技術快速找到問題的答案,甚至能夠用它來提供思路、生成文本、修改編輯等,可能導致原本要考察的學術思維能力被技術替代。同時,生成式人工智能可以成為高效的研究助手。調查顯示,全球三分之一的博士后每天使用ChatGPT[3](655),這也引發了人們對抄襲、虛假信息等學術倫理問題的關注。例如,2023年9月,一篇學術論文中因出現“Regen? erate response”字樣而被撤稿,這是第一例因使用ChatGPT而被撤稿的SCI論文。

生成式人工智能帶來的學術倫理沖擊,將學術機構置于困境之中。2023年2月,香港大學宣布禁止在學校中使用ChatGPT或其他生成式人工智能工具,但哈佛大學鼓勵使用生成式人工智能技術進行負責任的研究[4]。學術機構之間矛盾的態度表明,它們正在被動地應對生成式人工智能帶來的學術倫理挑戰,這迫切需要學界開展深入研究,更好地作出回應。生成式人工智能在學術活動中的應用已成為不可逆轉的時代潮流,關鍵是厘清生成式人工智能會帶來哪些學術倫理問題,并規范該技術的使用。

2.研究現狀

生成式人工智能作為科學研究的輔助工具,在學術領域蘊含巨大的應用潛力,主要包括:(1)啟發研究思路、設計研究方案,如Rahman通過向ChatGPT提問,驗證了它可以提供一些意料之外且有前景的研究想法[5](1-21);(2)分析文獻、數據,提升研究效率,如朱永新和楊帆以案例展示了ChatGPT可以協助研究者編程,極大提高了傳統編程效率,從而加快科研創新進度[6](1-14);(3)輔助學術寫作,改進語法、自動翻譯、生成語句等,如Berg指出研究者既可以通過被動方式從生成式人工智能快速獲取內容、花費最少的精力來完善或發展論點,也可以通過蘇格拉底式的方法,與它進行動態對話,以迭代地發展和完善他們的論點[7]。

但是,生成式人工智能也誘發了一系列的學術倫理問題,至少包括:(1)署名與知識產權問題,研究者已形成初步共識,即生成式人工智能不應成為論文作者,如Van Woudenberg等從作者本質、作者身份歸屬的功能等視角出發否定了生成式人工智能的作者身份[8](34);(2)信息真實性問題,如Holly指出,ChatGPT會根據用戶提示創建逼真且聽起來很智能的文本,可以生成虛假的論文摘要,而且人們很難作出區分[9];(3)公平獲取的問題,作為一種有用的研究工具,獲取生成式人工智能機會的不平等,將加劇學術不公正問題,如Kasneci等學者指出,非英語用戶獲得生成式人工智能技術的機會少于英語用戶[10](1);(4)抄襲問題,主要關注是否可以或如何使用人工智能生產的內容,如Jarrah等人通過文獻研究發現,圍繞使用生成式人工智能內容涉及的原創性、引用等方面尚有爭議[11](3)。上述問題導致了生成式人工智能對現有學術倫理治理體系帶來沖擊,如王少認為,ChatGPT在原創、錯誤、公平層面沖擊學術不端概念的內涵[12](103-110)。

已有研究主要從使用者的視角切入,通過實際操作、經驗總結等方式,揭示問題,強調該技術加劇了傳統學術倫理問題,但對生成式人工智能學術倫理問題特殊性的理解不夠深入,也較少關注學術機構對此問題的現實關切。本研究通過調研學術機構制定的倫理規范及研究者對生成式人工智能倫理風險的認知①,總結學術機構關注的四類學術倫理問題,并結合相關文獻,深入剖析問題特征與根源,提出應對辦法。

二、生成式人工智能的學術倫理問題

在討論具體的學術倫理問題前,需要首先解決的前置問題是:生成式人工智能是否應當引入學術活動?倫理學提供了許多評估行為正當性的解釋框架,這些不同的解釋框架主要分為義務論(關注行動、過程)和目的論(關注結果、目標)兩個領域。從目的論來看,在學術活動中是否應使用生成式人工智能的判斷依據為它是否更好地實現了學術活動的目標,亦即羅伯特·K.默頓(Robert K. Merton)提出的“拓展可靠的知識”;顯然,支持者相信該技術可以提升知識生產效率,并最終讓人類整體知識受益,但是由于生成式人工智能也會提供虛假信息、帶來有偏見的結果,是否有利于學術目標的實現可能要視情況而論;從義務論來看,研究者應當遵循學術活動中的道德義務,這些道德義務表現為學術活動中的規范性要求,如學術活動的公正性要求研究者應當以引注等方式,承認其他學者的貢獻,這是學術系統運行的基石性要求。生成式人工智能快速整合文獻信息并將其作為“新知識”輸出,可能導致使用者獲得不公平的優勢,并侵蝕學術公平,但隨著新規范的構建,使用生成式人工智能帶來的公平性問題有機會得到解決。要言之,對生成式人工智能是否應引入學術活動的討論,仍然要還原到具體的倫理問題中。

1.難認定的內容剽竊

根據美國聯邦政策的定義,剽竊是指“盜用他人的想法、過程、結果或文字而沒有給予適當的榮譽”[13]。生成式人工智能會誘發兩種新的剽竊問題:一是使用者對生成式人工智能輸出內容的剽竊,即使用生成式人工智能輸出的內容且未作標注的行為滿足上述剽竊定義;二是生成式人工智能對訓練數據的剽竊,由于生成式人工智能只能基于訓練數據產生新內容,這些內容可能在思想、內容方面與訓練數據有高度的相似性,公開發表這些內容,可能構成剽竊。

對剽竊問題的傳統治理,依賴技術檢測和研究者自身的職業道德,但是生成式人工智能誘發的剽竊問題給這些傳統治理方式帶來挑戰。

從技術因素來看,剽竊生成式人工智能輸出的內容難以被檢測技術工具精準識別。與簡單抄錄他人內容的傳統或基本剽竊相比,生成式人工智能工具有強大的轉述功能,它們可以改變整個段落的句法和語法結構,但仍采用了轉述來源中包含的觀點,并在向使用者呈現時省略了對參考來源的引用[14](231)。這相當于人工智能代替使用者對文本進行了加工,并且這種加工只是無意義地詞句拆分和組合,并未加入新的想法,但又能很好地規避查重檢測,使得這種新式剽竊難以被發現。雖然已經出現了Turnitin、GPTZero等用于判斷文本內容是否由人工智能生成的檢測工具,但是目前這些工具并不可靠,特別是經過復雜的改寫后,缺乏明確的對照依據來判定剽竊,因此檢測結果不能作為確認違反學術倫理的證據。使用這類檢測工具還面臨隱私、安全等潛在問題,因此它們并未被推廣使用。在檢測工具尚不發達、相關規范尚未訂立的情況下,現代數字技術的即時“剪切和粘貼”功能,讓人們能夠感知到的風險遠小于從中獲取的益處,這會愈發誘導研究者使用生成式人工智能進行剽竊以完成學術任務。

從主觀因素來看,剽竊生成式人工智能輸出的內容帶來更低的道德內疚感。在本研究對抄襲是否會引發內疚和不安的調查中,選擇抄襲人工智能而不會感到不安的調查對象,比抄襲公開發表論文而不會感到不安的調查對象數量超出60%。道德內疚感是維系道德行為的重要情感基礎,道德偏離理論(moral disengagement theory)的相關研究已表明,在不感到痛苦的情況下,個體會將其內在的道德標準與不道德的甚至是犯罪行為進行脫鉤[15](1-17)。通過人工智能的轉述,剽竊者不會直觀地接觸或追蹤到原作者以及原作品,減弱甚至是規避了對被剽竊者造成不公的想法,減輕了對自身剽竊行為的不安全感、內疚感,弱化了道德敏感性和自我監督。

2.隱蔽性的數據泄露

在學術活動中,用戶輸入的數據可能被服務提供商或其合作伙伴訪問甚至使用,從而導致機密數據和隱私信息泄露。生成式人工智能誘發的數據泄露問題根植于其運行原理。生成式人工智能的運行原理可以分為兩個過程:首先是通過機器學習和深度學習在接受大量人類語料的投喂后形成“利用語元關聯度預測下一個語元”的能力,并且在從輸入到輸出再從輸出到輸入的雙向互動中不斷訓練和優化模型;其次,在此基礎上,生成式人工智能產品還會利用用戶在實際參與時的語言表達習慣,不斷地調整自身[16](70-77)。

在訓練和使用生成式人工智能的過程中均可能出現數據泄露問題。以使用過程為例,為了保證輸出答案與使用者的適配性更高,生成式人工智能產品的輸入內容通常會成為訓練數據,并且由于算法機制并不公開,輸入內容是否會以其他形式向除使用者以外的其他人呈現難以言明。通過調查生成式人工智能產品的用戶協議可以發現,目前生成式人工智能產品存在輸入內容自動用于訓練模型、缺少風險提示、過度使用個人信息等風險。

3.系統性的知識偏見

“偏見”表現為對事物、個人、群體或觀念的偏袒、偏愛或偏差,它不只是個別的、品德有缺陷的個體所持有的惡劣信念,而是廣泛存在于社會中的普遍現象,它是人類認知結構和社會組織形態的必然產物[17](155-165,211-230)。研究活動中的“偏見”是指研究者的主觀信念、價值觀、態度或偏好等可能會影響研究的設計、進行或對研究結果的解釋。當研究人員的個人偏見無意或有意影響研究過程或研究結果的報告時,可能導致結果失真或不準確。

在研究活動中,偏見問題一直存在,包括對研究者身份的偏見,如對性別、種族等的歧視,違反了“普遍主義”規范;對知識成果的偏見,如利益沖突,違反了“無私利性”規范。這些傳統的偏見都被納入學術倫理規范的考慮之下,成為科學家職業倫理研究的內容。

人類研究者的偏見是偶發性的、個體性的,而算法的偏見是系統性的。算法偏見是指,算法在運行過程中產生的偏見,其本質是已有的社會偏見、學術偏見在人工智能系統的映射,它體現在算法運行規則的“自帶偏見”、輸入數據中的偏見、運算中的偏見等多個方面[18](1-11)。人類研究者有不同的“偏見”,即偏見本身也有多樣性;然而,生成式人工智能帶有“偏見選擇”,且由于這種偏見是在數據標注、訓練過程中形成的,會導致全部使用者受到影響,從而放大機器偏見,最終偏見被固化、“正確”化,而真相卻被遮蔽。這是算法偏見與人類研究者偏見的重大分野。

生成式人工智能的算法偏見將引發學術倒退,導致學術平庸化、單一化。其一,抑制創新性觀點。人工智能算法有自己的偏好,會削弱、扭曲甚至消除某些代表性本已不足的群體聲音,特別是會忽視尚未成為主流的創新觀點,而守舊觀點或已固化的偏見被不斷強化,導致“垃圾進,垃圾出”(gar? bage in,garbage out)[19](1)以及“偏見進,偏見出”(bias in,bias out)[20](32-34)的現象。但需要指出的是,生成式人工智能不僅會以算法偏見的方式固化已有觀點,某些情況下也可能通過復雜系統的“涌現性”特征,在一定程度上自主地創造新的組合、推理或想法。其二,非西方學術的進一步邊緣化。目前在模型訓練過程中,被用于訓練的數據大多是英文文本和西方圖像,非西方或非英語文化的數據在訓練中嚴重不足,內容也缺乏代表性[21]。當現實世界中本就存在的偏見被當作真理輸出,并在學術研究的過程中傳遞給新的受眾進行利用乃至傳播,這種偏見不僅難以消除,還將借著技術的力量進一步固化和加劇。其三,誘發理解幻覺,降低研究者認知能力。生成式人工智能的算法偏見也存在信息理解上的偏頗,即呈現不全面的信息,如在學術活動中使用生成式人工智能,科學家可能會誤以為自己對研究的主題有深入理解,人工智能工具是客觀的,或自己正在探索所有可測試的假設,但實際上他們只是在人工智能工具能夠測試的較窄范圍內進行探索[22](49-58)。

4.自增強的虛假信息

生成式人工智能很容易“編造信息”,或者根據用戶提示創建逼真且聽起來很智能的文本,在學術研究中表現為生成虛假的實驗數據、生成虛假的參考文獻和直接生成文章等。學術活動中的“虛假信息”主要有以下兩個來源。

一是“假進假出”:投喂虛假信息訓練。學術研究是踩在巨人肩膀上的有組織的活動,必須以前人的可靠成果為前提,才能取得新進展。人工智能生成知識的嚴謹性、可靠性方面與傳統學術研究仍有較大差距。因為當前用于模型訓練的投喂數據主要來自互聯網,信息不可避免具有虛假性,而“不標注信息來源”則令這一問題雪上加霜。以ChatGPT為例,其在回答用戶提出的問題時并不會標注信息和回答的來源,用戶難以查證其生成內容的真實性。倘若有學者將生成式人工智能(如Chat? GPT)生成的內容應用到學術研究與寫作中,不標注信息來源將使驗證生成內容的真實性與可靠性變得難上加難,令學術誠信受到進一步的挑戰[23](228-239)。即使使用者被要求在提供資料的同時說明資料來源也難以解決問題,因為生成式人工智能進行錯誤或虛假引用的情況并不罕見。

二是“無中生有”:自行輸出虛假結果。生成式人工智能在缺乏輸入或參考信息的前提下可能會編造虛假信息。人工智能語言模型可以創建一篇極具說服力的欺詐性文章,并在單詞使用、句子結構和整體構成等方面與真正的科學論文相似。生成式人工智能也能夠生成虛假的實驗數據集,傳統的學術造假往往需要手動篡改數據或偽造實驗結果,這不僅耗時費力,而且容易留下痕跡,增加被發現的風險。然而,生成式人工智能通過深度學習算法,能夠迅速分析并模仿真實科研數據的特征,這種高度自動化的造假手段使得學術不端行為變得更加容易實施,且成本極低。由于這些虛假數據是基于真實科研數據集訓練生成的,它們能夠很好地模擬真實數據的分布和特征,從而難以被識別。這種隱蔽性不僅增加了造假數據被濫用的可能性,還使得學術不端行為更加難以被發現和糾正。上述問題的根源來自生成式人工智能的算法規范:(1)算法規則的合理性優于真實性,生成式人工智能經常出現一些事實性的錯誤,因為這些工具往往是根據已有的數據給出看似最為合理的回答,但實際上缺乏對信息的對錯作出判斷的能力。一些明顯的錯誤可以被專家輕易發現,但有時使用者正是因為不了解相關內容,才會向人工智能提問。(2)算法模型內置隨機性,即使在相同的提示下,人工智能每次輸出的內容也會有所不同,難以保證內容的準確性。

生成式人工智能導致學術造假行為的主客觀條件分離,加大了發現和認定的難度。過去對學術造假行為的認定要求行為人是主觀故意或嚴重疏忽,如美國的學術不端認定參考了法律領域的欺詐概念,而主觀故意是欺詐罪名的構成要件[24](77-83)。但是生成式人工智能沒有思維、意識,目前不具備成為道德主體的條件,也就不存在主觀故意,這將會挑戰現有的學術不端認定依據。

生成式人工智能產生的虛假學術信息具有“自增強”特征,即虛假信息在生成后,若被不當利用作為訓練數據,會形成一個自我增強的誤導閉環,導致虛假信息的產生和擴散能力不斷加強,誤導性也隨之加大,表現為“放大效應”和“不可逆性”。一者,當新的學術文獻被虛假信息“污染”后,未來這些文獻也會成為訓練數據的一部分,導致虛假信息在模型中的權重不斷加大,從而有更高概率被選擇為類似問題的答案,導致虛假信息成為被建構的“事實”。二者,人工智能生成的虛假信息具有不可逆性。只要虛假信息仍在訓練數據范圍內,生成式人工智能就有可能向用戶提供這一虛假信息,即使將該虛假信息完全從互聯網中抹除(這一點幾乎不可能做到),生成式人工智能仍能通過訓練自己之前提供的含有虛假信息的回答,輸出這一虛假信息。

三、生成式人工智能學術倫理問題的應對

倫理行為是學術職業活動的一部分,但是現有學術規范和學術倫理治理體系的適用范圍不足以應對生成式人工智能帶來的挑戰,需要探索具有前瞻性和創新性的舉措。

1.創新引注規范

剽竊問題的實質是“使用而不說明”,解決剽竊問題的關鍵是合理引注、承認來源,但作為一種新的知識來源,人工智能產生的知識如何引注成為新問題。誘發剽竊的一個重要原因是沒有明確規定規則[25](32-33),應按照義務論方式設定良好學術實踐的倫理規范。

一些學術期刊、學術機構已經要求研究者承認并標明生成式人工智能的使用信息,并提供了引用格式規范。例如,如帝國理工學院提供了明確的示例,即承認生成式人工智能在學術工作中的使用,至少應包含所使用生成式人工智能系統的名稱和版本、出版商、該工具的URL,以及對于具體使用方式的簡要描述[26]。美國心理學家協會、美國現代語言協會、美國電氣與電子工程師協會都給出了引注格式的建議。此外,紐約大學還建議學生在與生成式人工智能交互的過程中保存副本,以便后期確認[27]。

但是新的引注規范與傳統規范有一定的沖突。例如,西北大學(美國)提出了引注格式的創新,將正文中引用ChatGPT內容標注為“(OpenAI+年份)”[28],其創新思路與APA格式中的“(作者+年份)”的標注方式接軌,但這等于間接認同了OpenAI的作者地位,并引發爭議。例如,耶魯大學等高校認為目前的生成式人工智能工具在產出內容上更多是依靠預測,而非原創,歐盟在發布的《科研領域負責任使用生成式人工智能指南》中也表明人工智能不具備作者身份。如果作出類似標注就被認為盡到學術規范責任的話,可能導致真正的原作者在這一過程中被悄然除名,也將帶來知識產權問題。

此外,筆者建議,開發專門針對研究活動的學術型生成式人工智能工具,與一般的通用大模型不同,它應以可靠的學術資源為訓練模型的數據集且將引注規范嵌入算法規則。

2.審慎使用服務

數據安全問題很大程度上是生成式人工智能服務商的模型訓練策略導致的,學術機構無權直接禁止服務商的這類做法,但可能的舉措有:

第一,研究者提高警惕性,特別是避免將敏感的個人信息和機密信息輸入。牛津大學提示避免將財務信息、密碼等敏感個人數據以及自己或他人的知識產權分享到任何人工智能工具中[29];斯坦福大學建議,在使用生成式人工智能工具時避免輸入不應公開的信息[30]。

第二,審慎選擇服務商和服務選項。牛津大學建議通過檢查服務協議中對信息的使用和所有權情況、選用適當接口和對數據進行透明化處理的方式降低風險[29]。哈佛大學規定生成式人工智能工具在使用前必須由哈佛大學信息安全和數據隱私辦公室進行風險評估[31]。

第三,對數據進行分級處理。分級處理的方式借鑒現有的保密管理制度,對研究資料進行更為細致的等級分類,明確哪些數據和信息可公開傳播,哪些不可以。例如,哈佛大學規定不應將2級及以上的機密數據輸入公開可用的生成式人工智能工具中[31]。

此外,研究機構和高校還可以通過自主技術創新,應對難以在制度層面破解的技術難題。比如,開發只供學校內部成員使用的大模型,這樣不僅可以避免機密數據泄露,還可以使用此類數據來訓練和提升模型,幫助成員解決復雜問題。

3.人機雙向理解

“自帶偏見”的算法如果被廣泛引入學術活動,將引發觀點固化等擔憂,由于模型吸收的是過去的數據,因此偏見的后果主要體現在倒退性上,對學術活動的分析難以反映最新進展。為了避免這種情況,本文提出兩種應對方式:

一是人工智能應“理解”人類研究者的價值規范,保持輸出結果的多元性。人工智能在運作時,并非在認知層面上真正“理解”人類研究者的價值規范,而是通過學習或模仿的方式,將人類研究的規范內在化為“算法規則”,從而在分析數據和輸出結果時,遵循這些規范。這意味著,當人工智能根據算法選擇輸出內容時,它應考慮不同的學術觀點,關照人類知識和價值觀念的多元性。

二是人類研究者應理解人工智能的特征與局限,恰當使用生成式人工智能工具。鑒于當前技術水平尚無法創造出與人類智慧相當的機器,研究者需對生成式人工智能的特性和限制有一定認知。在對“我認為生成式人工智能提供的信息是價值中立的”這一問題的調查中,有86%的調查對象未意識到算法可能會存在偏見。因此,哈佛大學、牛津大學、劍橋大學、帝國理工學院等建議教師具備人工智能素養,理解其優勢與局限性等,讓學生加強對人工智能技術的反思,強調獨立思考的能力和創造性思維是研究者的寶貴品質。

4.數據全程監管

信息虛假是生成式人工智能誘發的最突出的學術倫理問題之一。調查發現,85%的調查對象未意識到人工智能提供的信息可能是虛假的。人工智能讓使用者產生了一種可靠性幻覺,為了避免虛假信息在學術領域的傳播,應當從數據訓練、數據生成、數據使用等環節落實監管責任。

第一,用于學術研究的生成式人工智能應建立高標準的訓練數據集。開發學術專用的生成式人工智能是必然趨勢,現今學術研究的參考文獻應當是專業的學術論文與專著等,而不是“百度百科”這類未經學術同行評議的知識;同理,通用型生成式人工智能可以啟發思路,但不應成為可靠的或可直接引用的信息來源。以專業文獻及數據等訓練生成式人工智能,將為其生成信息的真實性和可靠性提供保障,降低其生成的虛假信息給學術倫理帶來的挑戰。

第二,生成式人工智能服務提供商應標注信息來源,以備核查。不標注信息來源意味著信息不可追溯和驗證,將使檢驗生成式人工智能生成信息可靠性的難度進一步加大,用戶將更難以查證其生成內容的真實性。因此,生成式人工智能在給出回答時應當標注具體的信息來源,方便用戶自行校準信息的可靠性,減小虛假信息的不利影響。

第三,加強對學術論文的審核及事后監管,盡可能讓被“污染”的文獻不再成為新的訓練數據。在前文提及的撤稿論文例子中,評審專家和期刊編輯均未發現“Regenerate response”這個明顯的痕跡。增強審核人員意識、加大對學術論文的審查力度勢在必行,同時,加強對學術論文的事后監管和撤回同樣不可小覷。如前所述,只要虛假信息仍在生成式人工智能的訓練數據范圍內,生成式人工智能就仍有可能向用戶提供這一虛假信息。因此,當發現被“污染”的學術文獻后,將其盡可能抹除尤為重要。

第四,落實使用者責任。使用者在引用或參考人工智能生成的信息時,有義務核查信息的準確性、真實性和可靠性,即使研究者采用嚴格、規范的引注格式標明人工智能生成的內容,仍然需要對引注內容的真實性、可靠性負責。這與引注學術論文或專著應承擔的責任有所區別,因為學術論文和專著的作者是可追責的主體,而人工智能不可被追責,因而使用者應當成為生成式人工智能內容的第一責任人。

(北京航空航天大學人文與社會科學高等研究院本科生林旖萱、溫雨茹、張力愷和袁迪在資料收集和整理工作中亦有貢獻,特此說明。)

[參考文獻]

[1]SLEATOR L. Almost Half of Cambridge Students Admit They Have Used ChatGPT[EB/OL].(2023-04-21)[2024-07-13].https://www.thetimes.com/business-money/technology/article/cambridge-university-students-chatgpt-ai-de? gree-2023-rnsv7mw7z.

[2]李艷,許潔,賈程媛,等.大學生生成式人工智能應用現狀與思考:基于浙江大學的調查[J].開放教育研究,2024(1).

[3]NORDLING L. How ChatGPT Is Transforming the Postdoc Experience[J].Nature,2023,622.

[4]HARVARD UNIVERSITY. Generative Artificial Intelligence(AI)Guidelines[EB/OL].[2024-07-13].https:// huit.harvard.edu/ai/guidelines.

[5]RAHNAN M M,WATANOBE Y. ChatGPT for Education and Research:Opportunities,Threats,and Strategies[J].Applied Sciences,2023,13(9).

[6]朱永新,楊帆. ChatGPT/生成式人工智能與教育創新:機遇、挑戰以及未來[J].華東師范大學學報(教育科學版),2023(7).

[7]BERG C. The Case for Generative AI in Scholarly Practice[EB/OL].(2023-04-03)[2024-07-13].https://pa? pers.ssrn.com/sol3/papers.cfm?abstract_id=4407587.

[8]VAN WOUDENBERG R,RANALLI C,BRACKER D. Authorship and ChatGPT:A Conservative View[J]. Philosophy Technology,2024,37(1).

[9]ELSE H. Abstracts Written by ChatGPT Fool Scientists[EB/OL].(2023-01-12)[2024-07-15].https://www.na? ture.com/articles/d41586-023-00056-7.

[10]KASNECI E,SESSLER K,KüCHEMANN S,et al. ChatGPT for Good?On Opportunities and Challenges of Large Language Models for Education[J].Learning and Individual Differences,2023,103.

[11]JARRAH A M,WARDAT Y,FIDALGO P. Using ChatGPT in Academic Writing Is(not)a Form of Plagia? rism:What Does the Literature Say[J].Online Journal of Communication and Media Technologies,2023,13(4).

[12]王少. ChatGPT與學術不端治理:挑戰與應對[J].科技進步與對策,2023(23).

[13]OFFICE OF SCIENCE AND TECHNOLOGY POLICY.Federal Research Misconduct Policy[EB/OL].(2000-12-06)[2024-11-08].https://ori.hhs.gov/federal-research-misconduct-policy.

[14]NAVARRO-DOLMESTCH R. Risks and Challenges Posed by Artificial Intelligence Generative Applications for Academic Integrity[J].Derecho PUCP,2023,91.

[15]ZHANG L,AMOS C,PENTINA I. Interplay of Rationality and Morality in Using ChatGPT for Academic Misconduct[J].Behaviour Information Technology,2024(2).

[16]陳小平.大模型:人工智能思想及其社會實驗[J].文化縱橫,2023(3).

[17]戈登·奧爾波特.偏見的本質[M].徐健吾,譯.北京:中國人民大學出版社,2021.

[18]岳平,苗越.社會治理:人工智能時代算法偏見的問題與規制[J].上海大學學報(社會科學版),2021(6).

[19]CITROME L. Artificial Intelligence and the Potential for Garbage In,Garbage Out[J].Current Medical Re? search and Opinion,2024,40(1).

[20]汪靖.從人類偏見到算法偏見:偏見是否可以被消除[J].探索與爭鳴,2021(3).

[21]UNIVERSITY OF MICHIGAN. Using Generative AI for Scientific Research[EB/OL].(2024-03-28)[2024-07-13].https://midas.umich.edu/generative-ai-user-guide/.

[22]MESSERI L,CROCKETT M J. Artificial Intelligence and Illusions of Understanding in Scientific Research[J].Nature,2024,627(8002).

[23]COTTON D R E,COTTON P A,SHIPWAY J R. Chatting and Cheating:Ensuring Academic Integrity in the Era of ChatGPT[J].Innovations in Education and Teaching International,2024,61(2).

[24]和鴻鵬,齊昆鵬,王聰.科研不端認定的依據與爭議[J].北京航空航天大學學報(社會科學版),2022(1).

[25]ROSS G. Plagiarism in Philosophy:Prevention Better than Cure[J].Discourse:Learning and Teaching in Philosophical and Religious Studies,2004,3(2).

[26]IMPERIAL COLLEGE LONDON. Generative AI Guidance[EB/OL].[2024-07-13].https://www.imperial.ac.uk/ admin-services/library/learning-support/generative-ai-guidance/.

[27]NEW YORK UNIVERSITY. Student Learning with Generative AI[EB/OL].[2024-07-13].https://www.nyu.edu/ faculty/teaching-and-learning-resources/Student-Learning-with-Generative-AI.html.

[28]NORTHWESTERN UNIVERSIY. Academic Integrity Artificial Intelligence[EB/OL].(2024-04-04)[2024-07-13].https://libguides.northwestern.edu/ai-tools-research/acad-integ.

[29]UNIVERSITY OF OXFORD. Use Generative AI Services Such as ChatGPT Safely[EB/OL].[2024-07-13]. https://infosec.web.ox.ac.uk/use-generative-ai-services-such-as-chatgpt-safely#tab-4493651.

[30]STANFORD UNIVERSITY. Course Policies on Generative AI Use[EB/OL].(2024-05-17)[2024-07-13]. https://tlhub.stanford.edu/docs/course-policies-on-generative-ai-use/.

[31]HARVARD UNIVERSITY. Initial Guidelines for the Use of Generative AI Tools at Harvard[EB/OL].[2024-07-13].https://huit.harvard.edu/ai/guidelines.

(責任編輯:孫保學)

①本文調研了QS世界排名前70的世界一流高校(截至2024年7月13日),其中有55所高校制定了針對生成式人工智能的學術倫理規范或指南。為了更好地分析問題表現及其原因,本研究面向我國高校師生發放639份生成式人工智能使用與學術倫理認知調查問卷。

主站蜘蛛池模板: 国产成人免费观看在线视频| 国产美女免费| 又爽又大又黄a级毛片在线视频| 亚洲无码四虎黄色网站| 亚洲精品色AV无码看| 丰满人妻一区二区三区视频| 国产在线观看91精品亚瑟| 国产午夜人做人免费视频中文| 国产一区二区网站| 久久无码av三级| 久久免费精品琪琪| 国产无码精品在线播放| 亚洲日本一本dvd高清| 国产新AV天堂| 91欧美亚洲国产五月天| 国产成人高清精品免费软件| 狠狠色狠狠综合久久| 欧美在线视频a| 久久九九热视频| 亚洲精品无码高潮喷水A| 99re热精品视频国产免费| 国产精品美女网站| 国产色婷婷| 国产精品观看视频免费完整版| 国产99在线| 尤物精品视频一区二区三区| 综合人妻久久一区二区精品| a欧美在线| 色综合天天视频在线观看| 中文无码精品a∨在线观看| 国产黄网永久免费| 国产99视频精品免费视频7| 亚洲三级a| 青青青草国产| 国产女人水多毛片18| 亚洲欧美另类视频| 成人精品免费视频| 亚洲综合精品香蕉久久网| 亚洲欧美国产五月天综合| 成人免费黄色小视频| 亚洲无码视频喷水| av午夜福利一片免费看| 99热这里只有成人精品国产| 欧美精品v日韩精品v国产精品| 精品99在线观看| 青青操视频在线| 白丝美女办公室高潮喷水视频 | 久久黄色影院| 亚洲国产成人精品青青草原| 午夜性刺激在线观看免费| 亚洲永久免费网站| 97在线免费视频| 久久久久久午夜精品| 国产又爽又黄无遮挡免费观看| 国产精品黄色片| 久久亚洲国产一区二区| 青青草原国产免费av观看| 国产不卡一级毛片视频| 国内精品免费| 国产农村妇女精品一二区| 欧美久久网| 国产免费观看av大片的网站| 中文字幕免费视频| 麻豆精品久久久久久久99蜜桃| 精品成人一区二区三区电影| 亚洲精品无码抽插日韩| 在线视频亚洲欧美| 婷婷午夜影院| 国产精品30p| 成人午夜亚洲影视在线观看| 国产综合无码一区二区色蜜蜜| 亚洲综合18p| 污污网站在线观看| 国产午夜无码专区喷水| 欧美日韩国产在线观看一区二区三区| 54pao国产成人免费视频| 国产黄色免费看| 国产成人永久免费视频| 国产丝袜无码精品| 久久不卡精品| 欧美19综合中文字幕| 久久国产精品娇妻素人|