999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

ChatGPT與學(xué)術(shù)不端治理:挑戰(zhàn)與應(yīng)對

2023-03-02 02:01:36
科技進(jìn)步與對策 2023年23期
關(guān)鍵詞:主體人工智能文本

王 少

(同濟(jì)大學(xué) 馬克思主義學(xué)院,上海200092)

0 引言

2022年末,可以說“人話”的聊天機(jī)器人(Chatbot)ChatGPT橫空出世,這一公共領(lǐng)域有史以來最好的人工智能聊天機(jī)器人[1]不僅可以流暢地與人類對話,還可以生成文本、代碼,甚至可以幫助人們處理和分析數(shù)據(jù),排查和發(fā)現(xiàn)程序故障。ChatGPT基于大型語言模型(Large Language Model, LLM)進(jìn)行理解和訓(xùn)練,可以快速實(shí)現(xiàn)信息獲取,在一種稱為反饋強(qiáng)化學(xué)習(xí)(Reinforcement Learning from Human Feedback)的技術(shù)支持下,ChatGPT經(jīng)過訓(xùn)練后可以理解和生成自然語言。ChatGPT是GPT(Generative Pre-Training Transformer)的迭代產(chǎn)品,GPT是擁有超過1 750億參數(shù)的最先進(jìn)的神經(jīng)網(wǎng)絡(luò)架構(gòu),其主要新穎之處在于自我注意機(jī)制,這使得模型能夠更好地理解輸入的不同元素之間的關(guān)系[2]。GPT模型使用自我監(jiān)督的學(xué)習(xí)方法,先從大量未經(jīng)過濾和注釋的數(shù)據(jù)中學(xué)習(xí),提高自身的可擴(kuò)展性(Diffusion),再基于特定任務(wù)進(jìn)行規(guī)定數(shù)據(jù)集訓(xùn)練,從而實(shí)現(xiàn)廣度和精度的統(tǒng)一。

ChatGPT的爆火帶動了一系列人工智能內(nèi)容生產(chǎn)(AI Generative Content, AIGC)系統(tǒng)的開發(fā),其競品Bard、Wit.AI、New Bing、文心一言等都具有相似的深度學(xué)習(xí)機(jī)制和內(nèi)容生產(chǎn)方式,對于推動創(chuàng)意完善、實(shí)現(xiàn)重復(fù)內(nèi)容大規(guī)模制造具有極大價值,在加深人與人工智能交互的同時,也給包括學(xué)術(shù)研究在內(nèi)的各種知識生產(chǎn)和應(yīng)用工作帶來新的發(fā)展機(jī)遇。然而,與學(xué)術(shù)研究如影隨形的學(xué)術(shù)不端問題也出現(xiàn)在ChatGPT與學(xué)術(shù)研究結(jié)合的領(lǐng)域。作為一項(xiàng)顛覆性智能技術(shù),ChatGPT對學(xué)術(shù)不端治理的沖擊和影響值得探究。

1 ChatGPT對學(xué)術(shù)不端概念的沖擊

ChatGPT在提示下完成的論文盡管還存在錯誤和科學(xué)性問題,但其語言理解和文字運(yùn)用已經(jīng)達(dá)到較高水平。ChatGPT通過較高的參與性、協(xié)作性和可訪問性在一定程度上將科研人員從一些重復(fù)勞動中釋放出來,同時其對網(wǎng)絡(luò)數(shù)據(jù)的肆意使用和組合又帶來一系列學(xué)術(shù)不端問題。ChatGPT的長期使用必然改變?nèi)藗儗W(xué)術(shù)研究的認(rèn)知和態(tài)度,進(jìn)而產(chǎn)生學(xué)術(shù)倫理反饋,這種反饋將直接體現(xiàn)在學(xué)術(shù)不端概念上,因?yàn)楦拍钍菍W(xué)術(shù)不端問題的起點(diǎn),只有被概念涵括的行為才是人們指涉的學(xué)術(shù)不端行為。內(nèi)涵和外延是概念的基本組成單位,學(xué)術(shù)不端的現(xiàn)有概念既存在內(nèi)涵上的邏輯不嚴(yán)密問題,也不斷遭受新出現(xiàn)外延和對外延擴(kuò)大解釋的沖擊[3]。ChatGPT進(jìn)一步加劇了對概念的沖擊。

1.1 對內(nèi)涵的沖擊

學(xué)術(shù)不端的內(nèi)涵是其真理性的意義體現(xiàn),包括中國在內(nèi)的大多數(shù)國家均以全稱命題的方式描述學(xué)術(shù)不端的概念內(nèi)涵,如通過否定謂詞不符合、違反或違背連接研究倫理、科研誠信、負(fù)責(zé)任研究行為準(zhǔn)則,或者以誤導(dǎo)、妨礙、侵犯等負(fù)性謂詞連接科研界、科學(xué)交流、知識產(chǎn)權(quán)等。大多數(shù)關(guān)于學(xué)術(shù)不端內(nèi)涵的界定都具有邏輯不周延問題,有的缺少種差,有的濫用種差或者過度擴(kuò)大屬。本文僅從ChatGPT的應(yīng)用出發(fā),討論現(xiàn)有內(nèi)涵可能被突破的點(diǎn)。

盡管ChatGPT將自身定位為沒有情感、意識或個性,只是一個回答問題的工具,但由于反饋強(qiáng)化學(xué)習(xí)機(jī)制的加持,其與使用者之間的互動超越了以往人工智能的能力范疇。雖然不能將其認(rèn)定為有情感或意識,但其理解語言和及時調(diào)整輸出的能力卻具有相當(dāng)大的共情價值,因此不能以普通智能輔助工具(如作圖軟件)視之,其對學(xué)術(shù)不端概念的沖擊超越了過去的學(xué)術(shù)倫理認(rèn)知。具體而言,ChatGPT主要在3個層次上沖擊學(xué)術(shù)不端的概念內(nèi)涵。

(1)ChatGPT的原創(chuàng)問題。不可否認(rèn),ChatGPT產(chǎn)出的科學(xué)論文仍然只是高度集成產(chǎn)品,其內(nèi)容和觀點(diǎn)通常來自他人作品,雖然在組合中模糊了模仿和抄襲邊界,但非原創(chuàng)的本質(zhì)未變。如果ChatGPT不具有法律人格,那么因非原創(chuàng)產(chǎn)生的剽竊責(zé)任就必須由使用者直接承擔(dān),而由于ChatGPT在轉(zhuǎn)碼過程中隱藏了抄襲的事實(shí),使用者通常難以分辨哪些內(nèi)容需要進(jìn)一步甄別是否存在抄襲,這導(dǎo)致剽竊呈現(xiàn)出無意識特征。與此前學(xué)術(shù)不端的內(nèi)涵相比,這一結(jié)果令人震驚,因?yàn)闊o論是違背還是誤導(dǎo),這些謂詞事實(shí)上都隱含故意或過失的主觀意識。如果ChatGPT具有法律人格,那么其應(yīng)當(dāng)承擔(dān)相應(yīng)責(zé)任,但同時應(yīng)當(dāng)享有產(chǎn)出作品的著作權(quán),這顯然不符合現(xiàn)行法律規(guī)定,因?yàn)榉缮系淖髡咧荒苁亲匀蝗恕⒎ㄈ嘶蚱渌欠ㄈ私M織。將非原創(chuàng)作品用于學(xué)術(shù)發(fā)表當(dāng)然違背學(xué)術(shù)倫理,但對于ChatGPT而言,由于不能成為作者,也就不具備學(xué)術(shù)倫理主體性,那么其生產(chǎn)的論文應(yīng)當(dāng)被看作是對什么的違背呢?如果將ChatGPT高度集成的作品在一定程度上視為原創(chuàng),那么對作品的使用是否構(gòu)成剽竊?《Science》雜志給出了肯定答案:“對于《Science》雜志來說,其系列期刊的作者都簽署了一份許可證,證明該作品是原創(chuàng)的,而原創(chuàng)一詞足以表明ChatGPT撰寫的文本是不可接受的[4]。”一個更難解決的問題是,ChatGPT利用反饋學(xué)習(xí)獲得用戶思想內(nèi)容后,再面向其他用戶進(jìn)行二次創(chuàng)作,是否也涉嫌剽竊先前使用者的思想?不具備學(xué)術(shù)主體性的ChatGPT通過原創(chuàng)問題極大沖擊了學(xué)術(shù)不端中違背學(xué)術(shù)倫理的概念內(nèi)涵。

(2)ChatGPT的錯誤問題。ChatGPT的錯誤主要來自于對信源的真?zhèn)螀^(qū)分能力不夠。在學(xué)習(xí)訓(xùn)練時,ChatGPT缺少分辨可信與不可信來源的技能,那些導(dǎo)致人類誤入歧途的偏見在ChatGPT中可能被進(jìn)一步放大。并且,ChatGPT為了讓自己的回答令人信服,有時甚至主動編造并輸出錯誤文本,這些文本中的錯誤既有事實(shí)錯誤,也有數(shù)據(jù)錯誤和陳述錯誤,ChatGPT的使用者很可能因此被誤導(dǎo),進(jìn)而產(chǎn)生妨礙科學(xué)交流的學(xué)術(shù)不端行為。在固有的學(xué)術(shù)不端內(nèi)涵中,學(xué)術(shù)不端與學(xué)術(shù)不當(dāng)(questionable research practice)之間有著不太清晰但容易理解的界限,也即一些難以避免、對于學(xué)術(shù)研究和創(chuàng)新是必要的錯誤和瑕疵(如在記錄或統(tǒng)計數(shù)據(jù)時發(fā)生遺漏、剔除干擾數(shù)據(jù)時出現(xiàn)失誤等)通常被納入學(xué)術(shù)不當(dāng)?shù)姆懂?學(xué)術(shù)不當(dāng)雖然也可能違反學(xué)術(shù)道德,但往往不被視為學(xué)術(shù)不端,因?yàn)樵趯W(xué)術(shù)不端概念中,科研人員違反學(xué)術(shù)道德的行為是不必要的和可以避免的(比如捏造、篡改、剽竊等)。當(dāng)錯誤和瑕疵是由ChatGPT的技術(shù)缺陷所造成時,是否仍然適用學(xué)術(shù)不當(dāng)?shù)膬?nèi)涵范疇?使用者明知存在技術(shù)缺陷而包容錯誤或瑕疵是學(xué)術(shù)不當(dāng)還是學(xué)術(shù)不端?畢竟,在反饋強(qiáng)化學(xué)習(xí)機(jī)制下,輸入輸出之間的互動與使用者的行動密不可分,ChatGPT創(chuàng)造的錯誤既可能是為了迎合使用者,也可能是接受了使用者反饋的暗示。

(3)ChatGPT的公平問題。ChatGPT能為使用者提供更豐富和易獲取的創(chuàng)作學(xué)習(xí)資源,使學(xué)術(shù)研究和論文撰寫變得高效便捷,成為生成式智能勞動,進(jìn)一步節(jié)省科研人員時間。但是,ChatGPT的使用會導(dǎo)致顯而易見的公平問題,如最基礎(chǔ)的公平獲取服務(wù)問題。盡管目前ChatGPT是免費(fèi)的,但OpenAI已經(jīng)宣布推出每月20美元的訂閱服務(wù),承諾更快的響應(yīng)時間和優(yōu)先訪問新功能[5],即使免費(fèi)試用版可以一直使用,收費(fèi)版本顯然具有更強(qiáng)大的功能,當(dāng)ChatGPT變成一種不可或缺的內(nèi)容生產(chǎn)工具后,財富不公平問題便會滲入其中。最麻煩的公平問題出現(xiàn)在成果鑒定中,無論是審稿還是作業(yè)批改,ChatGPT均使之超越一般意義上的能力評判,而實(shí)質(zhì)上變成技術(shù)評判——評判人工智能內(nèi)容生產(chǎn)技術(shù)的成熟度和科學(xué)性。特別是當(dāng)ChatGPT的能力達(dá)到中等科研水平后,那些選擇不使用ChatGPT的科研人員大多會陷入極不公平的競爭環(huán)境——輸給人工智能技術(shù),而技術(shù)背后的使用者可能并不具備通過ChatGPT所表現(xiàn)出來的科研能力。誤導(dǎo)科研界的現(xiàn)象將一再發(fā)生,尤其在人們隱瞞自己使用ChatGPT,而評審者又無法分辨評審對象是否使用ChatGPT時,在沒有專門針對ChatGPT作品的鑒定標(biāo)準(zhǔn)之前(這種標(biāo)準(zhǔn)還需要對照舊有鑒定標(biāo)準(zhǔn)進(jìn)行標(biāo)準(zhǔn)化處理),誤導(dǎo)科研界的行為將會一直持續(xù)并越來越普遍。

1.2 對外延的沖擊

學(xué)術(shù)不端概念的外延體現(xiàn)為學(xué)術(shù)不端的表現(xiàn)形式,最為經(jīng)典的外延是FFP(捏造、偽造、剽竊),近年來這一外延被不斷突破,包括不當(dāng)署名、違背倫理的出版行為、有問題的同行評審、利益沖突管理不善、實(shí)驗(yàn)記錄保存不當(dāng)、違反人體及動物倫理等。內(nèi)涵與外延之間必須具有對應(yīng)的邏輯關(guān)系,才能構(gòu)成內(nèi)部和諧的概念,如果內(nèi)涵受到?jīng)_擊,外延必然不能幸免。ChatGPT對學(xué)術(shù)不端概念外延的沖擊主要表現(xiàn)在3個方面。

(1)ChatGPT的質(zhì)變問題。ChatGPT本身是否具有創(chuàng)造力存在爭議,但其可以作為磨礪創(chuàng)意的工具已達(dá)成共識,也即在一系列問答中不斷提高使用者對問題的理解程度以及幫助使用者產(chǎn)生超越問題本身的抽象思維是可能的。ChatGPT可以仿照某種寫作風(fēng)格進(jìn)行創(chuàng)造,這種創(chuàng)造建立在大量數(shù)據(jù)搜集、分析和訓(xùn)練的基礎(chǔ)上,本質(zhì)上是一種量變過程,但經(jīng)其磨礪后產(chǎn)生的創(chuàng)意卻是建立在數(shù)據(jù)分析基礎(chǔ)上的質(zhì)變結(jié)果,該結(jié)果既可能發(fā)生在使用者頭腦中,也可能發(fā)生在ChatGPT基于使用者反饋?zhàn)鞒龅幕卮鹬小Y|(zhì)變產(chǎn)生的創(chuàng)意是創(chuàng)造力或創(chuàng)新能力的體現(xiàn),其不能等同于剽竊。然而,質(zhì)變的產(chǎn)生雖然以ChatGPT使用者提問、提示和反饋為基礎(chǔ),但其前提卻是人工智能自身的算法和算力。由此,對學(xué)術(shù)不端外延中的不當(dāng)署名形成沖擊:一方面,使用者通過ChatGPT產(chǎn)生的質(zhì)變究竟在多大程度上歸結(jié)于使用者本人顯然難以分清,成果發(fā)表時的署名是否應(yīng)當(dāng)附帶ChatGPT以及將ChatGPT署為作者還是非作者貢獻(xiàn)者,均是不當(dāng)署名概念所要考慮的問題;另一方面,如果使用者要求ChatGPT完全基于某一位或幾位學(xué)術(shù)人的作品進(jìn)行風(fēng)格模仿,此時產(chǎn)生的質(zhì)變能否看作是特定學(xué)術(shù)人思想的延伸?上述現(xiàn)象使不當(dāng)署名問題變得更加復(fù)雜。

(2)ChatGPT的重復(fù)問題。國外已有研究表明,目前剽竊檢測器(如Turnitin)無法檢測人工智能生成的文章[6]。在當(dāng)前國內(nèi)主要依賴查重軟件判斷論文、申報書等是否存在剽竊問題的情況下,ChatGPT基于大量網(wǎng)絡(luò)數(shù)據(jù)集生成的看似獨(dú)到,實(shí)際是“改頭換面”的文章同樣很難被檢測出來,這使得以重復(fù)為核心的剽竊概念受到極大沖擊。剽竊不只是重復(fù),但重復(fù)無疑是剽竊最典型的表現(xiàn),放棄重復(fù)的標(biāo)準(zhǔn)不切實(shí)際,但主要依靠重復(fù)確定剽竊必然不合理。ChatGPT的重復(fù)還給思想剽竊的認(rèn)定帶來新難題。此前,思想剽竊主要發(fā)生在會議報告、學(xué)術(shù)談話之后,現(xiàn)在由于超級算力支撐,ChatGPT等人工智能內(nèi)容生產(chǎn)系統(tǒng)甚至可以從大量過往研究中推演出作者可能產(chǎn)生的新思想,畢竟大多數(shù)情況下,學(xué)者的研究思想總是一脈相承的。顯然,ChatGPT對學(xué)術(shù)不端概念中的剽竊這一外延產(chǎn)生了極大沖擊。

(3)ChatGPT的批判問題。ChatGPT確實(shí)能夠展現(xiàn)批判性思維能力[7],當(dāng)其使用者是初學(xué)者或?qū)W生時,可能很難判別ChatGPT的批判思維正確與否,由此導(dǎo)致有問題的研究流向?qū)W術(shù)領(lǐng)域,給同行評審帶來新的挑戰(zhàn)。在一些實(shí)驗(yàn)中,人們發(fā)現(xiàn)ChatGPT會對一些需要深度了解文獻(xiàn)內(nèi)涵的問題和任務(wù)產(chǎn)生錯誤理解,并產(chǎn)出虛假和具有誤導(dǎo)性的文本,這些文本建立在對科學(xué)知識理解不深的基礎(chǔ)上,其批判性或許完全是一種偏見。當(dāng)評審專家面對這些文本時,可能出現(xiàn)兩種態(tài)度,這兩種態(tài)度都會觸發(fā)有問題的同行評審:如果評審專家本身即有偏見,那么帶有偏見的批判性文本則“正中下懷”,在看似公正的評審中掩藏評審專家的私心;雖然評審專家排斥偏見,但若不能識別出這些批判性文本的荒謬之處,那么錯誤將被帶到公眾領(lǐng)域。

ChatGPT對學(xué)術(shù)不端外延的沖擊顯然不只上述幾種,限于篇幅,本文不可能一一列舉,但必須說明的是,剽竊絕對是受到?jīng)_擊最大的外延。由于ChatGPT在引用原始文獻(xiàn)時經(jīng)常會直接復(fù)制文本,或者轉(zhuǎn)置后復(fù)制,然后在生成的輸出文本中以ChatGPT自己的想法對外呈現(xiàn),使用者可能在無意中抄襲大量文本,剽竊行為會在不知不覺中發(fā)生。同時,使用ChatGPT時的提問和反饋會被ChatGPT納入語言模型中,ChatGPT一般會在不展示(可能也無法展示)這些思想和觀點(diǎn)原始來源的情況下向他人提供相關(guān)信息,這會導(dǎo)致使用者的思想泄露,出現(xiàn)思想被他人剽竊的情形。最為抽象的剽竊問題仍然來自ChatGPT的法律人格問題,由于ChatGPT不被視為作者,其生產(chǎn)的各種文本在使用時通常很難被界定為剽竊,但其輸出的文本顯然有很大一部分由自身算力產(chǎn)出,而不僅僅是使用者的思想轉(zhuǎn)碼。因此,使用這些文本確實(shí)可能構(gòu)成對人工智能的抄襲。

2 ChatGPT對學(xué)術(shù)不端治理的影響

由于ChatGPT具有促進(jìn)科研生產(chǎn)力提高的作用,其自然能夠在學(xué)術(shù)研究中得到普及化應(yīng)用,現(xiàn)有學(xué)術(shù)不端治理體系必然要隨之調(diào)整。無論如何定義學(xué)術(shù)不端治理,其在本質(zhì)上都是由特定主體依照一定標(biāo)準(zhǔn)、遵循規(guī)范程序?qū)腕w行為進(jìn)行規(guī)制和約束的活動。因此,主體、客體、標(biāo)準(zhǔn)和程序是構(gòu)筑學(xué)術(shù)不端治理體系的基本質(zhì)料。ChatGPT較以往語言模型優(yōu)越的最關(guān)鍵之處在于其能夠更好地理解給定問題和反饋背后的含義,甚至使用者的意圖,這使得其可以借助大規(guī)模獲取數(shù)據(jù)和精準(zhǔn)提取信息的能力回答那些不能直接通過搜索引擎獲得答案的問題。在這一過程中,學(xué)術(shù)不端主客體均發(fā)生變化,固有程序和標(biāo)準(zhǔn)也變得不再適應(yīng)。

2.1 拓展治理主體范疇

治理至少包括預(yù)防和追責(zé)兩層含義,由此生發(fā)兩類學(xué)術(shù)不端治理主體:第一類通過教育方式實(shí)現(xiàn)預(yù)防,主要包括高校教師、研究生導(dǎo)師、課題組負(fù)責(zé)人等;第二類專司追責(zé),由于直接涉及到懲戒措施,此類主體一般由機(jī)構(gòu)擔(dān)任,通常包括高校和科研院所學(xué)術(shù)委員會、教育和科技行政主管部門及其內(nèi)設(shè)機(jī)構(gòu)等。一般而言,兩類主體雖然具有隸屬關(guān)系,但功能相對獨(dú)立,第一類主體通常不可能行追責(zé)之權(quán),第二類主體也很少直接開展面向特定個體的教育活動。

ChatGPT的介入將打亂學(xué)術(shù)不端主體之間的平衡。第一類主體能夠教育科研人員遵循學(xué)術(shù)倫理規(guī)范,但無法教育ChatGPT等AIGC系統(tǒng);第二類主體可以懲戒在使用ChatGPT時發(fā)生學(xué)術(shù)不端行為的科研人員,但無法防范其使用ChatGPT。兩類主體的功能必須競合才能更好地應(yīng)對ChatGPT的挑戰(zhàn),同時還要引入新的主體防范和規(guī)范ChatGPT的行為。不僅檢測軟件難以檢測出ChatGPT產(chǎn)出的文本,即使是人工評審也難以發(fā)現(xiàn)ChatGPT的學(xué)術(shù)不端行為,比如在最近的一項(xiàng)研究中,學(xué)術(shù)評審人員對ChatGPT創(chuàng)建的摘要只發(fā)現(xiàn)了63%的造假[4]。只要這種造假或者剽竊可以在一定程度上歸結(jié)于ChatGPT或者認(rèn)為ChatGPT加劇了造假和剽竊風(fēng)險,那么技術(shù)開發(fā)、監(jiān)督機(jī)構(gòu)和人員就需要承擔(dān)一定學(xué)術(shù)不端治理責(zé)任。由此,學(xué)術(shù)不端治理主體的范疇被擴(kuò)展到技術(shù)領(lǐng)域。這表明國家新一代人工智能治理專業(yè)委員會要履行一定學(xué)術(shù)不端治理主體責(zé)任,其余涉及到AIGC系統(tǒng)開發(fā)的機(jī)構(gòu)、人員也從廣義上被納入治理主體中,這些主體或可稱為第三類主體。

ChatGPT使學(xué)術(shù)不端治理的預(yù)防和追責(zé)滲入智能技術(shù)因素,第一類和第二類主體在功能競合后還需與代表智能技術(shù)方的第三類主體進(jìn)行合作,而第三類主體不可能將學(xué)術(shù)不端治理作為主要任務(wù)之一。因此,頂層設(shè)計至關(guān)重要,需要從國家層面聯(lián)合第三類和第二類主體,并致力于讓第三類主體承擔(dān)更多預(yù)防責(zé)任。一個必然的要求是,學(xué)術(shù)研究的原創(chuàng)性和科普性需要加以區(qū)分,那些以原創(chuàng)為目的的學(xué)術(shù)研究規(guī)則不能被ChatGPT破壞,如果被破壞,技術(shù)開發(fā)者和使用者可能都要在一個共同框架中承擔(dān)各自責(zé)任。這是第三類主體成為學(xué)術(shù)不端治理主體的前提,也是界定其功能的基礎(chǔ)。

2.2 重構(gòu)客體責(zé)任結(jié)構(gòu)

雖然ChatGPT看似向通用人工智能(Artificial general intelligence,AGI)邁出了一大步,但其仍然沒有自我意識,也就不存在自由意志,這是阻擋其擁有法律人格的最大障礙。不具有法律人格的ChatGPT顯然不能成為作者,這已迅速形成共識,如英國科研誠信辦公室就明確規(guī)定ChatGPT不能視為合著者[8]。不過,學(xué)術(shù)不端不以作者為唯一治理客體,其客體內(nèi)涵豐富,包括出版者、評審者和居間交易者都可能成為學(xué)術(shù)不端治理客體(也可以看作治理對象,而將其行為視作治理客體)。因此,ChatGPT仍然具有成為學(xué)術(shù)不端治理客體的可能。在固有客體結(jié)構(gòu)中,作者對其成果負(fù)責(zé),評審者對其評審行為負(fù)責(zé),出版者則對其出版活動負(fù)責(zé),但這些各司其職的規(guī)定在智能技術(shù)應(yīng)用中被迫發(fā)生變化。因此,ChatGPT即使不能成為治理客體,也會在客觀上重構(gòu)治理客體的責(zé)任結(jié)構(gòu)。

從ChatGPT產(chǎn)出文本的效果看,雖然其不具有制造高質(zhì)量論文的能力,但其效率和合格率卻遠(yuǎn)遠(yuǎn)高于人力,在科研壓力下,不可避免會有相當(dāng)多科研人員選擇使用ChatGPT完成學(xué)術(shù)寫作的主要工作。這將使LLM系統(tǒng)成為謊言發(fā)動機(jī),人們會直接將ChatGPT產(chǎn)出的文本當(dāng)作自己的文本用于出版或線上展出,這是典型的學(xué)術(shù)不端行為。盡管ChatGPT最終可能因不具備法律人格而不用承擔(dān)學(xué)術(shù)不端責(zé)任,但學(xué)術(shù)不端行為的大部分確實(shí)由其完成。進(jìn)一步分析ChatGPT的文本生成,發(fā)現(xiàn)其技術(shù)局限性成為加重使用者客體責(zé)任的根源:文本生成質(zhì)量取決于使用者提問和反饋質(zhì)量;生成文本使用的數(shù)據(jù)可能是過時(當(dāng)前ChatGPT的訓(xùn)練數(shù)據(jù)截至2021年)、錯誤或虛構(gòu)的,而文本使用的選擇權(quán)在使用者;生產(chǎn)文本的價值觀、偏見和合法性均要由使用者把關(guān)。由于使用者、評審者和出版者的不慎導(dǎo)致ChatGPT生產(chǎn)的問題文本進(jìn)入出版或公共領(lǐng)域,使用者被加重的責(zé)任會顯而易見地向評審者、出版者滲透。由于ChatGPT無法承擔(dān)學(xué)術(shù)不端責(zé)任,很可能擺脫學(xué)術(shù)不端治理客體身份,但其所導(dǎo)致的學(xué)術(shù)不端行為卻可以在一定程度上指向開發(fā)者和數(shù)據(jù)集提供者,客體范圍的擴(kuò)大也使原有客體結(jié)構(gòu)發(fā)生事實(shí)性變化。

客體內(nèi)部責(zé)任結(jié)構(gòu)劃分主要根據(jù)各自對學(xué)術(shù)不端行為所負(fù)責(zé)任的大小確定,具體到作者,通常以各合作者對論文的貢獻(xiàn)度確定。一種確定作者貢獻(xiàn)度的新穎方式在ChatGPT流行后逐漸出現(xiàn),即通過對合作者向ChatGPT輸入文本的關(guān)鍵詞影響力進(jìn)行計算,在量化每個關(guān)鍵詞貢獻(xiàn)度的基礎(chǔ)上,可以推算出每位合作者在生成文本中發(fā)揮的作用。在這個意義上,ChatGPT能為更加科學(xué)合理地確定學(xué)術(shù)不端內(nèi)部責(zé)任提供便利,其不僅重構(gòu)了學(xué)術(shù)不端不同客體之間的責(zé)任結(jié)構(gòu),也重構(gòu)了同類學(xué)術(shù)不端客體的內(nèi)部責(zé)任結(jié)構(gòu)。

2.3 增加治理程序環(huán)節(jié)

從ChatGPT的智能性看,由于其不具備甄別虛假信息和拒絕書寫學(xué)術(shù)論文的能力,無形中增加了學(xué)術(shù)不端治理難度,這最終會反映到學(xué)術(shù)不端治理程序中。學(xué)術(shù)不端治理程序是學(xué)術(shù)不端治理活動對外呈現(xiàn)的主要載體,是治理活動得以發(fā)生和進(jìn)行的根基。學(xué)術(shù)不端治理程序通常包括啟動、調(diào)查和處理3個環(huán)節(jié)[9]。其中,啟動包括舉報后受理和治理主體主動發(fā)起兩種,前者是當(dāng)前學(xué)術(shù)不端治理程序啟動的主流,但ChatGPT使舉報者獲取證據(jù)的難度增大,治理主體需要在主動發(fā)起上發(fā)揮更大作用。調(diào)查不再局限于事實(shí)調(diào)查,而要根據(jù)客體使用ChatGPT的輸入輸出情況進(jìn)行技術(shù)判斷,同時還要結(jié)合行為后果分析不端行為是否具有侵權(quán)性質(zhì)。最難的是處理環(huán)節(jié),對學(xué)術(shù)不端行為的處理以避免特定客體類似行為再次發(fā)生和警醒其他客體為目的,但針對ChatGPT造成的學(xué)術(shù)不端行為,不可能產(chǎn)生禁止所有科研人員使用ChatGPT的處理結(jié)果,使用者本人也只會在今后更加謹(jǐn)慎小心地使用ChatGPT,而不會主動放棄使用。對于其他科研人員而言,這種處理更多的是警醒其避免被他人發(fā)現(xiàn)自己使用ChatGPT,這與處理目的背道而馳。

除提高學(xué)術(shù)不端治理程序環(huán)節(jié)的復(fù)雜性外,ChatGPT也會在事實(shí)上增加程序環(huán)節(jié)。在啟動之后可能需要增加一個臨時禁用環(huán)節(jié),防止未被處理的客體繼續(xù)使用ChatGPT生產(chǎn)文本;在調(diào)查環(huán)節(jié)可能會增加一個并行檢測環(huán)節(jié),檢測客體是否使用ChatGPT以及其學(xué)術(shù)不端行為是否與ChatGPT有關(guān),由于這一環(huán)節(jié)的技術(shù)性極高,一般的事實(shí)調(diào)查人員不能勝任,因而具有獨(dú)立于調(diào)查環(huán)節(jié)的價值;在處理環(huán)節(jié)后可能會增加反饋環(huán)節(jié),即向第三類主體反饋ChatGPT存在未被發(fā)現(xiàn)導(dǎo)致學(xué)術(shù)不端的技術(shù)問題,以幫助第三類主體更好地做好預(yù)防工作。

雖然從理想角度看,ChatGPT與學(xué)術(shù)研究并行不悖,但對于出版物而言,由于缺乏必要的技術(shù)手段、充足的時間和人力進(jìn)行人工審查,因而很可能直接禁止作者使用ChatGPT(已有多家國內(nèi)外期刊發(fā)表類似聲明)。這使得學(xué)術(shù)不端治理程序中的調(diào)查環(huán)節(jié)難度增大,發(fā)表在此類期刊上的論文是否可以直接認(rèn)定為沒有使用ChatGPT?還是要增加一個期刊保證環(huán)節(jié),以確保調(diào)查得以完成?無論如何,ChatGPT的橫空出世確實(shí)給學(xué)術(shù)不端治理程序帶來巨大挑戰(zhàn),程序改革勢在必行。

2.4 再塑治理標(biāo)準(zhǔn)內(nèi)涵

作為生成式人工智能的重要應(yīng)用領(lǐng)域,ChatGPT專注于利用系統(tǒng)數(shù)據(jù)集進(jìn)行訓(xùn)練,以創(chuàng)造獨(dú)特內(nèi)容,獨(dú)特性使其成為再塑學(xué)術(shù)不端治理標(biāo)準(zhǔn)的關(guān)鍵因素。學(xué)術(shù)不端治理標(biāo)準(zhǔn)通常在啟動環(huán)節(jié)的初審和調(diào)查環(huán)節(jié)的認(rèn)定中發(fā)揮作用,初審判斷違反學(xué)術(shù)倫理一般要求的行為是否發(fā)生,在調(diào)查中再仔細(xì)分析該行為是否具備學(xué)術(shù)不端基本特征。可見,學(xué)術(shù)不端治理標(biāo)準(zhǔn)至少包括兩項(xiàng)內(nèi)容:學(xué)術(shù)倫理的一般要求和學(xué)術(shù)不端基本特征。以剽竊和不當(dāng)署名兩種典型學(xué)術(shù)不端行為為例,前者作為最為經(jīng)典的學(xué)術(shù)不端行為,早已規(guī)定在學(xué)術(shù)倫理的負(fù)面清單中,因而屬于違背學(xué)術(shù)倫理一般要求的行為,而判斷一種行為是否算作剽竊則需要更為詳細(xì)的標(biāo)準(zhǔn),實(shí)踐中一般對剽竊的認(rèn)定簡化為重復(fù)率,由此出現(xiàn)一系列以重復(fù)率分析為內(nèi)核的剽竊檢測軟件,同時還有不標(biāo)明出處的引用和思想剽竊等標(biāo)準(zhǔn)。不當(dāng)署名的認(rèn)定比較復(fù)雜,雖然很多學(xué)術(shù)不端治理政策明確將其納入學(xué)術(shù)不端行為,但標(biāo)準(zhǔn)尚未統(tǒng)一,從形式上看,主要有掛名、冒名、贈送署名和剝奪署名幾種,如果深入其本質(zhì),則可將其認(rèn)定標(biāo)準(zhǔn)表述為不符合署名權(quán)行使和保護(hù)要求的行為[10]。因此,所謂治理標(biāo)準(zhǔn),其實(shí)最終要落到各類學(xué)術(shù)不端行為的內(nèi)涵界定中。

ChatGPT具有非常強(qiáng)的魯棒性(Robustness),在外部輸入與訓(xùn)練輸入存在不同時,仍然能夠保證執(zhí)行中系統(tǒng)性能的穩(wěn)定性,這是其創(chuàng)造獨(dú)特性內(nèi)容的重要支撐。由于ChatGPT創(chuàng)造內(nèi)容的獨(dú)特性,剽竊的認(rèn)定往往很難通過重復(fù)率確定,而這種獨(dú)特性不能等同于原創(chuàng)性,仍然存在觀點(diǎn)和思想剽竊的可能。使用者需要對剽竊ChatGPT創(chuàng)造獨(dú)特文本的行為負(fù)責(zé),這一觀點(diǎn)需要深入分析:ChatGPT不具備法律人格,因此不能對剽竊行為主張權(quán)利,但這并不能為剽竊者免責(zé),因?yàn)樵诂F(xiàn)實(shí)中,即使被剽竊者不追究剽竊者責(zé)任,也不能認(rèn)為剽竊行為沒有發(fā)生,進(jìn)而繞過學(xué)術(shù)不端治理程序。對ChatGPT與此種情形下的現(xiàn)實(shí)被剽竊者進(jìn)行比較,發(fā)現(xiàn)兩者的區(qū)別只在于前者不能主張權(quán)利,而后者不想主張權(quán)利,事實(shí)行為的發(fā)生與認(rèn)定不能以被侵權(quán)者的放棄或受阻為要件,因而“不能”和“不想”在這個意義上并沒有本質(zhì)差異。此外,獨(dú)特性同樣導(dǎo)致不當(dāng)署名認(rèn)定標(biāo)準(zhǔn)內(nèi)涵的更新。不當(dāng)署名與署名權(quán)行使息息相關(guān),ChatGPT不能視為作者,也就無法行使署名權(quán),但其創(chuàng)造內(nèi)容的獨(dú)特性至少在科普性學(xué)術(shù)研究中具有署名價值,而這種署名價值及可能產(chǎn)生的利益卻被使用者一并攫取,顯然對于使用者而言,其實(shí)際上破壞了署名權(quán)行使規(guī)則,發(fā)生了過度或不當(dāng)行使署名權(quán)的行為,這種破壞署名權(quán)行使規(guī)則的行為表征前所未有,形式上的突破致使內(nèi)涵陷入無法涵括外延的尷尬境地中。

ChatGPT生成的文本與人類生成的文本幾乎無法區(qū)分,這一獨(dú)特能力極易使文本被不當(dāng)使用,從而導(dǎo)致學(xué)術(shù)不端行為。無法歸責(zé)于ChatGPT,使得學(xué)術(shù)不端治理標(biāo)準(zhǔn)改革只能關(guān)注標(biāo)準(zhǔn)內(nèi)涵而不能涉及標(biāo)準(zhǔn)的應(yīng)用,再塑學(xué)術(shù)不端標(biāo)準(zhǔn)內(nèi)涵是完善學(xué)術(shù)不端治理活動的根本前提,因?yàn)樗袑W(xué)術(shù)不端治理活動都從某種事實(shí)是否發(fā)生、該事實(shí)是否屬于學(xué)術(shù)不端開始,這兩個問題的答案只存在于學(xué)術(shù)不端治理標(biāo)準(zhǔn)中。

3 治理主體應(yīng)對ChatGPT的策略

一直以來,學(xué)術(shù)不端治理主體通過制定、修改和執(zhí)行學(xué)術(shù)誠信政策,開展學(xué)術(shù)倫理教育以及使用查重軟件等技術(shù)手段治理學(xué)術(shù)不端行為。雖然這些策略的聯(lián)合使用確實(shí)能在一定程度上降低學(xué)術(shù)不端發(fā)生概率,但在應(yīng)對智能技術(shù)導(dǎo)致的學(xué)術(shù)不端方面逐漸顯得力不從心,當(dāng)一部分學(xué)術(shù)研究轉(zhuǎn)戰(zhàn)到ChatGPT的對話框中,治理策略必須從智能入手,充分考慮網(wǎng)絡(luò)影響,進(jìn)而作出新的調(diào)整。ChatGPT的出現(xiàn)使學(xué)術(shù)不端變得更加隱秘和難以捉摸,如果學(xué)術(shù)不端治理不能及時跟上,那么公眾對學(xué)術(shù)和學(xué)術(shù)研究的信任度就會一再降低。因此,治理主體的治理活動不僅在于打擊學(xué)術(shù)不端,還在于重振人們對學(xué)術(shù)界的信心。基于上文分析,本文首先從學(xué)術(shù)不端治理的4種基本質(zhì)料出發(fā),分析可采取的策略,然后嘗試構(gòu)建一個流動式治理框架,以防止不斷發(fā)展的智能技術(shù)化身為學(xué)術(shù)不端的“倀鬼”。

3.1 構(gòu)建主客體合作網(wǎng)絡(luò)

以ChatGPT為代表的人工智能內(nèi)容生產(chǎn)系統(tǒng)將在未來對學(xué)術(shù)論文的撰寫和審查產(chǎn)生不可估量的影響,撰寫、審查分屬治理客體和主體行為,主客體行為的相互作用一直是學(xué)術(shù)不端治理的起點(diǎn)。因此,治理主體與客體必須通力合作,以應(yīng)對ChatGPT帶來的新風(fēng)險。以降低復(fù)雜性為特征的人工智能輸入輸出技術(shù),在ChatGPT中開始擁有批判性思維,極少的輸入也能生成豐富而真實(shí)的文本,這進(jìn)一步簡化了復(fù)雜的學(xué)術(shù)研究,甚至使作弊行為變得簡單,學(xué)術(shù)公平性被技術(shù)銷蝕得支離破碎。大多數(shù)學(xué)術(shù)研究人員都不愿意在一個不公平的環(huán)境中開展學(xué)術(shù)活動,這是學(xué)術(shù)不端治理主客體合作的前提。

大學(xué)生能夠利用ChatGPT完成作業(yè)(特別是在線考試),研究生在ChatGPT幫助下撰寫可以發(fā)表的課程論文,由于ChatGPT輸出內(nèi)容的類人化特征,高校在審查學(xué)術(shù)不端方面的重要性更加凸顯。研究人員使用ChatGPT生成文章的例子在國外已經(jīng)出現(xiàn),期刊必須考慮人工智能被濫用的可能性,更加審慎地開展審稿工作。高校和期刊都是學(xué)術(shù)不端治理的重要主體,二者間的合作往往體現(xiàn)在事后的通知上,而且合作通常是單向的,也即期刊發(fā)現(xiàn)學(xué)術(shù)不端行為,進(jìn)而向高校反饋,高校作出處理決定。這種合作模式亟需改變,新聞出版、教育、科技行政主管部門以及網(wǎng)絡(luò)監(jiān)管部門等要在頂層聯(lián)合的基礎(chǔ)上要求高校、期刊等具體處理學(xué)術(shù)不端行為的機(jī)構(gòu)進(jìn)行雙向合作,以應(yīng)對ChatGPT時代更加隱蔽的學(xué)術(shù)不端行為。當(dāng)高校教師同時具備期刊審稿人或編輯身份時,雙向合作框架能發(fā)揮更大作用。因此,高校要與期刊一道對教師審稿人或編輯進(jìn)行培訓(xùn)和監(jiān)督,將期刊問責(zé)程序與高校問責(zé)程序相結(jié)合,使雙向合作發(fā)揮實(shí)效。

ChatGPT具有創(chuàng)意完善功能和簡化重復(fù)耗時工作的能力,其通過減少人們撰寫學(xué)術(shù)論文所需時間使科研人員釋放出更多精力專注于創(chuàng)新創(chuàng)造,因而對于科研人員來說,拒絕使用ChatGPT顯然是不明智的做法。然而,ChatGPT必然受到訓(xùn)練數(shù)據(jù)的影響,甚至可能受到設(shè)計者偏見的影響,這一缺陷不僅會增加課程教師、審稿人和期刊編輯的壓力,也可能導(dǎo)致使用者陷入無法準(zhǔn)確完成創(chuàng)新過程的境地。錯誤和缺漏會損害學(xué)術(shù)研究的科學(xué)性、合理性,進(jìn)而反噬學(xué)術(shù)研究者的聲譽(yù),正如新加坡國立大學(xué)在《學(xué)術(shù)工作中使用人工智能工具指南》中指出:“你本人而不是人工智能工具對你所提交的成果質(zhì)量和完整性負(fù)責(zé)[12]。”作為可能的學(xué)術(shù)不端治理客體,學(xué)術(shù)研究人員必須在假設(shè)ChatGPT輸出內(nèi)容不正確、不準(zhǔn)確的前提下仔細(xì)檢查和核對輸出文本,直到文本的可靠性得到確認(rèn)為止。

擁有良好的學(xué)術(shù)論文寫作技能是學(xué)生和青年科研人員成長為優(yōu)秀學(xué)術(shù)工作者的關(guān)鍵。避免人們在使用ChatGPT中喪失追求更強(qiáng)寫作能力的動力,不僅是學(xué)術(shù)不端治理主體的責(zé)任,也是所有學(xué)術(shù)工作者維護(hù)學(xué)術(shù)環(huán)境公平性的重要抓手。畢竟,大多數(shù)學(xué)術(shù)工作者都希望自己是在與人類同行而不是與人工智能競爭,況且,目前ChatGPT只是實(shí)現(xiàn)了獨(dú)特性,而遠(yuǎn)沒有達(dá)到原創(chuàng)性,與之競爭并不能促進(jìn)知識的新進(jìn)步。因此,學(xué)術(shù)不端治理主客體應(yīng)當(dāng)積極合作,客體向主體主動披露使用ChatGPT的情況,主體指導(dǎo)客體學(xué)習(xí)正確使用方法和措施,雙方在審稿、批改試卷等工作中實(shí)現(xiàn)高質(zhì)量互動,以使ChatGPT最大程度發(fā)揮出輔助工具的作用,而絕不產(chǎn)生主導(dǎo)作用或者欺騙等副作用。同時,人工智能法規(guī)和相關(guān)指導(dǎo)準(zhǔn)則必須制定特別規(guī)范,以規(guī)制學(xué)術(shù)人員對ChatGPT等人工智能內(nèi)容生產(chǎn)系統(tǒng)的使用。總之,防止學(xué)術(shù)研究陷入智能化導(dǎo)致的潛在不端陷阱中,既要靠主體的教育引導(dǎo),也要靠客體的自覺自律,雙方需要在一個可行的合作框架中展開行動。

3.2 更新治理程序與標(biāo)準(zhǔn)

學(xué)術(shù)不端程序治理的更新已箭在弦上,而程序通常圍繞標(biāo)準(zhǔn)建立,兩者不可分離。ChatGPT在高級分析和綜合應(yīng)用各類數(shù)據(jù)集方面較以往的人工智能具有顯著優(yōu)勢,能夠分辨出人類語言中的細(xì)微差別并比較準(zhǔn)確地推斷出語言表達(dá)背后的復(fù)雜心態(tài),正因如此,ChatGPT在學(xué)術(shù)研究中呈現(xiàn)出類人化特點(diǎn)。當(dāng)前學(xué)術(shù)不端治理程序和標(biāo)準(zhǔn)(主要表現(xiàn)為認(rèn)定標(biāo)準(zhǔn))的確立建立在人的行為基礎(chǔ)上,一種類似于人甚至在某些方面超越人的類人化系統(tǒng)及其不可歸責(zé)性特征,使現(xiàn)有學(xué)術(shù)不端治理程序和標(biāo)準(zhǔn)遭遇極大挑戰(zhàn)。

“如果我們在教給強(qiáng)大的智能機(jī)器基本倫理標(biāo)準(zhǔn)之前,在某些標(biāo)準(zhǔn)上達(dá)成共識,那一切就會變得更好”[11]。學(xué)術(shù)不端認(rèn)定標(biāo)準(zhǔn)的重新確立需要掀起一輪新的共識磋商,在共識達(dá)成之后,將該標(biāo)準(zhǔn)融入ChatGPT等人工智能內(nèi)容生產(chǎn)軟件的學(xué)習(xí)模型中,可以有效防止其協(xié)助使用者作出學(xué)術(shù)不端行為。如果使用者通過巧妙設(shè)計繞過已經(jīng)習(xí)得認(rèn)定標(biāo)準(zhǔn)的ChatGPT繼續(xù)使之生產(chǎn)導(dǎo)致學(xué)術(shù)不端的文本,那么責(zé)任就可以完全歸咎于使用者,原有治理程序便會繼續(xù)發(fā)揮作用,ChatGPT的不可歸責(zé)性便不再是令人頭疼的問題。標(biāo)準(zhǔn)的更新至少應(yīng)包括5項(xiàng)內(nèi)容:一是人工智能不得將來自于他人研究論文中的基本觀點(diǎn)整合成看似獨(dú)特的新文本;二是人工智能不得完全基于某一人及其經(jīng)常合作者的研究成果生成獨(dú)特內(nèi)容;三是人工智能生成學(xué)術(shù)內(nèi)容時不得隱去被引用的文獻(xiàn);四是人工智能在判斷出使用者有意利用其創(chuàng)造原創(chuàng)性學(xué)術(shù)論文時必須發(fā)出警告,包括但不限于“獨(dú)特不等于原創(chuàng)”“仔細(xì)檢查生成文本的引用情況”“不得直接用于出版”等;五是人工智能必須提醒使用者在將輸出文本用于科普時添加人工智能生成或提供幫助的聲明。

盡管在標(biāo)準(zhǔn)達(dá)成共識并用于ChatGPT等軟件的訓(xùn)練模型后,原有程序變得繼續(xù)適用,但由于人工智能在標(biāo)準(zhǔn)執(zhí)行中可能存在偏差或錯誤,程序更新仍然有必要。程序中需要增加的環(huán)節(jié)包括啟動后的禁用環(huán)節(jié)、調(diào)查時的檢測環(huán)節(jié)以及處理后的反饋環(huán)節(jié)。需要注意的是,治理程序中的禁用并不是禁止ChatGPT的應(yīng)用,而是在啟動后、程序未完結(jié)時暫時禁止學(xué)術(shù)不端嫌疑人使用ChatGPT。無論是禁用、檢測還是反饋,均需要技術(shù)支持,這要求將技術(shù)方納入學(xué)術(shù)不端治理主體,或至少從頂層設(shè)計角度使治理主體與技術(shù)方保持良好合作關(guān)系。標(biāo)準(zhǔn)的執(zhí)行與程序的實(shí)施密切關(guān)聯(lián),使用者要在原有學(xué)術(shù)不端治理標(biāo)準(zhǔn)的基礎(chǔ)上,以新的標(biāo)準(zhǔn)規(guī)范自身學(xué)術(shù)研究。比如,如果使用者沒有檢查ChatGPT輸出文本中的引用情況,而在治理程序的檢測環(huán)節(jié)發(fā)現(xiàn)ChatGPT并沒有遺漏這種提醒,那么使用者就必須承擔(dān)全部責(zé)任。

3.3 構(gòu)建流動式治理框架

為保證使用者的滿意率,ChatGPT會不斷響應(yīng)使用者的反饋,在使用者的提示下一再更改自身的輸出結(jié)果,甚至發(fā)明出奇怪的術(shù)語,這會進(jìn)一步加劇自然語言處理模型中的“幻覺效應(yīng)”(hallucination effect)[13]。ChatGPT與使用者的交互也因此呈現(xiàn)為一種“指示—執(zhí)行”模式,而不是人與人之間的平等交流模式,ChatGPT傾向于假設(shè)用戶想要什么樣的結(jié)果,而不是否定用戶的問題。這種交流模式能夠極大提升使用者的體驗(yàn)感,滿意率上升的同時,使用率也會隨之提高。在智能技術(shù)突飛猛進(jìn)的時代,人工智能不僅能夠推測出用戶的用意(有時相當(dāng)準(zhǔn)確),還能創(chuàng)新交互模式,未來還會衍生出不同變種,進(jìn)而通過不斷重構(gòu)人與人工智能的交互方式改變現(xiàn)實(shí)中人與人的交互方式。這是一個相當(dāng)大的話題,但本文僅從學(xué)術(shù)不端治理角度分析這一問題,進(jìn)而嘗試構(gòu)建流動式治理框架,以應(yīng)對日新月異的智能技術(shù)。

我國《新一代人工智能倫理規(guī)范》要求將倫理道德融入人工智能研發(fā)和應(yīng)用的全生命周期。人工智能應(yīng)當(dāng)具備一定建立在人類道德基礎(chǔ)上的倫理計算力,這已在科技界和倫理界達(dá)成共識,然而技術(shù)上仍然存在諸多困難,在將形而上的道德原則轉(zhuǎn)碼成算法程序以及算法指導(dǎo)人工智能對外呈現(xiàn)倫理選擇行為的過程中,總是存在很多不確定性,無人駕駛汽車面對“電車難題”時的選擇困境就是明證。因此,一方面要以倫理算力為底層基石,另一方面還要構(gòu)建一個可以流動的框架,以應(yīng)對現(xiàn)實(shí)變化。本文以作弊為例,描述流動式治理框架的構(gòu)建。針對學(xué)生利用ChatGPT作弊的行為,教師可以更多地布置需要評價作業(yè)本身過程的反思性作業(yè),要求學(xué)生在作業(yè)中反思作業(yè)內(nèi)容的產(chǎn)生過程(反思性作業(yè)仍然是當(dāng)前ChatGPT的盲區(qū)之一,其很難了解不在網(wǎng)絡(luò)中的作業(yè)內(nèi)容生產(chǎn)過程,這不屬于ChatGPT的訓(xùn)練數(shù)據(jù)),同時輔以面對面布置和當(dāng)場提交作業(yè)的形式規(guī)避學(xué)生使用ChatGPT的可能。反思性作業(yè)加線下即時提交的方式構(gòu)成治理作弊的流動式框架,在ChatGPT尚未迭代到可以在臨時性數(shù)據(jù)訓(xùn)練中獲得與大量數(shù)據(jù)集訓(xùn)練相同能力的情況下,治理框架向反思性作業(yè)傾斜,而當(dāng)ChatGPT具備上述能力后,治理框架向線下即時提交傾斜,直到找出更好的針對技術(shù)發(fā)展的新策略為止。因此,流動式框架具備兩大特點(diǎn):一是治理學(xué)術(shù)不端的倫理原則是框架的核心,組成框架的各邊必須與核心相連;二是框架的各邊是可以移動的,當(dāng)技術(shù)可控時,框架在可控措施下同時保障技術(shù)的使用,以發(fā)揮技術(shù)功效,當(dāng)技術(shù)難以控制時,框架通過禁絕技術(shù)使用的臨時性管控辦法規(guī)避風(fēng)險,一直到再次獲得可控性為止。

在流動式框架中,判斷傾斜時機(jī)至關(guān)重要,治理主體必須時刻保持技術(shù)敏銳性,在與技術(shù)方建立經(jīng)常性互動反饋的基礎(chǔ)上提高研判能力。同時,要確立幾個簡易的判斷標(biāo)準(zhǔn),比如在學(xué)生作業(yè)中設(shè)立規(guī)范性預(yù)警風(fēng)險點(diǎn),當(dāng)發(fā)現(xiàn)學(xué)生對自己提交的作業(yè)內(nèi)容不理解、多人提交的作業(yè)存在相同寫作風(fēng)格、作業(yè)內(nèi)容與學(xué)生一貫觀點(diǎn)不一致時,治理主體就要及時記錄并與技術(shù)方溝通。在現(xiàn)實(shí)中,還可以建立學(xué)生、學(xué)術(shù)人員使用人工智能工具的反饋渠道,也即當(dāng)其不能確定是否可以將ChatGPT用于特定作業(yè)或研究時,可以與治理主體聯(lián)系,以獲得建議。

4 結(jié)語

正如《自然》雜志對ChatGPT的評論:“使用這項(xiàng)技術(shù)是不可避免的,因此,禁止它是行不通的[14]。”本文所有討論都建立在不可能完全禁用ChatGPT等人工智能生產(chǎn)系統(tǒng)的前提下,即使為了避免更大危害出現(xiàn)而采取防止或禁止特定人員使用ChatGPT的措施也都是臨時性的。因此,必須積極面對ChatGPT及其一系列競品,并對進(jìn)入新的學(xué)術(shù)不端可控期抱有希望。

ChatGPT確實(shí)有可能徹底改變學(xué)術(shù)研究模式,因?yàn)樵絹碓蕉嗟目蒲腥藛T正在使用ChatGPT開展學(xué)術(shù)研究,而與學(xué)術(shù)研究相伴而生的學(xué)術(shù)不端治理必然不能滯后于智能技術(shù)的迅猛發(fā)展。本文正是基于這一理念,從以ChatGPT為代表的人工智能內(nèi)容生產(chǎn)技術(shù)對學(xué)術(shù)不端概念、治理的沖擊與影響出發(fā),探索學(xué)術(shù)不端治理中ChatGPT應(yīng)用的風(fēng)險應(yīng)對策略。可以預(yù)見的是,不久的將來,ChatGPT等技術(shù)將從論文寫作發(fā)展到實(shí)驗(yàn)設(shè)計、同行評審和幫助編輯審查稿件的程度。因此,需要降低人對自動化的依賴,永遠(yuǎn)強(qiáng)調(diào)人的自主性和主動性,這在人工智能時代至關(guān)重要。學(xué)術(shù)研究的最終目的是造福人類,學(xué)術(shù)不端治理始終是人類防止學(xué)術(shù)研究雙刃劍的堅(jiān)固盾牌。

猜你喜歡
主體人工智能文本
論自然人破產(chǎn)法的適用主體
在808DA上文本顯示的改善
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
關(guān)于遺產(chǎn)保護(hù)主體的思考
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
論多元主體的生成
主站蜘蛛池模板: 成年免费在线观看| 日本草草视频在线观看| 日本草草视频在线观看| 国产福利影院在线观看| 免费又爽又刺激高潮网址| 蜜芽国产尤物av尤物在线看| 国产福利影院在线观看| 中美日韩在线网免费毛片视频 | 国产丝袜第一页| 99re66精品视频在线观看| 91久久国产综合精品| 天堂成人在线视频| 四虎永久在线| 日韩精品一区二区三区视频免费看| 亚洲伊人电影| 99久视频| 国产精品美人久久久久久AV| 国产尤物在线播放| 伊人久久大香线蕉成人综合网| 国产中文一区a级毛片视频 | 亚洲欧洲AV一区二区三区| 无码内射在线| 亚洲自偷自拍另类小说| 国产无码在线调教| 亚洲男人的天堂久久香蕉网| 99免费在线观看视频| 国产精品人莉莉成在线播放| 99激情网| 免费福利视频网站| 欧美成人日韩| 女同久久精品国产99国| 午夜a级毛片| 亚洲天堂色色人体| 99er这里只有精品| 一级爱做片免费观看久久| www.91中文字幕| 国产内射一区亚洲| 欧美一区二区人人喊爽| 欧美区日韩区| 亚洲第一视频免费在线| 国产丝袜无码精品| 免费 国产 无码久久久| 玖玖免费视频在线观看| 免费 国产 无码久久久| h网站在线播放| 亚洲婷婷六月| 九色综合伊人久久富二代| 国产真实二区一区在线亚洲| 26uuu国产精品视频| 亚洲国产av无码综合原创国产| 日韩a在线观看免费观看| 尤物国产在线| 国产区福利小视频在线观看尤物| 成人日韩欧美| 中文字幕在线不卡视频| 欧美在线视频不卡第一页| 精品国产成人高清在线| 欧美日韩另类在线| 亚洲精品无码抽插日韩| 亚洲妓女综合网995久久| 国产不卡在线看| 亚洲欧美日韩视频一区| 欧美中文字幕在线播放| 中文国产成人久久精品小说| 伊人色天堂| 99精品在线看| 在线观看亚洲成人| 国产XXXX做受性欧美88| 国产手机在线小视频免费观看| 日韩精品无码免费专网站| 99久视频| 伊人激情综合| 国产在线观看成人91| 亚洲成人www| 2021国产精品自拍| 色135综合网| 国产亚洲精品97AA片在线播放| 免费国产无遮挡又黄又爽| 国产视频 第一页| 久久性妇女精品免费| 人妻一区二区三区无码精品一区| 99久久性生片|