關鍵詞:ChatGPT;出版賦能;出版倫理;治理進路
DOI:10.19619/j.issn.1007-1938.2024.00.044
作者單位:北京印刷學院馬克思主義學院
引文格式:楊利利. ChatGPT 出版應用的賦能效應、倫理風險與治理進路[J]. 出版與印刷,2024(4):1-10.
2022年11月,美國OpenAI 公司推出的ChatGPT( Chat Generative Pre-trained Transformer)聊天機器人引發全球熱議,并推動新一輪科技革命。依托自然語言處理(naturallanguage processing,英文縮寫NLP)領域的顛覆性技術進步,以ChatGPT 為代表的人工智能生成內容( artificial intelligence generatedcontent,英文縮寫AIGC)為傳媒、教育、娛樂、醫療、電商等各行各業尤其是內容生產行業帶來新的賦能效應。對于與人類自然語言處理緊密相連的出版業,ChatGPT 更是成為推動出版智能化轉型升級的新型引擎。然而,ChatGPT 在為出版帶來發展契機的同時,也對數據權益、署名規則、知識生產、人機關系等問題形成一定的沖擊,進而引發出版領域深層次的不確定性倫理風險。針對上述問題,需要聚焦ChatGPT 這一技術“變量”,深度剖析其所引發的出版變革與倫理風險,并基于系統化的研究視角,探討其風險治理的實踐理路,充分發揮ChatGPT 出版應用的賦能效應。
一、ChatGPT概述
1. ChatGPT的基本概念
ChatGPT 是以transformer(模型)和RLHF( reinforcement learning with human feedback,基于人類反饋的強化學習)為支撐的大語言模型。Transformer 架構使ChatGPT 能夠通過分析輸入的語料來理y1CGx5Xs7Aw1tJraiRk/FyJswHEthrK/3XpIqWJGB+4=解人類語言的語法、語義,并且按照語法生成流暢且擁有較強理解力的應答。[1]RLHF 使得模型輸出的內容更具可塑性,并與人類的基本常識、認知理解乃至價值觀等趨于一致。這兩項技術的有效結合,使ChatGPT 表現出超強的能力,在性能方面超越了以往的聊天機器人。ChatGPT 的大模型技術底座源于“大數據+大算法+強算力”的強力支撐。在數據層面,ChatGPT 等生成式大語言模型的開發歷程涉及監督調優、獎勵模型、近端策略優化三個階段,每個階段都需要不同類型的海量數據支撐。具體而言,第一階段主要需要海量大數據以及人工標注數據,第二階段主要需要面向RM( rewardmode,獎勵模型)層面的人工排序數據,第三階段同樣需要全網的海量大數據。[2] 在算法層面,ChatGPT 在上述不同階段的訓練中,通過人類與機器交互問答的方式對其算法進行不斷迭代,“使模型逐漸具有對生成答案的評判能力”[3]。在算力層面,根據中新經緯提供的數據,ChatGPT 的總算力消耗約為3640 PFdays(即假如每秒計算1000 萬億次,需要計算3640 天),需要7~8個投資規模約30億、算力500P 的數據中心才能支撐運行。[4]
2. ChatGPT 的主要功能
ChatGPT 是生成式人工智能的最新成果和典型代表。ChatGPT 不僅能夠對人類自然語言進行識別學習,比如通過模仿、指令性操作等實現日常對話、文本創作、代碼編寫、音視頻生成等方面的應用,而且能夠依托“基礎大模型+指令微調”的運作機制賦予AIGC 更多的可能性。首先,大模型可使AIGC克服不同場景下的視覺感知問題,增強視覺理解的效果。其次,ChatGPT 可增強AIGC的認知能力。ChatGPT 具備語言理解、推理、自我學習的能力,對人類智慧具有一定的模仿能力。從某種意義上而言,ChatGPT 的誕生意味著由弱人工智能時代向強人工智能時代的轉變,拉開了人工智能向認知智能過渡的序幕。基于語言的認知智能不僅加速了通用人工智能(artificial general intelligence,英文縮寫AGI)的到來,也使AIGC 的認知能力得到提升。再次,多模態大模型使AIGC的內容創作能力得以升級。一方面,借助ChatGPT 大模型的自主性、涌現性等特征優勢,AIGC 可突破人腦在內容產能上的束縛,以百倍乃至千倍的生產速度,創造具有獨創性和價值性的內容;[5] 另一方面,ChatGPT在代碼數據訓練方面可賦予AIGC 一定的思維與推理能力,經過邏輯推理,大模型生成的內容可超越人類知識儲備范圍并體現創造性。最后,多模態大模型促進了不同模態信息內容的轉換與融合,使AIGC 獲得強大的環境感知力,從而具備更為接近人的智能創作能力。
二、ChatGPT 出版應用的賦能效應
隨著ChatGPT 技術的演化迭代,其在出版業的應用不斷拓展。一方面,ChatGPT 具備的認知理解能力,可以優化出版流程,為出版業的發展與變革帶來新的契機;另一方面,GhatGPT 強大的智能創作能力,可以衍生更多的新型智能出版產品,推動數字出版的智能轉型與升級。
1. 質效提升效應
ChatGPT 具有生成內容規模大、速度快、成本低等顯著優勢,隨著GPT-4接入必應搜索,其檢索、提煉資料信息的時間進一步縮短,效率和質量進一步提升。在用戶指令支配下,ChatGPT 可簡化傳統出版中人工檢索和篩選統計等煩瑣環節,迅速生成內容信息,比如在10 秒內架構一個網站,在60 秒內設計一個游戲,通過一次對話便可生成一部劇本或短篇小說。[6] 同時,ChatGPT 通過大規模數據挖掘以及神經網絡技術、預訓練與微調、自監督學習和多任務學習等技術的綜合應用,集信息支持、創作支持、服務支持、情感支持于一身,[7] 能夠低成本、高效能地完成出版活動所需的一部分內容生產。此外,ChatGPT 算法的優化升級可以使AIGC 自動檢索并有效規避內容生產中的低級錯誤,并在內容語義與邏輯推理上模擬人腦思維,從而對內容進行初步審核。ChatGPT 不僅能夠以優于人類的綜合分析能力承擔審稿、校對等工作中基礎性機械勞動,而且能夠憑借高超的創造能力和知識水平進行更為科學合理的內容選題策劃、修改完善等工作,從而對出版內容的生產與傳播流程進行精細管理,準確、高效地完成任務。比如GPT-4可利用其網絡信息搜尋與智能識別能力有效辨識新聞素材來源與內容等的精準性,實現高效信息處理、知識邏輯優化、多模態內容消歧。相較于微軟小冰、百度小度、蘋果Siri 等傳統聊天機器人,ChatGPT 經過數據“喂養”形成了一定的倫理判斷和價值取向,能夠有效辨識出版內容中的道德理性偏差,提升人工編輯與審查的質量。如輸出“以下文字/圖片存在哪些不合理的問題” 時, ChatGPT會從字詞、價值觀與事實等方面分別陳述,并且當文稿、圖片涉及某些政治正確與道德倫理方面的問題時,其敏銳性遠超常人。[8]
2. 創新驅動效應
ChatGPT 強大的底層泛化能力,使其不僅能夠進行文本、圖像、音視頻等多模態內容的生成與轉換,而且能夠進行自主性和個性化的生產,實現知識價值的自主創造。同時,ChatGPT 能夠通過內容的創造性生成和自動化編纂、語言的智能化潤色加工、產品形態的多模態轉換等方式,變革出版的內容生產范式和內容供給模式。除此之外,ChatGPT 作為更具智慧的聊天機器人,重塑了人機之間的智能交互,可推動出版流程的智能再造,優化出版服務轉型升級。目前,ChatGPT 已經在新聞生成、文學出版、漫畫制作等諸多出版領域得到應用,隨著ChatGPT的迭代更新,其必將對出版業的創新發展產生更大的驅動效應。
3. 市場開拓效應
ChatGPT 出色的交互能力可用于增強用戶體驗,為出版業的市場開拓提供技術支撐。首先, GAN( generative adversarial network,生成式對抗網絡)等技術的應用推動出版內容產品形態的高質量演化,通過構建多維數據促進從平面場景到立體模型的轉換,使出版內容實現從2D 到3D 的擴展,并與VR、AR技術結合,給用戶帶來沉浸式體驗。其次,ChatGPT 擁有用戶意圖識別能力,能不斷優化用戶體驗。ChatGPT 通過自注意力機制(self-attention mechanism),基于多輪對話的情感化交互,增強對話情境中的上下文信息語義感知與推理,通過在NLP 模型上用消費者的提問文本進行多模態情感分析(sentimentanalysis),提取個人消費偏好并建立用戶檔案,深層次把握用戶的個性化需求。[9] 這有助于在出版內容分發環節即時地滿足用戶需求,為用戶帶來更好的交互式體驗,進而提高用戶黏性,助力出版營銷。如《時代》周刊計劃構建更為可信、更有價值的生成式人工智能系統,增強用戶與人工智能的互動性,讓用戶知道其獲取的內容和對話的真實來源,從而建立情感聯結,滿足用戶的情感訴求,提高用戶對新聞品牌的信任度。[10] 借助ChatGPT 賦能,可以助力出版商開展市場調研以把握消費者的潛在需求,進而為其提供更多增值服務,開拓更大的出版消費市場。
三、ChatGPT 出版應用的倫理風險
ChatGPT 在賦能出版高質量發展的未來圖景中,也面臨著侵權風險和維權難題、機器署名爭議、虛假內容泛濫、人機關系異化等問題,從而引致相應的出版倫理風險。
1. 侵權風險和維權難題:ChatGPT 出版應用的數據權益侵犯風險
(1)侵權引發的數據權益侵犯
ChatGPT 作為生成式人工智能的典型代表,可以從事一些獨立性的工作,生成具有創造性和價值性的作品。從其運行機理來看,ChatGPT 生成物的生產過程實質上是基于數據挖掘的大數據學習與再創造過程。數據挖掘的過程一般包括信息抽取、語義分析、關系計算、知識發現等四個步驟。[11] 從來源上看,這些數據大多來自公開的互聯網數據,其中不乏涉及國家安全與個人隱私的諸多信息,并且很多數據都受到知識產權的保護。ChatGPT 在內容生產中,往往是在未經允可的情況下通過機器學習進行數據的挖掘、加工與處理等,這導致數據來源的合法性無法得到有效保證,極易引發復制權、改編權、信息網絡傳播權等版權的侵犯問題。隨著ChatGPT 這類生成式人工智能的廣泛應用,互聯網信息傳播的壁壘進一步被打破,在一定程度上為出版領域的侵權行為滋生創設了更為有利的條件。而出版相關法律制度的滯后性與建設的不完備性,更是使得這些問題難以在短時間內得到有效解決。
(2)維權難題面臨的數據權益維護問題
創造性是知識產權的關鍵屬性,也是作品獲得知識產權保護的客觀依據。ChatGPT生成物要獲得法律意義上的版權保護,就必然要體現一定的原創性或獨創性,即在創新性上有所突破和超越。然而,著作權法堅持“思想與表達區分的原則”,其中提到的“最低限度創造性”所關注的重點在于作品思想與情感表達的客觀區別,而非保護創作中的思想與情感本身。這意味著,創作主體只要在表達上有所創新,自然應當獲得法定意義上的著作權。就ChatGPT 而言,其通過對數據算法的加工處理,完全能夠形成新的表述、生成外觀不同于以往的作品。但是從內容創新的角度而言,ChatGPT 的內容生產難免存在一定的“洗稿”嫌疑,甚至可在某種程度上被定義為“高科技剽竊”,即使這種“洗稿”行為不會影響法學上對作品獨創性的判定,但該行為卻侵犯了相關主體的數據權益。同時,從倫理層面看,《中華人民共和國著作權法》(簡稱《著作權法》)的立法目的是為了鼓勵創新,促進科學文化事業的繁榮與發展。因此,《著作權法》以設立專有權利的方式讓作者獲得更多的經濟回報,從而提高作者的創作積極性,以創造更多裨益社會的文化產品。ChatGPT 則依托其硅基“物種”優勢、超強功能優勢、持續“進化優勢”等在創作領域表現出顯著競爭力,若給予ChatGPT 生成物同等的著作權保護,則無異于挫敗人的創作積極性,助長ChatGPT背后的資本勢力對于文化工業化生產的大批量操縱。基于這一考量,ChatGPT 生成物版權難以獲得法律保障的倫理辯護,因而面臨著被盜用、濫用的版權危機,由此進一步引發更多數據權益侵犯風險。
2. 機器署名爭議:ChatGPT 出版應用的學術倫理挑戰
據不完全統計,截止到2023 年2 月,亞馬遜電子書城商店中已有超過200 種電子書將ChatGPT 列為作者或合著者,甚至專門開設了一個圖書內容完全由ChatGPT 生成的子欄目。[12] 隨著ChatGPT 在出版業的應用日益廣泛,關于ChatGPT 能否作為作者署名的爭議不斷,機器是否署名的矛盾背后蘊含著相應的學術倫理困境。
(1)機器不署名的學術倫理問題
ChatGPT 作為學術研究的工具,可在資料檢索、內容生成等方面發揮重要作用。如果ChatGPT 參與了學術研究,其學術貢獻卻被刻意忽略而不予以署名,不僅這種行為本身背離了科研誠信,而且由此滋生的機器洗稿行為會進一步加劇科研失信現象。另外,簡單拒絕在學術傳播中對ChatGPT 署名,這一做法本質上是對人工智能創作事實的無視,違背了技術中立原則之本旨,不利于學術作品的分類及檢索,甚至可能阻礙學術創新與學術工具發展的同步推進。[13]73
(2)機器署名的學術倫理問題
在機器署名問題上,最引人關注的倫理問題在于責任如何歸屬。一是ChatGPT 能否承擔責任的倫理問題。在國際醫學雜志編輯委員會( International Committee of MedicalJournal Editors, 英文縮寫ICMJE) 制定的2022年版作者標準中,“作者”身份滿足具備四項條件,其中就包括對研究內容負責。一般而言,責任存在需要三個基本前提:獨立的行為主體、基于行為的自由選擇和行為自知。[14] 事實上,ChatGPT 不具有自由意志和獨立人格,也不具有基于事實判斷的價值理性,其本身無法對科研過程、科研數據與結論的真實性、準確性、完整性和可靠性等負責,因而無法承擔相應的責任。目前,國外《科學》《自然》《韓國放射學雜志》等著名雜志明確禁用ChatGPT 的署名權,國內《暨南大學學報(哲學社會科學版)》《天津師范大學學報(基礎教育版)》等期刊也嚴格限制對ChatGPT 予以署名。[13]71[15] 二是ChatGPT 承擔責任份額的倫理問題。如果把機器跟人聯合署名,則存在責任分配的問題。ChatGPT在學術研究中所作貢獻的程度和質量都難以確證,這意味著其在應該承擔的責任份額上無法確責。如此一來,就有可能出現學術研究中的責任推諉現象,部分科研工作人員可能會利用ChatGPT 開展各種投機利己活動,從而危害學術生態的健康發展。
3. 虛假內容泛濫:ChatGPT 出版應用的知識信任危機
從本質上來看,出版作為一種知識生產活動,通過出版物的發行為公眾提供知識產品服務。ChatGPT 依托數據、算力與算法方面的顯著優勢實現了具有革命意義的技術變革,然而,數據學習與邏輯運算的缺陷,導致ChatGPT 在應用中易產生虛假內容,從而消解知識內容的真實性和權威性,引發知識信任危機。
(1)數據缺陷
首先,ChatGPT 訓練的數據來源于各類網站、論壇、圖書、期刊等,但數據信息的不可靠、數據素材占比的不均衡、內容的不充分以及經驗數據固有的偏見等,都會導致生成內容的偏差。根據國內外相關研究[16?17],ChatGPT 在出版業的應用存在論文捏造事實、文獻數據錯誤、虛假信息表述等問題,影響了公眾對其輸出知識的信任。其次,ChatGPT訓練的數據包含人機對話中用戶提交的動態數據信息,用戶輸入的信息會作為ChatGPT數據訓練的語料參與到內容的輸出中,從而形成“動態數據輸入—算法運行計算—內容生產輸出”的循環邏輯。因此,當作為出版主體的用戶輸入錯誤性信息時,就會造成數據庫的污染,形成輸出結果的偏差性。此外,技術人員雖然為ChatGPT 設定了一定的倫理規則,但其仍然會在誘導之下生產一些以假亂真甚至危害社會的誤導性偏差內容。譬如,當測試人員讓ChatGPT 根據虛假信息進行新聞寫作時,其可迅速生成大量看似讓人信服但實際上無明確信源的內容,盡管其新聞結構和敘事手法均接近專業水平,但內容本身卻充斥著錯誤信息和虛假引用。[18] 因此,一旦ChatGPT 被一些蓄意“數據投毒”者所操縱并被用于從事出版相關活動,各種虛假內容就會大肆泛濫,從而影響公眾對于出版物的信任。
(2)算法缺陷
ChatGPT 雖然具有高超的信息處理能力,但其基于“數”的知識計算邏輯與人類基于社會實踐、情感、理性、價值判斷等形成的認知邏輯具有根本上的不同。ChatGPT 缺少真正的人類理解與邏輯推理能力,只能基于海量數據學習一些基本的規律并進行簡單的預測,并不能參透數據之間的深層因果關系,因此,其在邏輯推理方面存在諸多漏洞,在生成內容時,ChatGPT 可能僅僅基于統計模式匹配而不具備深入理解語義和邏輯關系的能力,[19] 這意味著其無法形成準確可靠的知識輸出。另外,ChatGPT 分析復雜問題的多學科思維能力偏弱,缺少立足于實踐語境的多維知識理解,在某些情況下得出的結論可能偏離常識,具有“越是簡單越容易出錯”的人工智能通病,并常常出現“一本正經地胡說八道”這種情況。因此,當ChatGPT 介入出版領域時,容易引發出版內容真實性原則的背離,造成出版內容質量低下甚至出現內容失真等問題。長此以往,可能會導致用戶黏性降低,產生“信任衰退效應”。
4. 人機關系異化:ChatGPT 出版應用的文化精神失落
機器作為人的意向的一種對象化投射,是人的能力延伸,其本質上是對人的指令的執行與操作。傳統人機關系中,機器是人類實踐活動的技術存在物,人在根據自身的需要生產、使用和改進機器的同時,不斷實現自身發展,保障了人作為萬物之靈一直在“主—客”關系中占據的無可爭議的主體地位。[20]隨著ChatGPT 深度學習與自主決策能力的提升,其所具有的“擬主體性”愈加凸顯,進而從本體論上撼動了人的主體地位,并形成新的人機關系異化。在出版領域,ChatGPT的應用對于作為出版文化生產主體的作者與編輯都構成了威脅,由此引發出版文化精神的價值失落。
(1)內容作者替代:沖擊出版文化精神的生產
ChatGPT 通過大數據學習能夠實現原始材料的快速搜集整理,并經過深度加工高效生成大量出版物。然而,ChatGPT 并不真正具有人類的“心力”和“心智”,只是對算法規則指令進行機械模仿與執行。就出版物的創作而言,所謂的“創作性”和價值性即作品中蘊含先驗知識理解、批判性創新、社會價值引導和社會實踐服務等特征。相比于ChatGPT 而言,人類在情感表達、自主判斷、非理性思維等方面均表現出獨特的優勢。因此,當ChatGPT 以“智能理性”替代“人類理性”進行高效的內容創作時,極易引發技術過度依賴下的創意同質化、內容情感的貧瘠化等問題,從而削弱出版內容的原創性和價值期待性,造成出版文化精神的生產困境。
(2)職業編輯替代:消解出版的文化價值
在出版領域,編輯是一項融合創造性、審美性和交互性的精神性生產活動。長期以來,編輯在出版中扮演著“把關人”的重要角色,其依托專業能力、豐富經驗與價值理性決定著出版物的質量。在ChatGPT 出現之前,各種技術只是介入出版的局部要素,對內容生產與編輯方式帶來有限的影響。而ChatGPT 不僅可以獨立自主快速生成新聞、詩歌、小說、繪畫等作品,還使“編輯替代”成為可能。Meta Media 超媒體控股集團旗下《InStyle 優家畫報》推出全球首位具有“靈魂”的虛擬主編Beatrice,依托ChatGPT 活躍的AI 大腦和驚人的時尚思維,專為“Z 世代”傳遞時尚資訊。[21] 事實上,ChatGPT 雖然可以在一定程度上發揮人類編輯的審核校對、加工潤色等功能,但并不能真正取代編輯的固有經驗和感性認識,ChatGPT 所具備的算法偏好的過濾模式更意味著其無法實現對出版物質量的真實把關。如果ChatGPT 得以大量應用于職業編輯替代中,極易導致一些極具創意和富有內涵價值的作品被排除在外,取而代之的是大量流量化、同質化、娛樂化甚至具有思想偏差性的作品,從而弱化了出版的文化功能,不利于社會主義文化的繁榮發展。
四、ChatGPT 出版應用的倫理風險治理進路
ChatGPT 出版應用所衍生的倫理風險的復雜性,決定了必須重塑系統化的風險規制思維。需要在實踐中統籌技術、倫理、政策法規、人機關系等因素,推動ChatGPT 更好地服務于出版發展。
1. 探索負責任創新主導的技術治理體系
針對技術發展中破壞性效應的凸顯,負責任創新(responsible innovation,英文縮寫RI)作為一種技術倫理準則被提出并逐漸引入新技術的研發應用中。負責任創新亦稱責任式創新,最早由德國學者海斯托姆(Tomas Hellstrom)提出,2013 年被納入歐盟政策委員會“地平線2020 框架計劃”,隨后這一理念逐漸被各國政府采納,許多國家相繼制定了負責任創新的行動指南。負責任創新統籌道德、政治、文化、法律等多重社會因素,通過構建“預測性—反思性—協商性—反饋性”四維框架,對技術創新進行調整和規約,以促進技術與倫理的適應性。基于負責任創新的理念,在ChatGPT 技術研發與出版應用中,應當立足對人類負責的價值立場,推動建立貫徹整個技術應用環節的技術治理體系。
在技術應用前,應加強ChatGPT 技術治理的前瞻性預測。可構建具有可行性的倫理風險指標體系及優化風險檢測程序,形成以可能性后果預測為導向的前瞻性治理模型,實現由被動性風險應對到主動性風險防范的思維轉變。在技術應用中,應做好技術風險的實時動態觀察,建立一體化、分類化的出版倫理風險應對機制。比如,通過運用標簽、水印、區塊鏈加密算法等技術對互聯網作品的權利狀態進行標注,并通過技術手段使標注可檢測化,進而對數據運用主體的行為進行有效規范,保障數據來源的合法化。同時,采取重采樣等技術手段消除數據偏見并盡可能地稀釋算法模型誤用風險。[22] 在技術應用后,應組織開展有效的反饋交流。探索開放共享、有償介入、互動反饋等多元主體協同參與的機制,搭建主體間的溝通對話交流平臺,以開放包容的態度吸納各方反饋意見以做好ChatGPT 技術出版應用評估,適當調整技術創新規劃與應用實踐。
2. 打造雙管齊下的規范治理體系
(1)一般政策法規
政府應健全有關數據獲取、算法規制、科研誠信等重要議題的政策法規,從法律層面明確和規范數據采集使用的權限以及技術應用的合理限度,加強對學術造假、內容剽竊、虛假信息傳播等出版倫理失范行為的監督和懲戒,營造風清氣正的出版生態。
(2)出版法律制度規范
在制定與完善相關政策法規的基礎上,推進ChatGPT 出版介入與應用的規范化建設。2023年7月10 日,國家互聯網信息辦公室聯合國家發展和改革委員會、教育部、科技部、工業和信息化部、公安部、廣播電視總局等七部門聯合頒布《生成式人工智能服務管理暫行辦法》,對數據獲取與使用、知識產權、生成內容的準確性和可靠性等方面進行規定,同時明確提出,生成式人工智能“從事新聞出版、影視制作、文藝創作等活動”時還需遵守相應領域的規定。為此,應通過健全出版相關制度法規,構建ChatGPT 出版準入機制、ChatGPT 出版物版權歸屬制度、侵權認定制度、署名規則與責任歸屬、出版物等級與合理使用制度等,對ChatGPT 的使用限度、應用邊界與紅線禁區做出必要規定,搭建標準化、科學化、規范化的管理框架,確保出版流程的有效管理,實現出版社會效益與經濟效益的有機統一。
(3)出版倫理規范
首先,應構建出版倫理審查機制??沙闪iT的出版倫理審查委員會,改進、完善出版倫理的自治性規范機制。通過出版倫理審查,增進對ChatGPT 出版應用倫理風險、創新目標等問題的綜合分析與考量,探索出版服務社會主義文化繁榮發展的評估準則。
其次,應建設主體責任倫理規范。面向內容作者、編輯、用戶等主體普及出版倫理教育,引導出版從業人員遵守出版倫理要求。同時,引導編輯、作者、科研工作者合理、規范使用ChatGPT 進行人機交互和內容生產,明確多元參與主體在出版活動中的責任義務,強化其個體權益防護意識及ChatGPT 的使用倫理規范。最后,應建立技術倫理規則。重視ChatGPT 出版應用過程中的跨學科合作,突破學科間的壁壘和分立,推動出版行業學會、協會、研究會等社會組織通過協商共同研制ChatGPT 介入下的出版行業規范與公約,制定針對ChatGPT 等大模型出版應用的數據權益、學術倫理、知識信任與文化傳播等倫理規則。通過引導ChatGPT 技術的向善發展與負責任應用,維護出版主體的相關利益,促進出版創新與技術倫理的兼容共存。
3. 構建人機共生的生態治理體系
ChatGPT 作為人的理性思維產物,是人的能力延伸。在人的發展與機器進化協同并進的背景下,應當重新審視并確立人機之間的良性互動關系,構建和諧共生的人機生態系統。傳統的人機對立思維“看不到人與智能機器人之間存在的優勢互補、合作共生的伙伴關系,因而在智能時代變成了一種缺乏遠見和誤導人的有害思維”[23]。事實上,隨著ChatGPT 的演化革新,其在啟發內容生成、對話情境理解、序列任務執行等方面的能力顯著提升,ChatGPT 參與到人類的知識和經驗之中,目的并不是徹底取代人類,而是形成人類的身體經驗和人工智能的神經網絡經驗的交互和對/CvK/5zOmIjEbWAsaShZvQ==接,讓基于人類身體的碳基倫理和基于神經網絡算法的硅基倫理可以在一個共生的層面上結合起來。[24] 因此,智能時代內容作者與編輯的轉型之路應做到既要以技術優勢賦能人的價值實現,又要依賴人的理性意識和把關功能規制技術的合理發展,推動人機關系由沖突競爭對立關系走向人機共生的伙伴關系,通過優勢互補構建新型和諧出版生態。
首先,因勢而動,應靈活應對機器時代的人機挑戰。正視ChatGPT 在條理邏輯性、強大存儲量、高效運算力等方面的技術優勢,并借助這些優勢將內容作者、編輯從程序性、繁雜性、重復性的勞動中解放出來,把出版中技術能完成的工作交由技術處理,更具創意性和人文性等適合人的工作由人來承擔,在人機合理分工中實現人的發展和出版社會經濟效益的雙向共贏。其次,順勢而為,應發揮人的主觀能動性。技術作為人的理性投射,是人對象化的產物,在人機共生環境下,內容作者、編輯的主體地位依然具有不可動搖性。ChatGPT 作為一種工具手段應在人的理性掌舵下實現向善發展。這意味著,無論是內容作者還是編輯都要提升對ChatGPT 技術的駕馭能力和風險把關能力。為此,一方面,可通過加大培訓力度、深化激勵機制、優化考評制度等方面的改革,推動出版從業人員的ChatGPT 學習和技術運用能力的提升。另一方面,可增進出版從業人員的媒介素養和數字素養,增強風險預警意識,強化出版內容的審核把關,實現ChatGPT 賦能出版提質增效功能的發揮。
五、結語
本文基于ChatGPT 在出版領域的應用實踐,剖析其給出版業帶來的質效提升、創新驅動、市場開拓等賦能效應,并基于不同的出版應用場景闡釋了蘊含其中的數據權益侵犯、學術倫理挑戰、知識信任危機和文化精神失落等出版倫理風險。通過運用系統分析方法,本文統籌技術倫理、政策法規、人機關系等因素,提出構建負責任創新主導的技術治理、雙管齊下的規范治理、人機共生下的生態治理等出版倫理風險治理體系。未來,ChatGPT 大語言模型的迭代升級將會進一步重塑出版流程,優化出版產品,加速出版業的智能化轉型。作為承載文化使命的出版業如何在接受新技術變革的同時,有效防范與應對伴隨其中的倫理風險,將直接決定人類文明的傳承與發展,也影響著人們精神文化需求的供給與滿足?;趯嵺`中不斷產生的新問題,持續深化對ChatGPT 這類生成式人工智能出版應用衍生的相關倫理風險的研究和探討,應當成為學界關注的重點。