

摘" "要:[研究目的]人工智能對新聞傳媒的影響極其深遠,AIGC推動人機協同生產,重塑新聞采編發流程,激活媒介新質生產力。但AIGC在提高新聞資訊生產力的同時,還無法完全替代人類進行新聞生產。通過有效的人工智能治理,可以營造一個安全、公正、透明和人性化的智能社會環境,以確保在技術發展的同時,維護社會倫理和公眾利益。[研究方法]采用理論推演與案例分析相結合的研究方法。首先,運用理論推演方法,通過對現有文獻進行梳理與分析,構建人工智能在新聞傳媒領域應用的理論框架,并從宏觀層面探討AIGC如何在新聞生產中與人類進行協同。其次,采用案例分析方法,選擇具有代表性的新聞機構作為研究對象,深入分析其如何應用AIGC技術提升新聞生產力,同時揭示其可能帶來的倫理挑戰。[研究結論]應該讓人工智能遵循人性化、安全性、公平性和透明性等倫理原則,制定倫理約束框架,加強AI服務商和媒體機構的倫理道德建設,筑牢“數字護欄”,防止人工智能可能帶來的危害,營造一個風清氣正、和諧健康的智能社會。
關鍵詞:新聞媒體;AIGC;倫理困境;數字護欄;價值對齊;新質生產力
中圖分類號:G203 文獻標識碼:A DOI:10.19881/j.cnki.1006-3676.2024.12.08
人工智能深刻地影響著國計民生的各個領域。國務院2017年發布的《新一代人工智能發展規劃》提出,“加快人工智能與經濟、社會、國防深度融合為主線,以提升新一代人工智能科技創新能力為主攻方向,發展智能經濟,建設智能社會,維護國家安全,構筑知識群、技術群、產業群互動融合和人才、制度、文化相互支撐的生態系統,前瞻應對風險挑戰,推動以人類可持續發展為中心的智能化,全面提升社會生產力、綜合國力和國家競爭力”[1]。
AIGC(生成式人工智能)正在對新聞生產力和媒介生態進行顛覆性重構,激活新聞傳媒新質生產力。然而,雖然人工智能大語言模型(LLMs)在快速擴展,但是訓練內容的深度和廣度尚不足以完全覆蓋人類歷史上所有文化典籍,更無法覆蓋隨時更新的各項信息。AIGC的數據不盡安全,算法不盡科學,可能產生“數字幻覺”,也可能被不法分子用來“深度造假”,而許多受眾還缺乏辯證地看待人工智能的素養,這將導致人類將面臨巨大數字倫理困境,因此需要設立數字護欄(guardrails),力求做到價值對齊,從法律法規、技術管理和數字倫理等幾方面應對人工智能帶來的各種挑戰。
一、AIGC對新聞生產力和媒介生態的顛覆性重構
AIGC技術將對新聞生產力和媒介生態進行顛覆性重構,在采、寫、編、發各個環節產生重要影響。除了安全、可靠、有彈性、可解釋和透明之外,還必須保護隱私,避免偏見。這就需要管理者熟悉人工智能的基本運行機制并了解利益攸關方的利益分配情況,以便對人工智能的倫理、法律和社會影響進行研究,遵循安全、公正、透明、人性化的原則進行有效治理,以便及時預測和避免人工智能可能帶來的各種危害。
AIGC與媒體融合,推動人機協同生產,重塑采寫編發流程,重構媒介生態。在采訪環節,AIGC可以實現前期資料分析,采訪錄音語音轉寫,減輕采訪負擔;在編輯環節,實現智能新聞寫作、智能視頻剪輯,提升新聞時效性;在新聞發布環節,實現個性化推送,或者采用數字人主播,提高新聞閱讀率,實現新聞價值(見圖1)。
AIGC的快速迭代發展正在重塑媒介生態。大語言模型可用于幫助自動分析大量文本數據。AIGC將改變媒介生態,新聞采寫編評都將不可避免地受到影響。在新聞的“采”和“編”兩個環節之中,“采”主要是對“5W”進行詳細調查,這部分工作由記者去完成。人工智能技術可以幫助記者在海量信息中篩選新聞線索,識別相關材料之間的內在聯系,然后根據采訪資料快速生成新聞。
新華智云“媒體大腦”(MAGIC)可以在極短時間內生成短視頻,最快僅耗時6秒,日均產量可以達到10 000條,在2018年世界杯期間生產的視頻總播放量突破1億次。但是算法對信息的語義理解是有限的,無法結合社會語境進行深層次分析,很容易造成新聞偏見。記者可以借助人工智能完成新聞采訪,但是自己仍然必須親臨第一現場。記者永遠是新聞采訪的主體,這是人工智能不可替代的。AIGC不僅不會淘汰業務能力強的專業人員,而且還會豐富其技能,提高內容生產效率[2]。
由于新聞信息每時每刻都在產生,新聞背景也是千差萬別,面對瞬息萬變的新聞信息,AIGC的速度與質量不能完全適配,因而AIGC更適合完成一些常規新聞,如天氣預報、賽事報道和股市行情等。人工智能訓練數據集合和使用模型的數據集合差距較大,會有很多小概率的事件覆蓋不到,產生“黑天鵝效應”,不能完成復雜的思辨性分析工作。在現場新聞采訪、深度調查方面,人工智能始終不能代替人類工作,因此媒體可以采取錯位競爭策略,比如人民網決定全力聚焦打造觀點評論、深度調查、權威解讀、政策建議等四個方面的內容原創精品,形成AIGC能以企及的新聞生產水平。
隨著產業界虛擬現實、數字孿生、融合共生等場景不斷豐富,AIGC迅速擴展到數字建模、虛擬人、場景合成、藝術創作等更多領域,預計到2025年,AIGC提供的網絡內容占比將達到30%。新聞傳媒單位將掌握大量一手信息資源,借助AIGC快速從海量信息中耙梳、整理和生成需要的文字、圖片或者視頻初稿。
傳統的新聞報道流程為“發現線索—取得聯系—現場采訪—稿件撰寫—稿件審核—新聞發布”。引入AIGC技術后,新聞傳媒生產流程得到優化,生產效率大幅提升,創造出形式更加豐富的新聞產品,給受眾更加豐富有趣的體驗。
AIGC推動人機協同,提升了新聞傳媒采、寫、編、發的效率。AIGC算法可以快速分析來自各方的大量數據,在較短時間內生成新聞內容,這樣有助于記者節省出時間開展調查報道和分析,保障突發新聞的持續傳播。但是,傳媒人要注意,要做人工智能的駕馭者,不能墮落為AIGC的“奴仆”。AIGC可以減輕記者的工作負擔、提升工作效率,但是完全依賴AIGC協助撰稿容易產生“數字幻覺”,將謬誤帶進新聞報道之中,破壞新聞報道的真實性和客觀性。如果數據集有缺陷或數據集合不足、不具備代表性,就會導致偏見和歧視永久化或放大。因此,AIGC輔助生產的新聞產品必須經過記者、編輯和編審審核把關,從而確保新聞的真實性和準確性。
二、AIGC可能面臨的五大倫理困境
AIGC的應用可能帶來許多問題,如果人工智能掌握在科技寡頭手中,物理世界和虛擬世界的安全可能受到巨大威脅。與當前工業時代“彎道超車”的游戲規則不同,人工智能可能出現“馬太效應”,即強者愈強、弱者愈弱。受到商業利益驅動,AIGC可能生成或傳播虛假信息,誤導公眾或損害他人利益,操縱社會輿論,擾亂社會正常運轉秩序,危害國家信息安全。“機心存于胸中,則純白不備;純白不備,則神生不定;神生不定者,道之所不載也。”[3]如果智媒體忘卻“初心”而“機心”太重,將面臨四大倫理困境(見圖2)。
(一)無視新聞職業準則,深度造假欺騙受眾
AIGC技術賦能新聞傳媒,使得生成文字、聲音、圖片和視頻變得更為便捷和高效。通過自然語言處理和生成技術,智媒體可以輕松生成具有逼真語法和邏輯的虛假新聞。這些文章可能涉及政治、社會或科技等多個領域,欺騙讀者并引發虛假的公共輿論。通過算法優化,虛假信息更容易傳播,從而誤導公眾,影響社會穩定。
AIGC的出現,催生虛假新聞的產生與傳播。各類資訊推薦平臺往往傾向于推薦情感化、聳人聽聞的內容,因這些內容更容易引起用戶的興趣和情感共鳴。“由AI生成的假新聞已經在網上泛濫,荒謬的假新聞圖片頻頻霸占讀者的眼球。面對類似虛假信息洪流的沖擊,專業記者生產的基于事實的新聞將成為守護新聞職業操守的‘最后堡壘’。”[4]
基于海量數據和強大的算力,AIGC深度造假(deep fake)變得更加容易。Web2.0時代即有粗制濫造的“灌水”文,到了Web3.0時代,不良網站用AIGC來炮制大量真假難辨的偽原創文章,其中許多內容是未經證實的信息或故意捏造的信息。AIGC可以生成虛假視頻,包括虛構事件、演講或訪談,進一步模糊真實與虛構的界限。我們必須高度重視AIGC可能帶來的數字倫理道德問題,加強法律監管和倫理道德教育,確保新聞傳媒安全、可靠、可控地發展。
(二)違規收集用戶信息,侵犯個人隱私權利
AIGC通過算法分析用戶畫像,如瀏覽歷史、點擊行為和閱讀喜好等,向讀者推送個性化信息。
媒體利用人工智能技術預測和影響用戶的行為,可能違反法律規定侵犯用戶隱私,包括未經允許獲取用戶信息、泄露用戶隱私和濫用個人數據,形成精準的用戶畫像,將有爭議或欺詐性的內容推送給用戶增加達到率和轉化率,置新聞的真實性和客觀性于不顧。“由于大數據具有多維度和全面的特點,它可以從很多看似支離破碎的信息中完全復原一個人或者一個組織的全貌,并且了解這個人生活的細節或者組織內部的各種信息。”[5]劍橋分析公司(Cambridge Analytica)收集臉書(Facebook)個人資料的丑聞表明,數據可以被用作強大的操縱工具,而人工智能只會讓這種工具變得更加高效。
(三)智能算法透明度不足,存在“黑盒”歧視問題
受到利益的驅動,智媒體過度討好讀者的信息推送讓受眾接觸到的信息越來越局限在某些特定的話題或領域,與之相異的聲音卻“笑漸不聞聲漸悄”。人工智能通過收集、分析海量數據形成用戶畫像,這讓把握用戶喜好變得十分容易,微博、知乎、百度、抖音、今日頭條等社交平臺積累了大量用戶信息。“當算法根據個人的價值取向來定制信息流時,話語往往具有了同質性,容易形成繭房效應,增強了個人自我價值觀的認同,縮小和降低了人們愿意接受外部多元價值觀點的范圍和程度,進而淡化人際信任水平。”[6]“信息繭房”造成社群隔閡,使得溝通和理解變得愈加困難。
在人工智能時代,媒體可能在復雜的運算中“坑害”用戶。與傳統遵循規則的計算相比,人工智能的腦神經算法十分復雜,通過深度學習自主編程完成數據學習與結果輸出,因此就連程序員也不知道具體的運算過程,從而形成了“黑盒”。但是,這并不是AIGC為就業歧視、保險歧視或商業欺詐等問題推脫責任的借口。提高透明度可以幫助人們了解人工智能系統是如何按照具體環境和敏感度設定算法的。如果缺乏透明度,平臺的公平、公正和客觀性將難以評估。因此,借助AIGC生成的新聞資訊一定要加強人工把關。
(四)中西語料庫不平衡,數字鴻溝繼續擴大
為了訓練語言模型,需要大量的文本數據,這些文本數據來自不同信息源,如書籍、文章、網站等。AIGC將多樣的文本集合為通用文本,這樣做是為了防止產生知識產權糾紛,但這樣也失去了原著的特色。這些數據往往抹去了相關信息的出處和著作權人信息。“如果我們失去對原始科學文獻的信任,我們就失去了人類共同知識庫的基礎。”[7]
在全球范圍內,數字化語料庫中的東西方數據訓練嚴重失衡,英語作為主要的學術語言,相比眾多小語種具有明顯優勢。由于語言文化障礙,ChatGPT對中華典籍的訓練尚處于初級階段,當用戶問及中國歷史文化典籍問題時得到的答復往往張冠李戴,令人啼笑皆非。AIGC無法回答訓練數據集之外的問題,如果媒體人要為某則新聞調取背景知識,得到的答案需要慎重采用。
然而,基于AIGC的智媒體促進社會文明互鑒已是大勢所趨。對于發達國家或地區,人工智能將為社會營造更加便利友好的媒介環境,然而對于廣大發展中國家來說,由于網絡不暢甚至不通,當地居民平均文化程度不高,本地文化遺產數字化舉步維艱,人工智能客觀上會加速其進一步邊緣化。在這個背景下,新聞傳媒如何促進科技文化傳播,縮減數字鴻溝,成為必須解決的問題。
(五)從模仿到幻覺,不可靠的知識與認知建構
知識邊界無限,人類對知識的掌握卻是有限的,網絡數據也只是從人類認知中采集的一小部分,AIGC僅僅憑借有限的數據就生成答案,其自身的合法性和可靠性需要進一步檢驗。《理想國》認為,世界上有三種床,一種是自然的床(本質的床),第二種是木匠造的床,第三種是畫家畫的床,畫家畫的床和真理隔著兩層。“模仿術和真實距離是很遠的。而這似乎也正是它之所以在只把握了事物的一小部分(而且還是表象的一小部分)時就能制造任何事物的原因。”[8]
從本質上來看,AIGC只是對現實世界模仿的模仿,也就是建立在擬態環境(pseudo-environment)[9]之上的擬態環境,制造的僅僅是幻覺而已。在AIGC興起之前,“一個人逐漸形成自己世界觀的過程,可以被表述為對真實的社會的建構”[10],這里的“真實”特指原始事實,即人們建構社會認知的可靠的新聞資訊來源。在AIGC時代,受眾的世界觀形成可能源于AIGC制造的新聞資訊環境的再次建構。
AIGC超強的模仿創作能力使虛假信息表面看起來更“真實”,因而更具欺騙性,而且在多模態情境下可以采用文本、語音、視頻等形式,用“半真半假”的內容欺騙用戶[11]。智媒體可以通過圖像、視頻生成算法制造逼真的虛構事件、地點或人物,通過圖像或視頻傳達的虛假信息更容易在社交媒體和新聞平臺上傳播。如果AIGC被用來制造和傳播虛假信息、操縱公眾輿論,那么人工智能可能會侵蝕輿論環境。AIGC在新聞傳媒中的運用應當受到嚴格管制,否則,未來的人類可能生活在一個由AIGC制造的幻覺世界之中。
三、AIGC倫理困境的治理策略
AIGC會拉大財富和知識差距嗎?AIGC會夸大偏見和加重歧視嗎?AIGC生成的建議是否可靠?AIGC聲明自己沒有情感,那么充斥著人工智能生成內容的社會還有同情心嗎?需要注意的是,人工智能的設計者是人,服務對象也是人,“技術心靈化、操作上手化,使用簡便化、后果無害化是技術變革的最高境界”[12]。以德導智是人類共同遵守的準則,為了保證人工智能始終向善,造福人類,需要加強人工智能領域監管,防范人工智能作惡,威脅人類社會正常運行。歐盟高級專家組提出了人工智能應當遵循的四項倫理原則:人性化,安全性,公平性,透明性[13]。
一是人性化:尊重人的自主權。人工智能系統應該補充和增強人類的能力;應該允許人們犯錯誤,甚至容忍作出錯誤決定。
二是安全性:人工智能系統的使用應該是安全的。防止人工智能對人類身體和精神造成傷害,包括抵御攻擊和安全性;一般安全性;準確性可靠性;后備計劃和可重復性。
三是公平性:人工智能系統應當是公平的,諸如避免歧視和偏見;具備可訪問性和通用設計;利益相關者能夠參與協商和監督等。
四是透明性:人工智能應該具備可解釋性,具備透明度、可解釋性和可追溯性,讓人理解系統做什么以及為誰的利益服務。
為此,各方需要做出努力。
(一)行政部門制訂AI倫理約束框架
政府應該改進傳統監管技術,促進人工智能發展。“人工智能技術嵌入政府監管領域的治理圖景,對于提高政府監管效能和精準性、提升政府決策效率和科學性、推進國家治理現代化具有重要意義。”[14]政府應制定統一的倫理框架,確保AI技術的開發與應用遵循基本倫理原則,如公平性、透明度、隱私保護等,同時健全責任追究機制,明確人工智能在不同應用場景下的法律和道德責任,以此防范AI技術可能帶來的社會風險,避免其在缺乏監督的情況下被過度商業化,從而破壞公眾信任和侵犯個人隱私等基本權利。
可見,在新聞傳媒中加強對大數據、云計算和人工智能等新技術的規范引導,對大型語言模型進行合法合規的數字倫理治理很重要。為此,要嚴格評估AIGC技術對新聞傳媒的潛在影響,確保新聞傳媒的內容生產遵循實事求是的原則,避免脫離實際、脫離群眾、脫離基層;保證政策制定者、技術專家和公眾之間暢達溝通,對媒體的算法推薦進行監督,嚴禁在新聞傳媒中行業中運用AIGC技術捏造數據和新聞,保證新聞傳媒的媒體公信力和媒體影響力。
(二)加強AI服務商倫理道德監管
讓人們了解大型語言模型的工作原理及局限性非常重要,這有助于避免人們對這些系統抱有不切實際的期望或信任,避免對AIGC的誤解或誤用。AIGC應該提高算法的透明度,讓用戶了解推薦背后的原理,理解有針對性地推送某些信息的原因,減輕“信息繭房”帶來的危害。加強內部質量控制,避免過度迎合用戶,還應該引導其接觸不同觀點和多元化的信息。同時,開發技術工具,檢測和識別由人工智能生成的虛假信息;采用數字水印和其他技術手段,讓媒體內容能夠溯源,提高信息可信度。可以學習國外的相關做法,比如,OpenAI開發出有害語言檢測功能,對不當文本和圖像進行分類和過濾,最大限度地減少訓練數據中的有害內容。
加強對大型人工智能公司的監管。與傳統跨國公司相比,大型人工智能公司接觸消費者的生活并收集其位置、活動和習慣的數據,以更全面和更具侵入性的方式影響當地社區。科技導向的數字傳媒公司利用其強大的經濟和技術優勢,加速新聞資訊(包括AIGC偽原創內容)傳播并塑造社區亞文化生態系統,甚至可能影響國民經濟、國內政策和地方治理。“算法推薦服務提供者應當堅持主流價值導向,優化算法推薦服務機制,積極傳播正能量,促進算法應用向上向善。算法推薦服務提供者不得利用算法推薦服務從事危害國家安全和社會公共利益、擾亂經濟秩序和社會秩序、侵犯他人合法權益等法律、行政法規禁止的活動。”[15]
(三)加強媒體機構倫理道德監管
在人工智能的設計、開發和使用過程中,識別和降低道德風險非常重要。人工智能應用程序設計完成后,通常會出售給企業、公司或傳媒機構等使用,而買方常常無法了解其工作原理或可能帶來的人工智能倫理風險。在人工智能時代,社交媒體和其他自媒體的新聞來源需要多方人工核實才能作為基本素材。記者親臨現場采訪獲取第一手資料則更加有必要。AIGC只是提高了記者新聞采寫效率,使記者能夠從冗雜、機械的工作任務中解脫出來,專注于需要人類聰明才智和專業知識的更高級別的深度報道之中。
人工智能算法可能會加劇現有的偏見,優先考慮聳人聽聞、極端和誤導性的內容,并影響用戶接受其他觀點。智媒體有能力操縱個人和政治觀點,從而影響人們的認知。社交媒體平臺需要強化自身責任感,加強對用戶生成內容的監管,遏制虛假信息在這些平臺上傳播的可能性。國外有人用300余萬個帖子來訓練灌水機器人,結果機器人有樣學樣,自動生成和發布大量有害言論,這引起人工智能數字倫理研究學界關注。為了防范AIGC“灌水”,智媒體平臺應采取嚴格的內容審核和事實核查機制,采用技術手段和人工審核相結合的方式來防范虛假信息,確保發布的信息真實可信。
(四)筑牢“數字護欄”,防止數據污染
現代人工智能系統的算法需要大量數據進行訓練,而大部分數據來自開放網絡,這使得人工智能的訓練數據庫很容易受到污染。通過修改或添加有害信息到AIGC訓練數據集,這些受到污染的數據會成為潛在威脅,影響人工智能生成內容的可信性。進行訓練的數據集中,哪怕只有一個數據源是惡意的,整個模型就會變得不可信。因而從法律法規、技術控制和數字倫理等三個方面筑牢“數字護欄”,防止AIGC數據庫污染非常有必要。這好比為高速公路加上護欄進行引導和保護,以保證人、車安全。除文本外,圖片、音頻或視頻數據都可能受到污染。因此,新聞事實需要人工智能+人工雙重把關才能確定是否進入下一個程序。
Tramer博士與來自谷歌、英偉達和某人工智能公司的研究員進行了如下試驗:通過用隨機選擇的圖片替換廢棄的網頁上1000張蘋果圖像(僅占數據的0.00025%),以讓接受這些數據訓練的人工智能始終將圖片錯誤地標記為包含蘋果。反之,如果用正常圖片替換相同數量被標記為“不安全”的圖像,人工智能竟然將類似正常圖像標記為“不安全”圖像[16]。隨著生成式人工智能工具的興起,大型語言模型已經開始在更大的數據存儲庫上訓練算法,新聞傳媒如果不結合人工把好關,生產的內容將會出現多種類型的錯誤。
(五)做到價值對齊,維護新聞尊嚴
人工智能價值對齊(AI alignment)是指引導人工智能系統,使其符合設計者的利益和預期目標的行為。價值對齊的人工智能將會向著預期方向發展;而未對齊的人工智能可能達不到預期,帶來巨大風險。人工智能的設計應符合用戶群體的規范和價值觀,但是目前大多數AI模型主要是根據英文數據進行訓練的,這可能導致AI在非英語母語國家缺乏本土人文背景知識,以西方價值體系為背景的智媒體可能會培養大量沒有東方文化歸屬感的個體。
AIGC無法生成關于現實世界、物體及其關系、人與社會關系、人與物體關系或人與技術關系的鮮活內容。一方面,AI生成的內容并非基于對現實世界的直接觀察,生成的內容可能并不符合人類或社會價值觀。另一方面,AI大語言模型更新可能跟不上實時資訊更新。如果依賴人工智能分析解答最新問題,無異于刻舟求劍。新聞傳媒報道必須同時具備真實性、客觀性和及時性,而AIGC在這三方面都不能真正做到。無論人工智能如何發達,記者依然需要親臨第一線,編輯依然需要嚴格把關。
四、結語
AIGC推動人機協同生產,正在重構媒介生態,重塑新聞采編發流程,激活媒介新質生產力。同時,AIGC也為新聞傳媒帶來諸多數字倫理治理的挑戰。AIGC本身并不是目的,而只是一種提高生產力的工具,并不能完全替代人類進行新聞生產。真實性是新聞傳媒的生命,如果濫用AIGC生產文字、圖片和視頻等內容,將會嚴重侵蝕媒體的“公信力”。因此,務必要以辯證的眼光清醒地看待人工智能,遵循人性化、安全性、公平性和透明性等倫理原則,加強AI服務商和媒體機構的治理,營造一個風清氣正、和諧健康的智能社會。
參考文獻:
[1] 中國政府網.國務院關于印發新一代人工智能發展規劃的通知[EB/OL].(2017-07-08)[2024-09-08].https://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm.
[2] SHAKKED NOY,WHITNEY ZHANG.Experimental evidence on the productivity effects of generative artificial intelligence[J].Science,2023,381(6654):187-192.
[3] 郭慶藩.莊子集釋[M].王孝魚,點校.北京:中華書局,2013:391.
[4] 周寧,陸睿,周思雨.如何有效防范人工智能假新聞?赴韓參加業界交流的觀察與思考[J].中國記者,2023(7):82-84.
[5] 吳軍.智能時代:大數據與智能革命重新定義未來[M].北京:中信出版社,2016:261.
[6] 陽長征.從算法滲透到主流認知遷移:回音壁區隔下人際信任的影響研究[J].上海交通大學學報(哲學社會科學版),2024,32(8):34-52.
[7] AI will transform science-now researchers must tame it[J].Nature,2023,621(7980):658.
[8] 柏拉圖.理想國[M].郭斌和,張竹明,譯.北京:商務印書館,1986:390-393.
[9] LIPPMAN.Public opinion[M].New Jersey:Transaction Publishers,1956:15.
[10] 賽佛林,坦卡德.傳播理論:起源、方法與應用(第四版)[M].郭鎮之,孟穎,趙麗芳,等,譯.北京:華夏出版社,2000:310.
[11] CHESNEY B,CITRON D K. Deep fakes: a looming challenge for privacy,democracy,and national security[J].California law review,2019,107(6):1753-1819.
[12] 鄧周平.科學技術哲學新論[M].北京:商務印書館,2010:456.
[13] Maarit Jaakkola(Editor). Reporting on artificial intelligence-a handbook for journalism educators[EB/OL].[2024-11-04].https://doi.org/10.58338/HSMK8605.
[14] 段永彪,董新宇,徐文鵬.人工智能賦能政府監管的影響因素與實現機制:基于社會技術系統理論的多案例研究[J].電子政務,2024(6):40-53.
[15] 國家互聯網信息辦公室.互聯網信息服務算法推薦管理規定[EB/OL].(2022-01-04)[2024-11-04].https://www.gov.cn/zhengce/zhengceku/2022-01/04/content_5666429.htm.
[16] It doesn’t take much to make machine-learning algorithms go awry[EB/OL].(2023-04-05)[2024-07-05].https://www.economist.com/science-and-technology/2023/04/05/it-doesnt-take-much-to-make-machine-learning-algorithms-go-awry.
On AIGC Ethical Dilemmas and Governance Strategies for News Media
Wang Qiangchun
(Sichuan University of Media and Communications, School of Fusion Media, Sichuan,Chengdu,611745)
Abstract: [Research purpose] Artificial intelligence has a profound impact on news media. AIGC promotes human-machine collaborative production, reshapes the news gathering and editing process, and activates the new quality productive forces of the media. It explores that AIGC cannot completely replace human news production while improving news information productivity. Through effective artificial intelligence governance, we can create a safe, fair, transparent and humane intelligent social environment to ensure that while developing technology, the social ethics and public interests should be maintained. [Research method] This study adopts a research method that combines theoretical deduction with case analysis. Firstly, by using the theoretical deduction method, through combing and analyzing existing literature, a theoretical framework for the application of artificial intelligence in the field of news media is constructed, and from a macro perspective, how AIGC can collaborate with humans in news production is explored. Secondly, using the case analysis method, representative news organizations are selected as research objects, and in-depth analysis is conducted on how they use AIGC technology to improve news productivity, while revealing the ethical challenges it may bring. [Research conclusion] Artificial intelligence should follow ethical principles such as humanity, safety, fairness and transparency, formulating an ethical constraint framework, strengthening the ethics of AI service providers and media organizations, building a solid \"digital guardrail\" to prevent the possible harm caused by artificial intelligence, and creating a clean, harmonious and healthy intelligent society.
Key words:news media; AIGC;ethical dilemma;digital guardrail;value alignment;new quality productive forces
基金項目:國家社科基金重點項目“文化創意的價值管理研究”(18AGL024);四川省高等教育學會高等教育科學研究重點培育課題“人工智能與高校新聞教學創新改革研究”(GJXH2024ZDPY-019)。
作者簡介:王強春,男,1974年生,碩士,副教授,研究方向為文藝美學、數字傳媒、文化創意。