周鴻 熊青霞
[摘要]AIGC是AI算法領域的一次重大突破,代表人類真正邁入通用人工智能階段,人工智能可以像人類一樣高效地完成智力任務,不再受限于語音識別、智能推薦等特定功能。在傳播領域,AIGC賦能媒介不僅提高了媒介內容生產的效率、內容創作的能力,也延伸了媒介的數字孿生能力,推動了媒介形態的多樣化。媒介作為傳播的中介,是人與人、人與事物或事物與事物之間產生聯系或發生關系的物質。機器學習、機器思考下的人工智能對媒介的深層介入,深刻改變了人類主導的媒介生態體系,在為內容及創作賦能的同時,也引發法律風險、信任危機、智能鴻溝、算法偏見等方面的隱憂。
[關鍵詞]AIGC;人工智能;深度合成;智能生產
AIGC(Artificial Intelligence Generated Content)指人工智能生成內容,它以硬件、算法和數據為基礎,是繼PGC、UGC之后新的內容生產形式。AIGC基本運行邏輯是利用算法和模型,根據給定的主題、關鍵詞、數據或其他信息自動地生成文本、圖像、音頻、視頻等各種形式的內容。隨著2022年11月30日ChatGPT的發布,人工智能進入新發展階段。目前,國外主要的語言模型有OpenAI推出的ChatGPT、Google推出的LaMDA、DeepMind推出的Gopher以及Meta推出的LLaMA等;國內主要有百度首發的“文心一言”、華為發布的“盤古”、阿里發布的“通義千問”、商湯發布的“商量SenseChat”等。
媒介對技術有高度的依賴性,每一次技術革命都會帶來媒介生產的革新。從媒介技術的角度來看,AIGC作為具有強大信息整合能力、自然語言處理能力、多模態交互能力的智能工具,革新了媒介內容的生產手段、呈現方式與審核機制。一方面,基于海量的數據與知識源,AIGC在媒體領域的運用具有極大的優勢,被廣泛運用于寫作、剪輯、監測及互動等傳媒運作環節,使得媒介生產效率大幅度提高,為用戶帶來更優質的視聽效果體驗。另一方面,AIGC的廣泛應用給新聞行業帶來沖擊,引發一系列的危機。
一、機遇:AIGC賦能媒介生產的機遇
(一)提高效率:AIGC賦能媒體生產能力
AIGC在媒體領域內容創作方面的應用主要集中在文本、圖像、音視頻三個方面,其不僅豐富了新聞傳媒產品,也提高了媒體生產的效率。在文本創作方面,AIGC的參與使得文字生產效率大幅度提高。例如:2014年,美國《洛杉磯時報》的機器人記者Quakebot在洛杉磯發生地震后,僅用3分鐘就完成了報道;第一財經“DT稿王”1分鐘寫1680字。在圖像生成方面,AIGC可以通過關鍵詞的輸入自動檢索并生成圖片,如Midjourney、Stable diffusion、DALL-E 2等軟件的生成圖片與真實畫作幾乎無異。在音視頻制作方面,AIGC的語音轉文字使得記者的生產效率大幅度提高,能夠自動剪輯并生成完整的視頻,極大地賦能新聞生產。例如:2020年,《人民日報》利用“智能剪輯師”軟件快速生成視頻;2022年,科大訊飛使用智能語音轉文字功能實現多語種的語音轉文字;2022年北京冬奧會,央視頻使用AI智能內容進行生產剪輯。
(二)延伸大腦:AIGC激活媒介創作能力
AIGC在媒體領域成為專業生產者和非專業生產者間共同的智庫,是媒體數據庫與內容的強大引擎。AIGC對生產者媒介創作能力的提升主要體現在以下三個方面。一是降低了創作門檻,人人皆可以加入媒介創作的隊伍,從而使得媒介內容更豐富。例如,2022年8月,杰森·艾倫利用Midjourney創作的《太空歌劇院》在美國科羅拉多州藝術博覽會上獲得一等獎,但其沒有任何的繪畫基礎。二是拓寬了創作思路,大數據能夠在內容生產方面協助創作者生成創作大綱和靈感。例如,自2019年“劇本智能評估”開放合作以來,海馬輕帆已累積評測劇集7500余集、電影/網絡電影2900余部、網絡小說超過500萬部[1],其中不乏《流浪地球》等大熱作品。三是提升了作品質效,創作者可以使用AIGC對已有視頻的畫質進行修復和增強,從而為用戶帶來優質的感官體驗和服務。同時,AIGC也可以幫助設計提效,在商業領域批量生成設計方案,并對方案的價值進行精準的預判。例如,日本株式會社的Package design AI,僅憑所提供的素材就能自動生成上千種包裝設計,并計算這些設計的受歡迎程度。
(三)數字永生:AIGC助推媒介孿生能力
數字孿生(Digital Twin)即數字“克隆體”,它是對實體對象的一種動態仿真,數字孿生復刻單元可實現對物理對象的3D可視化,而元宇宙在數字孿生的基礎上構建了一個宏大的數字社會。元宇宙作為超現實的虛擬世界,在復刻現實的同時融合現實,實現人機交互。虛擬數字人在AIGC賦能下更加智能,人機共創的價值也使得包含元宇宙在內的新媒介的商業價值大大提升。首先,AIGC解放了媒體工作者的內容生產力,通過數字化手段,人在虛擬世界中同樣被復刻出數字化實體。2020年,新華社推出的全球首位3D版人工智能合成主播“新小微”,具有一秒換裝、360度播報、實時文本驅動、靈活可控等特征,實現了對物理實體中時間、空間限制的優化。其次,數字孿生技術構建了更龐大的元宇宙世界觀。不僅有“新小微”,還有央視網的AI主播“小智”、人民網的“小晴”,澎湃新聞的“小菲”等AI主播共同助陣,人機共生的數字空間在未來有望實現。最后,數字復活賦能傳統文化復活,豐富元宇宙文化內涵,助力文化傳承。例如:2019年,騰訊利用AI助力敦煌壁畫修復,無障礙遠程文物會診;2022年,百度借助文心模型重現《富春山居圖》,使傳世名畫以數字化的形式重現;2022年,在江蘇衛視跨年晚會舞臺上,鄧麗君和歌手周深一同深情演唱,AIGC以數字化的形式重現了人類逝去的巨星。
二、隱憂:AIGC智能媒介生產的社會化風險
(一)法律風險
AIGC生成的內容并非憑空捏造,而是基于現有的數據產生的,這引發了一系列法律問題,包括知識產權、信息安全、個人信息權和隱私權等。在人工智能生成物的知識產權歸屬方面,其知識產權是屬于用戶、算法技術的提供者、訓練模型的公司、原作者,還是人工內容生成者,都有待商榷。2023年5月,“AI孫燕姿”翻唱的《發如雪》《下雨天》在幾天之內便突破百萬播放量,那么“AI孫燕姿”生成的作品的知識產權是屬于孫燕姿還是屬于人工生成機器?另外,類似ChatGPT、Midjourney、Stable diffusion等軟件生成的內容因無法溯源而侵犯了原作者的知識產權。正如《華爾街日報》記者弗朗西斯科·馬可尼提及:OpenAI公司未經授權大量使用路透社、《紐約時報》、《衛報》、BBC等國外主流媒體的文章來訓練ChatGPT模型,但從未支付任何費用。在隱私侵犯和身份盜用方面,網民通過網絡的多元互證拼湊出完整的個人信息,用戶的個人信息在自身或平臺毫不知情的前提下被ChatGPT等大語言模型收集到語料庫中學習,導致個人困囿于“全景敞視監獄”[2]式的社會信息場域。
(二)信任危機
信任危機指由于虛偽和不誠實導致的人際關系危機,在這種情況下,AIGC生成的無源消息可能會在人們無法辨識的情況下迅速傳播,給社會帶來未知的風險,使得人們在真實和虛假共存的網絡空間中的信任變得更加脆弱。首先,AIGC生成的內容整合了各類大數據資料,真假難以辨別。比如,ChatGPT生成的看起來正確實際上錯誤的內容,不僅挑戰人們追求真實的價值信條,還可能產生惡劣的社會影響。其次,AIGC的高速發展和便捷化在一定程度上為高智化犯罪的產生提供了方便,如借助AIGC深度學習的能力,偽造音視頻,盜用個人身份進行詐騙等。最后,在Web3.0時代,每個人都可以在不同的社交平臺發表自己的見解,而應用AIGC生成內容的便捷性會加快“信息垃圾”的產生速度,在污染網絡空間的同時造成網絡資源的浪費。另外,AIGC對個人數據的無節制采集、虛假信息的傳播等行為,也嚴重侵蝕人們對網絡和社會的信任。這些問題引發了一連串的信任危機,進一步加劇了網絡極化現象。因此,相關主體需要在保障個人隱私和數據安全的前提下,積極應用AIGC推動網絡空間的健康發展。
(三)智能鴻溝
當前,AIGC技術的不斷推進使得智能鴻溝[3]問題日益凸顯,其中技術溝、知識溝和使用溝共同構筑了智能鴻溝之墻。在技術層面上,AIGC模型的開發與訓練需要大量的資金、技術、人才、設施以及高質量的數據,這使得研發的機會集中于少數發達國家和組織,容易形成智能鴻溝的技術壁壘。在知識層面上,優質的教育資源集中于個別區域,不利于更廣泛的人群學習、掌握先進科技知識與技能,導致在未來的發展中處于不利地位。在使用層面上,AIGC的廣泛應用會重塑媒介行業的產業生態,類似編輯、制作等傳統工作可能被自動化機器取代,這對未來的勞動者提出了更高的要求。技術的壁壘、獲取知識的渠道、駕馭技術的能力三個層次層層循環,使得智能鴻溝在智能化時代愈演愈烈。因此,相關主體需要采取措施來縮小智能鴻溝,包括推動技術普及、提高教育水平、加強技能培訓等。
(四)算法偏見
AIGC大模型的構建基于機器學習,但由于模型訓練中存在數據缺乏多樣性、代表性和公正性[4]等缺陷,以及算法設計的局限性,因此其形成的決策和推薦結果使特定人群在價值觀念上易產生偏見,這種偏見在具體的算法決策中主要體現在就業、信貸和信息三個方面。在就業決策方面,AIGC可能更突出性別、種族、年齡等人口統計學因子,根據OpenAI在2022年4月對自身AIGC生成內容進行的風險測試結果,其輸出的圖像結果可能具有性別、種族等方面的偏見。例如,在輸入“婚禮”“餐廳”等詞語時,AIGC程序更偏向于生成西式圖景。在信貸決策方面,AIGC可能延續數據偏見給予部分人群不公正的評定,使得部分人群缺乏信息賦權,在社會競爭中處于弱勢地位。在信息決策方面,AIGC維持信息推送中留存的用戶行為和偏好使得“信息繭房”和“過濾氣泡”加劇,讓個人困囿于精準推送的數據假象之中,極易產生網絡群體極化現象,從而影響社會的和諧穩定。
三、AIGC賦能媒介生產的應對策略:規范、治理與約束
(一)規范:德治法治雙管齊下,建立AIGC行業規范
1.倫理規范:以人為本,數字重構信任基石
倫理是法律法規等監管制度的基準和底線,AIGC的決策設計必須符合公認的倫理道德準則,才能獲得社會的信任。AIGC在媒介智能生產中的價值觀的游移可能會加劇政治、性別、社會地位、財富等方面的偏見,因此相關主體需要建立公認的倫理道德準則。2020年,聯合國教科文組織發布《人工智能倫理問題建議書》,強調人工智能應具有四大核心價值:尊重、保護和提升人權及人類尊嚴,促進環境與生態系統的可持續發展,保護多樣性和包容性,構建和平、公正與相互依存的人類社會[5]。
在具體實施層面,國家人工智能倫理體系應參照《人工智能倫理問題建議書》的要點,以社會主義核心價值觀為核心,以人為本,以人的尊嚴、福祉和防止損害為導向,將其貫穿至AIGC的基本環節,積極推進各方利益共同體實現多元對話,探討AIGC相關倫理問題,并指導個人、團體、組織機構將倫理規范落實到AIGC運行的各個階段,即數據收集、數據預處理、模型訓練、內容生產和評估等環節,推動國際形成公認的價值體系和倫理規范標準。
2.法律規范:明確立法立規,加快人工智能生產監管
新技術的不斷涌現和快速迭代導致現行法律法規在科技發展面前存在一定程度的滯后。隨著人工智能的快速應用,完善相關立法已成為當務之急。目前,國內外對人工智能立法仍處于初級階段。2023年5月,OpenAI公司CEO Sam Altman在美國國會的人工智能監管聽證會上表示需要建立立法和監管體系來應對人工智能潛在的風險;同年5月,法國國家信息自由委員會(CNIL)也發布了尊重個人隱私的人工智能治理行動計劃[6]。
2023年7月,我國正式對外發布首份AIGC監管文件《生成式人工智能服務管理辦法》[7]。此外,我國人工智能還受到《中華人民共和國數據安全法》《中華人民共和國個人信息保護法》《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》等法律法規的約束,這些法律法規確定了深度合成服務提供者、深度合成技術提供者、深度合成服務使用者各自的責任與義務。在法律建設方面,相關主體必須立足于AIGC的基本環節,對AIGC研發者、提供者和使用者進行相應規范,促使AIGC良性發展。
(二)治理:落實責任主體,加大懲治力度
1.行業治理:加強溯源管理,明確責任主體
與AIGC相關的企業是人工智能治理的最大配合者,其理應為人工智能治理提供支持。清晰的責任制度是完善治理和內容生產的基礎,深度合成服務提供者應制訂和公開AIGC管理規則、平臺公約,保證管理的透明性。在與媒介相關的各個文化創作領域相關主體應以內容問責為導向,在保障個人信息知識產權、肖像權等權益的同時,落實責任制度。其中,內容責任制的核心在于人,即“誰生產,誰負責”。各個主體要樹立責任問責意識,明確規定創作機構和創作者利用AIGC創作的內容一旦發布,必須對內容侵犯知識產權、侵犯隱私權、危害社會安全、傳播虛假信息等問題承擔相應的法律責任,以此來反向推進行業內責任意識的樹立和健康內容生態的建立。
2.技術治理:加強法制管理,重視安全建設
對AIGC的技術治理需要重點關注個人信息共享安全和網絡算法安全建設,以防止平臺壟斷和過度采集個人信息的問題。這需要相關主體制定相應的法律法規和技術標準,并加大監管力度,確保個人信息得到充分保護。在保證個人信息共享安全方面,技術設計者在讀取個人信息時要明確信息的主體,以明確的形式標注信息使用范圍以及期限,在獲取個人隱私信息時必須征得用戶明確授權。在網絡算法安全建設方面,一方面,相關主體要堅守算法透明性、算法可解釋性、算法可問責性、算法可審計性等底層邏輯設計來應用AIGC大模型,以降低其在生成內容時產生歧視的風險;另一方面,相關主體要在法律體系之下建立完善的技術規則制度,詳細規定人工智能技術和算法技術的法律義務,落實算法的安全責任,評估算法的安全性,并對惡意內容加以限制。此外,若技術完善與彌補出現問題,除追責以外,企業有義務和責任彌補漏洞和修改,優化AIGC信息源和算法模型,加強測試,確保信息的安全、準確。
(三)約束:理性傳播,合法生產
為了營造清朗的網絡傳播環境,網絡媒介的生產者和傳播者包括組織和個人,應加強對組織和個人的監管與約束。從組織層面來講,媒體、機構等傳播組織在傳遞信息和引領公共輿論方面具有顯著的影響力。因此,傳播組織要積極參與AIGC的治理。一方面,傳播組織要堅守新聞專業主義,提供可靠信息,確保一手資料的真實、客觀、公正,禁止利用AIGC生成和傳播虛假信息。另一方面,傳播組織成員應接受AIGC相關技能的培訓,嚴格考核,增強傳播效果。從個人層面來講,個人是生成式人工智能的參與者,個人提升AI素養有利于彌合智能鴻溝,促進社會公平。第一,個人要樹立正確的傳播價值觀念,培養理性傳播信息的意識,提升信息鑒別能力。第二,政府要加大對人工智能通識教育的普及,包括對計算編程、數字技術等基礎知識的學習,縮小人與人之間在使用AIGC等技術方面的差異,彌合智能鴻溝。
四、結語
馬歇爾·麥克盧漢(Marshau McLuhan)指出:“每一種新媒介的出現與應用都標志我們進入了一個新的時代。”AIGC技術的發展正在逐漸顛覆傳統的媒介領域,對生產者、生產方式和生產內容都產生了深遠的影響。文章探討了AIGC在媒介生產中的機遇和隱憂。在機遇方面,AIGC提高了媒體生產效率,激活了媒介創作能力,助推了媒介孿生能力。在文本、圖像、音視頻創作方面,AIGC降低了創作門檻,拓寬了創作思路,提升了作品質效。在數字孿生方面,AIGC助推了元宇宙等數字世界的構建,實現了人機共生和傳統文化復活。然而,“任何技術都是一把雙刃劍”。相關主體在享受技術所帶來的便利的同時,也必須面對人工智能在法律風險、信任危機、智能鴻溝和算法偏見方面的挑戰。因此,相關主體需要從規范、治理和約束等多個維度入手,對人工智能方面的問題進行評估和研判,并做出相應的風險準備,使其真正造福于人類社會。
[參考文獻]
[1]海馬輕帆.海馬輕帆推出“劇本智能評估”3.0服務用AI篩選爆款潛力IP[EB/OL].(2020-05-25) [2023-11-30].https://baike.baidu.com/reference/22432086/6c5c41ohjIsaw1jQ7wsfNn122k1lfyAtakwsOalfz3xWAe15qdIuq0ldF9Cs2xGaZbL5HH35CthFIoGehNNXnLm6BZKd6cEZjwwzsZ7bfJEQgquD.
[2]福柯.規訓與懲罰:監獄的誕生[M].楊遠纓,劉北成,譯.北京:生活·讀書·新知三聯書店,1999.
[3]鐘祥銘,方興東.智能鴻溝:數字鴻溝范式轉變[J].現代傳播(中國傳媒大學學報),2022(04):133-142.
[4]陳昌鳳,張夢.由數據決定?AIGC的價值觀和倫理問題[J].新聞與寫作,2023(04):15-23.
[5]UNESCO.Report of the Social and Human Sciences Commission (SHS)[EB/OL]. (2021-11-12)[2023-11-30].https://unesdoc.unesco.org/ark:/48223/pf0000379920.page=14.
[6]Commission Nationale de lnformatique et des Libertes. Artificial intelligence: the action plan of the CNIL[EB/OL].(2023-05-16)[2023-11-30]. https://www.cnil.fr/en/artificial-intelligence-action-plan-cnil.
[7]生成式人工智能服務管理暫行辦法[EB/OL].(2023-07-10)[2023-11-30].https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm.
[作者簡介]周鴻(1971—),女,湖北武漢人,武漢理工大學法學與人文社會學院副教授;熊青霞(1998—),女,重慶人,武漢理工大學法學與人文社會學院新聞與傳播系碩士研究生。