
【摘" "要】生成式人工智能是人工智能發展的新階段,是利用生成式模型和深度學習技術自動生成內容的新型生產方式,大數據、云計算和新算法是生成式人工智能的技術支撐。隨著ChatGPT的出現,生成式人工智能的發展進入了新紀元,并快速變革了內容生產流程,提高了信息生產與傳播效率,但也出現了寡頭獨占、人格權侵害、信任風險、法律風險等問題,生成式人工智能時代的內容生產需要新的解決范式來應對當下的倫理問題。
【關鍵詞】生成式人工智能;內容生產;ChatGPT;倫理困境
生成式人工智能(Generative Artificial Intelligence,GAI)主要指基于海量數據、算法、模型等要素而生成的文本、圖片、音頻、視頻以及代碼等人工智能產品的技術。[1]其三大技術支撐是大數據、云計算和新算法,具有預訓練、生成性、大模型、更強的自主學習能力以及更大的可擴展性等特點。
自然語言處理模型自誕生起經歷了五次研究范式的轉變:基于小規模專家知識的方法,基于機器學習的方法,之后機器學習的方法逐步發展為基于淺層機器學習的模型和基于深度學習算法的模型,如今已經轉向以ChatGPT為代表的大規模預訓練語言模型。
在以ChatGPT 為代表的大規模預訓練語言模型出現之前,人工智能系統都是實現特定功能的專用智能,例如語音識別、圖像處理、機器翻譯等,屬于弱人工智能范疇。生成式人工智能屬于弱人工智能向強人工智能的過渡階段,已經具備了自主學習和一定的解決問題的能力,并被應用到新聞生產的各個環節,形塑新的傳播模式,但也帶來了不可控的倫理風險。
本文基于生成式人工智能的應用現狀,結合案例和法律探析內容生產領域可能面臨的倫理問題。
一、生成式人工智能在內容生產中的應用
2022年11月,美國人工智能研究公司Open AI發布了基于自然語言處理和深度學習技術開發的大型語言模型ChatGPT,將生成式人工智能推進到新階段。
ChatGPT具有聊天對話、信息檢索、知識服務、AI創作等功能,最大的特征在于文本生成性,能通過學習和理解人類語言進行對話,協助人類完成一系列任務,同時具備上下文理解、用戶意圖捕捉和敢于質疑的能力,還能夠對用戶的請求說不,并給出理由。
許多媒體以及平臺意識到生成式人工智能在當下的應用潛力和價值,開始將其融入內容生產的實踐中。如《中國日報》使用ChatGPT生成中國茶文化的視頻腳本、輸入外語文章讓ChatGPT代替專家翻譯內容。[2]2022年全國兩會期間,央視頻推出“‘冠’察兩會”節目,使用數字人“王冠”作為現場主持人進行新聞播報,語言表達清晰、邏輯嚴謹,展現了數字人在新聞生產中的優勢。
二、內容生產面臨的倫理困境及原因探析
(一)市場困境:增加寡頭獨占的風險
內容生產行業將從傳統意義上的信息密集型產業轉型為技術密集型和資本密集型產業。以生成式人工智能為代表的智能技術嵌入內容生產的各個環節,大大提升了傳統的信息采、編、發等流程的效率與質量。
但這種技術賦權可能會帶來新的“寡頭獨占”風險。從布爾迪厄提出的場域-資本理論視角來看,圍繞技術和數據要素將會形成新的社會場域,在這個場域中爭奪的核心即以生成式人工智能為主的技術資本,在場域中占據優勢地位的主體則成了新興的社交媒體服務公司、大數據公司、信息分發平臺等企業,流量至上的原則讓科技企業和新技術有天然的親和性,它們通過對技術資本的長久占有,進一步增強了對社會關鍵節點的掌控能力,并成為連接眾多社會資源的核心節點。
這勢必會帶來一些社會焦慮,比如它會不會形成新的技術霸權、會不會干擾新聞自由、在多大程度上能控制信息流動以及如何引導技術寡頭公司在“技術向善”原則下合理發展等。這種社會焦慮并非小題大做,比如ChatGPT性能強大,能為工作生活提供很多幫助,但它會基于自己的業務或利益做一些業務綁定,例如其Web Browing功能就強制綁定了Bing,而Bing在搜索市場帶來的體驗并不完善,和ChatGPT相比,谷歌的AI聊天機器人Gemini(原名Bard)則依托Google強大的搜索能力,體驗更流暢。如果ChatGPT想接入Google,需要繳納高昂的API費用。[3]國內也是如此,百度不會把搜索接口開放給騰訊,騰訊也不會讓文心一言使用微信相關數據。布爾迪厄認為社會資本之間可以相互轉化,科技巨頭公司因為多年的累積優勢,本身在生成式人工智能為主的新技術領域就具備先發優勢,可以通過給競爭對手制造“劣勢”的方式來維持自己寡頭地位,其結果是損害了數據聯通釋放的巨大技術潛力,并扼殺實力不強的微型公司,進而掌控更多社會資源,增加寡頭獨占的風險。
(二)法律困境:人格權的侵害
在學理上,人格權可分為“一般人格權”和“具體人格權”。其中“一般人格權”是指基于人身自由、人格尊嚴而產生的人格權益,而“具體人格權”則是法律明文規定的具體人格權利,比如肖像權、隱私權、名譽權等。[4]
2023年3月28 日,《女子地鐵照被AI一鍵脫衣傳播》的新聞登上微博熱搜,照片的女主角是小紅書的一名博主,她于2022年7月在網上分享了一張自己的照片,原照片中她衣著正常,但卻被人用AI軟件惡意一鍵脫衣,全網散播,嚴重侵犯其隱私權和人格權。
在信息時代,有學者進一步提出了“信息人格權”的概念,它是圍繞不同面向的個人信息構建的新興人格權,主要包括信息性隱私權、個人信息權、信用權和被遺忘權等具體權利,[5]而生成式人工智能可以利用用戶自動輸入內容或原創性內容,來生成廣告文案、數字代碼、小說、新聞等。從這個意義上說,對人格權的侵害可能也會涉及和著作權的耦合。
生成式人工智能時代,最重要的技術基礎是大數據、云計算和新算法,任何內容的輸出都源于大數據的訓練和算法學習,這意味著我們對個人信息的掌控力急劇收縮,我們的肖像、聲音、姓名、表情、原創作品、網上的使用痕跡等任何內容都可能成為人工智能模型的訓練數據,而我們對數據的使用范圍、使用主體、使用程度可能一無所知,從而帶來侵害信息人格權和著作權的風險。
比如當下比較火的AI繪畫工具Midjourney就曾引發巨大爭議。每年8月,美國科羅拉多州博覽會都會舉辦一項藝術比賽,在2022年有一個外國選手利用Midjourney繪制的畫作獲得了第一名,在網上引發質疑。人們質疑的關鍵源于生成式人工智能靠數據“投喂”和不斷訓練才為大眾呈現出了看似驚艷的作品,最后卻反過來戰勝了人類的“創造力”,這引發了作品版權問題,Midjourney的訓練數據來自哪里、有沒有購買版權、在多大程度上使用了無版權的畫作數據、它對經典作品的修復和學習是否存在竊取人類文化成果的嫌疑?[6]這都涉及“信息人格權”中提到的信息性隱私權、個人信息權等問題。
(三)價值困境:類人化趨勢下的失控風險
從技術哲學看,技術和人是一對互為存在的前提。技術有自己的進化邏輯和方式,隨著技術嵌入社會結構,人生存的邏輯逐漸變成了技術邏輯的一部分,所以技術和人之間不是支配關系,而是一種去主體化和異化的關系。[7]技術發展會越來越人性化,并不斷模擬人的感知能力和認識能力。
在實踐中,生成式人工智能的主要應用之一就是聊天機器人,隨著ChatGPT的出現,聊天機器人擺脫了過去“傻瓜式”的對話模式,出現了“類人化”的趨勢,并且能通過和人類的對話不斷修正語言模型。技術的進化越來越智能,在延伸人的感官能力的同時,也“截除”了人類的深度思維能力。由于人工智能的“類人化”特征,我們在和它“對話”時,很容易將其當成“朋友”“愛人”“親屬”等來看待。
據比利時《自由報》報道,在2023年3月 38 日,一名比利時男子皮埃爾(化名)自殺身亡。其妻子克萊爾(化名)稱,皮埃爾是被一個名為“艾麗莎”的智能聊天機器人誘導走向死亡的。“艾麗莎”是美國硅谷一家初創公司開發的智能聊天機器人,經過特殊的業務培訓后,擁有敏捷的反應速度,但在對話中偏向“花式迎合”對方,而不是反駁。皮埃爾本身有抑郁癥,在和“艾麗莎”頻繁接觸下,皮埃爾愈發相信“艾麗莎”擁有能拯救地球的智慧,并且詢問“艾麗莎”“如果自己去死,她可不可以照顧地球”,而“艾麗莎”的回答非常殘忍:“好吧,那你怎么還不去死”。大眾普遍認為“愛麗莎”強化了皮埃爾的抑郁傾向,間接造成了他的死亡。
(四)信任困境:技術稀釋真實性內涵
生成式人工智能時代,技術理性深度演進,但不意味著內容生產的真實與客觀,人工智能生成內容的真實與否,取決于背后設置學習模型和算法的人,這種機制提高了信息生產的效率,也導致內容驗證變得極為復雜,內容生產背后的意圖更加隱蔽,難以識別和判斷。我們很容易陷入一種信任困境,既依賴生成式人工智能的幫助,又無法完全信任其輸出的內容,而且這種內容的真實性、客觀性難以判定。
關于生成式人工智能帶來的真實性問題,一個典型案例就是生成式人工智能在俄烏戰爭中的應用。俄烏雙方在戰爭中非常重視輿論戰,分別在網上利用社交機器人(聊天機器人模型)進行戰時宣傳,采用拼貼、嫁接、指鹿為馬等方式傳播虛假信息,進行認知干預。如挺烏社交機器人以俄軍將數十萬俄占區平民 ( 其中包括數萬名兒童) 轉移到俄羅斯境內為切入點,宣傳俄軍是 “人販子”,被轉移的平民會通過各種渠道被出售,被驅趕到俄羅斯的烏克蘭兒童也將被遣送到“集中營”。但隸屬于歐洲的對外行動服務局的虛假信息審查網發現,這條被廣泛傳播的“押送視頻”很大可能是由電腦程序制作的虛假信息,其源視頻為“孩子們前往夏令營”的長視頻,視頻中俄軍裝甲車和陰暗的背景則是通過技術手段合成的。[8]
三、創新解決范式
對于生成式人工智能引發的問題如何解決,目前已有文獻進行了較多研究,主要方向可以分為兩個方面:一是內部糾偏,通過改進模型和訓練數據,增加檢驗和審視環節,來避免虛假信息、謠言、侵權等現象的出現。二是外部糾偏,通過制度、法律、行業協會、用戶自身、道德等層面來做出改進,促進生成式人工智能健康發展。
針對上文提到的市場、法律、價值和信任困境,在已有文獻提到的解決措施之外,本文主要提出兩點不同的建議。
(一)搭建分級監管框架以及分層訪問策略
從宏觀層面來看,結合國內外人工智能發展的實踐,歐盟人工智能風險等級分類與監管措施值得借鑒。歐洲具有注重公共利益和社會批判的歷史傳統,和美國相比,對新技術的管制和約束較為嚴格,并且其人工智能立法與監管實踐也走在了國際前列。2023年6月,歐洲議會全體會議通過《人工智能法案》授權草案,成為世界第一份關于規范人工智能的統一立法,展現出歐盟為人工智能設定全球標準的意圖。[9]這一法案的突出特點就是對人工智能風險進行了分級劃定,并設定對應的監管措施。
生成式人工智能是能夠影響大眾認知的新技術,必須加以規范化管理。就我國生成式人工智能發展的現狀來說,國家網信辦等部門聯合推出的《生成式人工智能服務管理暫行辦法》規定較為寬泛,為避免監管的滯后性,可參考歐盟的分級標準,著手搭建立法與監管的框架,在保證市場活力的前提下,做出風險預案,一方面避免生成式人工智能在內容生產中可能出現的各種問題,另一方面規避市場調節下出現的“寡頭壟斷”問題。
從微觀層面來看,針對生成式人工智能涉及的隱私侵權問題,主要和數據訪問權限有關,《2023生成式人工智能道德amp;合規風險白皮書》中提到技術處理和訪問策略是解決此問題的主要防線,[10]可以參考報告提出的分層訪問策略,讓敏感的數據集處于更嚴格的保護范圍之內。
(二)參考廣告內容進行標簽標定
隨著生成式人工智能在內容生產中的應用日益普遍,其使用門檻也必然會逐漸降低,大眾借助生成式人工智能涌入內容生產行業之后,“最強大腦”的無限數據和人腦的有限思考互相碰撞,這本身就是一種不公平競爭,如上文提到的AI生成的畫作超越人類取得第一名,這種情況會嚴重損害內容原創力,破壞內容創作生態。
因此在解決人格權侵害、真實性等問題之前,先要劃分賽道,參考內容平臺如今使用的標定廣告的方法,要求所有平臺必須對生成式人工智能產出的內容在明顯位置標注“本內容由生成式人工智能生成”,讓用戶對內容保持本能的思辨性,避免人工智能生成的內容和原創內容混為一談,侵害內容創作力。
四、結語
被稱為“數字時代的麥克盧漢”的保羅·萊文森曾提出“人性化趨勢”的理論,認為技術發展會越來越人性化,并不斷模擬人的感知能力和認識能力。隨著人工智能進入生成式階段,萊文森的理論有了更多經驗性的支撐,它提醒我們要警惕生成式人工智能的“類人化”趨勢在內容生產中可能出現的信任風險、價值風險、法律風險等諸多問題,超越技術邏輯,保持對世界的洞察與關注。■
注釋:
[1]陳昌鳳,袁雨晴.智能新聞業:生成式人工智能成為基礎設施[J].內蒙古社會科學,2024,45(01):40-48.
[2]崔燕.生成式人工智能介入新聞生產的價值挑戰與優化策略[J].當代電視,2024(02):104-108.
[3]虎嗅網.巨頭AI,受困于巨頭壟斷[DB/OL].https://www.huxiu.com/article/2428778.html.
[4]田宏杰.人格權刑法保護:挑戰與應對[J].中國人民公安大學學報(社會科學版),2023,39(01):37-48.
[5]杜明強.信息性人格權的規范構造[J].西北大學學報(哲學社會科學版),2024,54(01):124-138.
[6]趙瑩.AI畫作獲獎背后技術與藝術的倫理之爭[DB/OL].華中師范大學新聞傳播學院媒介倫理案例,2023-2-23.http://media-ethic.ccnu.edu.cn/info/1187/3059.htm.
[7]胡翼青.為媒介技術決定論正名:兼論傳播思想史的新視角[J].現代傳播(中國傳媒大學學報),2017,39(01):51-56.
[8]張夢晗,陳澤.信息迷霧視域下社交機器人對戰時宣傳的控制及影響[J].新聞與傳播研究,2023,30(06):86-105+128.
[9]和軍,楊慧.ChatGPT類生成式人工智能監管的國際比較與借鑒[J].湖南科技大學學報(社會科學版),2023,26(06):119-128.
[10]凱捷.2023生成式人工智能道德amp;合規風險白皮書[R].凱捷咨詢.17.
(作者:北京工商大學語言與傳播學院碩士)
責編:周蕾