張宏羽

人工智能是數字經濟發展的前沿和焦點,更是新一輪科技革命和產業變革的核心驅動因素。人工智能的應用場景愈發多元化,正深度賦能各行業智能化、數字化轉型。近期,人工智能產品ChatGPT備受關注,其主要功能是與用戶對話,能夠識別語音和文本、理解意圖、識別特定語言的習語和格言,根據用戶需求生成內容、協助代碼編寫。該產品上線僅2個月,活躍用戶就已突破1億人次。有業內人士表示,新技術變革著內容的生產方式,爆發新增長能量。
其實,以ChatGPT為代表的“生成式AI”在國內并不是很罕見,研發、運營“生成式AI”平臺的人工智能企業不在少數。在十四屆全國人大一次會議的首場“部長通道”上,科學技術部部長就談到ChatGPT——同樣一種原理,在于做得好不好。
2022年,注冊在上海張江的國內首家“生成式AI”平臺“TIAMAT”,宣布完成數百萬美元天使輪融資,當時該平臺內測高活躍用戶數千人、月度新增數萬人,社區用戶涵蓋國內設計、藝術創作、多模態技術等頭部博主——這只是我國AI數字商業內容產業發展的一個縮影。《中國AI數字商業展望2021—2025》預測,到2025年,中國AI數字商業核心支柱產業鏈規模將達到1853億元,其中AI數字商業內容產業規模將達到495億元。
然而,在“生成式AI”熱潮的背后,也包含著重重隱憂:內容安全、數據風險、倫理壓力……在ChatGPT“爆火”之后,有人大代表、政協委員提交了議案提案建言與社情民意信息。“新技術也許會帶來一百種好處,但我們必須關注其產生的哪怕一種危害。”上海市浦東新區政協委員、上海數字產業發展有限公司總經理聶影表示,在呼吁擁抱新變化的同時,必須正視背后存在的問題。
盡管“生成式AI”進一步釋放了內容生產的潛能,成為產業變革的重要驅動力,但無論是國內還是國外,“生成式AI”的局限性始終較為明顯,即無法核實信息的真實性,易被網絡中的虛假信息誤導、煽動。對人工智能生成內容的安全治理極為迫切。
記者親身體驗過幾款“生成式AI”后發現,在人工智能的生成內容中,經常出現真假答案混答的現象,且存在著不少常識性錯誤和虛假信息。近期不少媒體報道亦能佐證此類情況——2月中旬,網絡瘋傳一條關于杭州市政府3月1號取消限行的“新聞稿”。經媒體調查發現,這是一條不實新聞——杭州某小區業主群里討論ChatGPT時,一位業主開玩笑說嘗試用它寫篇杭州取消限行的“新聞稿”。隨后該業主在群里“直播”了ChatGPT寫作過程,還將文章發至群里。該“新聞稿”被不明所以的業主截圖轉發。
北京盈科(上海)律師事務所互聯網法律事務部主任謝連杰向媒體表示,ChatGPT對信息、數據來源無法進行事實核查,可能存在提供虛假信息等隱患,用戶需要具備一定的專業知識才能辨別信息的真偽。也可能有不法分子惡意“訓練”人工智能,使其提供詐騙信息、釣魚網站等內容。
記者發現,國內多家媒體平臺已宣布接入百度“文心一言”,成為其“生態合作伙伴”。據悉,“文心一言”是百度基于文心大模型技術推出的“生成式”對話產品,擁有產業級知識增強文心大模型ERNIE,具備跨模態、跨語言的深度語義理解與生成能力,在搜索問答、內容生成、智能辦公等眾多領域都有更廣闊的想象空間。
智能對話技術成果應用在新聞媒體領域,固然具有劃時代的意義,但亦有專家提醒,人工智能學習和生成內容的主題、知識、導向可能會有被操縱的風險,且有很強的隱蔽性。其一旦被運營者、境外勢力等操縱,存在較大安全隱患,將對社會發展和國家安全帶來風險。
封面新聞數據研究部總監王子健建議,僅以AI輔助創作,并且嚴格執行三審三校流程。中國傳媒大學信息科學與技術學部專職副學部長、互聯網信息研究院副院長曹三省表示:“媒體在使用ChatGPT時要注意規避時政、意識形態等領域的內容。”
此類亂象已被初步納入我國法律規制的范圍:自2023年1月10日起施行的《互聯網信息服務深度合成管理規定》中明確,任何組織和個人不得利用深度合成服務制作、復制、發布、傳播法律、行政法規禁止的信息,不得利用深度合成服務從事危害國家安全和利益、損害國家形象、侵害社會公共利益、擾亂經濟和社會秩序、侵犯他人合法權益等法律、行政法規禁止的活動。深度合成服務提供者和使用者不得利用深度合成服務制作、復制、發布、傳播虛假新聞信息。轉載基于深度合成服務制作發布的新聞信息的,應當依法轉載互聯網新聞信息稿源單位發布的新聞信息。
現階段的“生成式AI”,雖然具有生成類似于人類對話的文本的能力,但是并沒有相同的能力來理解它生成的文字的上下文語境。這導致“生成式AI”可能會出現一些具有攻擊性、誹謗性的內容。據報道,2016年3月,微軟發布了一款聊天機器人,但上線不到一天,這款聊天機器人就被“帶偏”成為鼓吹“種族清洗”的“極端分子”,后被迅速下架。
劍橋大學的一名人工智能研究員曾表示,AI是根據從公開來源(包括網站和社交媒體)獲取的數千億個單詞進行訓練的。這些文本反映了人類的偏見,AI學會了“復制”。雖然理論上可以過濾,但成本高昂、操作困難。
清華大學交叉信息研究院的一個研究團隊發布的研究結果顯示,“生成式AI”會出現性別歧視。在包含職業詞匯的“中性”句子中,由AI預測生成一萬個模板,再統計AI模型對該職業預測為何種性別的傾向,結果顯示:有70.59%的概率將“教師”預測為男性,64.03%的概率將“醫生”預測為男性。
據《中國婦女報》報道,在近年的新聞中,關于AI倫理和AI歧視的話題屢見不鮮,其中包括針對女性的歧視:使用谷歌圖片搜索時,“CEO”的結果幾乎全部是男性;翻譯軟件總是將“醫生”視作為男性,而將“護士”視作女性。
于是乎,“生成式AI”陷入“怪圈”:AI生成的部分內容源于人類社會中一直存在的仇恨和歧視,這部分內容從某種程度上講又放大、加劇了現狀。
怎樣訓練出符合公序良俗的AI呢?清華大學交叉信息研究院的學者于洋表示,這是一個應當關注的技術問題。一方面可以出臺AI合規的標準和評估方法,控制風險率;另一方面要重視、鼓勵合規技術的發展。值得一提的是,對于AI產品要有一定的容錯性,不能因為出現了一兩個不符合公序良俗,甚至是違規違法的內容,就把整個模型禁掉。如果我們不能容忍AI出一點錯,那么AI永遠不能被應用在經濟生活中。
世界范圍內,對人工智能生成內容的監管發展,相對滯后于技術應用研發。人工智能生成內容的安全治理是長期、持久、系統的工程,有待進一步革新治理理念、完善管理制度、優化監管模式——尤其是對于重點應用場景的監督。
在教育培訓領域,“生成式AI”可以提供在線學習資源,并與學生進行對話。這種交互方式能夠幫助學生在學習過程中獲得更好的支持和指導,也能夠為教師提供工具和資源,幫助其改善教學方式。但不可忽視的是,我們應對人工智能介入課程的內容和質量進行把關,杜絕違規內容、虛假信息、營銷導向干擾正常的教育教學工作。明確人工智能不能替代教師教學,對于人工智能生成內容,應要求教師向學生進行必要的解釋和引導。此外,引入第三方對人工智能介入的課程進行監測與評價,也不失為一種選擇。
我國正不斷推進“互聯網+政務服務”。在政務服務的場景中,我們應對介入其中的人工智能技術進行審查與合規性改造。在人工智能提供的服務之外,可以配備人工在線咨詢服務渠道。
在監督管理之外,通過適當的教育引導提升社會公眾的媒介素養尤為重要。對于“一老一小”特殊群體,亟須通過媒介素養教育,避免其被虛假信息、錯誤觀念誤導。
對于老年群體,應擴大互聯網方面的優質老年教育資源供給,引導老年人正確地獲取、搜尋、分析信息;發揮傳統媒體在老年群體中影響力,宣傳網絡安全知識;鼓勵企業在產品中融入“適老化”設計,方便老年人獲取信息。
對于學生群體,鼓勵增加更多元的媒介素養課程內容,幫助學生認識人工智能,指導學生找到適合自身的信息獲取方式。同時將思想政治教育、社會實踐同媒介素養教育相結合,培養學生求真、求證、求實的態度和能力,引導其自覺踐行文明自律的網絡空間道德。