摘 要:在生成式人工智能技術(shù)蓬勃發(fā)展的浪潮下,直播平臺(tái)虛擬數(shù)字人的應(yīng)用給傳媒行業(yè)帶來了全新變革。在解放人類主播、給用戶提供新選擇的同時(shí),也伴隨著許多潛在問題。分析直播平臺(tái)虛擬數(shù)字人的應(yīng)用現(xiàn)狀,可以厘清其算法偏見、數(shù)據(jù)泄露、侵權(quán)隱患等具體風(fēng)險(xiǎn)。而在針對虛擬數(shù)字人進(jìn)行治理的方案中,前端技術(shù)設(shè)計(jì)、中端數(shù)據(jù)檢查、末端主體定責(zé)三個(gè)環(huán)節(jié)均存在著一定程度的治理難點(diǎn)。因此,必須針對性地從規(guī)制算法機(jī)制、嚴(yán)格數(shù)據(jù)使用和加強(qiáng)隱私保護(hù)等方面具體入手,通過建立風(fēng)險(xiǎn)防控體系、構(gòu)建數(shù)據(jù)隱私屏障、提升公眾媒介素養(yǎng)水平等多種手段,為解決直播平臺(tái)虛擬數(shù)字人帶來的問題提供科學(xué)的治理方案,最大限度地發(fā)揮其積極作用。
關(guān)鍵詞:虛擬數(shù)字人;生成式人工智能;科技倫理;應(yīng)對策略
2023年B站跨年晚會(huì)上,我國歌唱家龔琳娜與虛擬數(shù)字歌手洛天依同臺(tái)演繹《歌行四方》,一時(shí)間,空靈與厚重交錯(cuò),現(xiàn)實(shí)與虛擬并行,給觀眾帶來了一場極致的視聽盛宴。追溯我國傳媒行業(yè)對虛擬數(shù)字人的應(yīng)用歷程,起源于21世紀(jì)初,歷經(jīng)多年發(fā)展,現(xiàn)已深入到各種多元場景之中。然而,近年來,隨著虛擬數(shù)字人技術(shù)在各大直播平臺(tái)被廣泛應(yīng)用,一系列應(yīng)用層面的問題隨之浮現(xiàn),不僅導(dǎo)致了公眾對該技術(shù)的誤解與排斥情緒,還映射出科技進(jìn)步所帶來的正向成果與潛在負(fù)面效應(yīng)并存的復(fù)雜態(tài)勢。這表明,科技進(jìn)步既為人類開辟出前所未有的發(fā)展契機(jī),也帶來了諸多亟待解決的挑戰(zhàn)與困境。
因此,深入剖析直播平臺(tái)虛擬數(shù)字人的應(yīng)用風(fēng)險(xiǎn),明確其治理過程中的難點(diǎn)與瓶頸,是當(dāng)前所面臨的關(guān)鍵問題。推動(dòng)虛擬數(shù)字人技術(shù)的健康發(fā)展,不僅需聚焦于技術(shù)層面的持續(xù)優(yōu)化與創(chuàng)新,更需在算法框架、法律規(guī)范及社會(huì)治理模式上進(jìn)行全面審視與革新,針對性地構(gòu)建起科學(xué)、合理且可行的責(zé)任機(jī)制與應(yīng)對策略,力求在推動(dòng)技術(shù)創(chuàng)新發(fā)展的同時(shí),兼顧倫理責(zé)任的考量,有效消弭虛擬數(shù)字人發(fā)展進(jìn)程中所衍生的不利影響,從而確保技術(shù)進(jìn)步與人類價(jià)值理念的深度融合,共同繪就新質(zhì)生產(chǎn)力推動(dòng)社會(huì)進(jìn)步的未來圖景。
一、直播平臺(tái)虛擬數(shù)字人的應(yīng)用風(fēng)險(xiǎn)
直播平臺(tái)虛擬數(shù)字人的廣泛普及與應(yīng)用,在一定程度上減輕了傳統(tǒng)主播的工作壓力,并為用戶群體提供了前所未有的多元化選擇,展現(xiàn)出應(yīng)用場景廣闊、工作時(shí)間靈活以及應(yīng)用成本較低等諸多優(yōu)勢。然而,與此同時(shí),虛擬數(shù)字人在實(shí)際應(yīng)用中也引發(fā)了一系列不容忽視的問題。具體而言,智能算法的潛在偏見可能導(dǎo)致信息傳播的誤導(dǎo),進(jìn)而對受眾的認(rèn)知產(chǎn)生負(fù)面影響;數(shù)據(jù)保護(hù)與隱私泄露問題日益凸顯,嚴(yán)重威脅個(gè)人隱私安全,引發(fā)公眾廣泛擔(dān)憂與恐慌;此外,虛擬數(shù)字人的興起可能構(gòu)成潛在侵權(quán)風(fēng)險(xiǎn),引發(fā)了關(guān)于其法律邊界、科技倫理等方面的深刻反思。因此,基于直播平臺(tái)虛擬數(shù)字人的運(yùn)作機(jī)制與應(yīng)用場域,系統(tǒng)梳理并明確其可能蘊(yùn)含的各種風(fēng)險(xiǎn)與隱患,是制定有效應(yīng)對策略、規(guī)避潛在風(fēng)險(xiǎn)的前提與基礎(chǔ)。
(一)算法偏見:信任危機(jī)的內(nèi)在根源
直播平臺(tái)虛擬數(shù)字人的重要應(yīng)用場景之一是在新聞播報(bào)中,依托大數(shù)據(jù)、云計(jì)算等多種技術(shù)融合,虛擬數(shù)字人可以為受眾播報(bào)個(gè)性化的定制內(nèi)容,在數(shù)據(jù)收集全面、算法準(zhǔn)確、推薦內(nèi)容優(yōu)質(zhì)的情況下,可以減少用戶檢索、篩選相關(guān)信息的時(shí)間和精力成本。但是,對不同主體的多元需求,僅僅依靠智能算法的分析、計(jì)算和判定,很可能受到“算法黑箱”①的干擾,降低用戶對信息掌握的程度,產(chǎn)生不利影響。
一方面是信息的全面性。傳統(tǒng)互聯(lián)網(wǎng)平臺(tái)中的內(nèi)容魚龍混雜,質(zhì)量良莠不齊,降低了用戶的使用體驗(yàn)。為了提高用戶黏性和觀看時(shí)長,平臺(tái)算法通常會(huì)根據(jù)用戶的歷史瀏覽記錄、點(diǎn)贊、評論和分享等行為,推薦相似內(nèi)容[1]。因此,虛擬數(shù)字人的智能算法往往被設(shè)置成精準(zhǔn)迎合用戶需求的價(jià)值取向。然而,這樣被“精選”過的信息,無形中創(chuàng)造了一個(gè)個(gè)“信息繭房”,遮蔽了主體對信息全面掌握的權(quán)利。例如,智能偏好算法會(huì)對曾經(jīng)多次搜索“退休金”的人群標(biāo)記為老年人,減少對動(dòng)漫作品的推薦。這樣的“針對性篩選”雖然能夠最大限度地迎合用戶的心理和需求,但在刻板標(biāo)簽下,推薦的內(nèi)容單一化、同質(zhì)化嚴(yán)重,削弱了用戶的信息素養(yǎng)和視野的廣度,減少了用戶探索和了解其他未知領(lǐng)域的可能。
另一方面是信息的客觀性。作為非人之物的虛擬數(shù)字人,傳播主體的虛擬化與傳播內(nèi)容合成給新聞傳播的真實(shí)性和客觀性帶來巨大挑戰(zhàn)[2]。智能算法雖然能夠?yàn)橛脩艉Y選、定制信息,但是,其自身的歧視與偏見也日益成為不可忽視的問題。當(dāng)前的智能算法,由于數(shù)據(jù)中的偏見、開發(fā)者的偏見、算法本身的偏見等多種原因不可避免地產(chǎn)生“算法偏見”。在“算法偏見”基礎(chǔ)上篩選出的信息往往都具有很鮮明的情感色彩,缺乏充足的人文關(guān)懷,在潛移默化中引導(dǎo)著受眾的思考方向。同時(shí),現(xiàn)階段,觀眾對虛擬數(shù)字人的技術(shù)關(guān)注度大于對其播報(bào)內(nèi)容的關(guān)注度,觀眾走進(jìn)直播間時(shí),往往是被其新鮮技術(shù)所吸引,而忽視了對其播報(bào)內(nèi)容真實(shí)性的基本判斷。加之大眾傳媒固有的速度快、范圍廣、影響大等特點(diǎn)的影響,這些片面化的信息在短時(shí)間內(nèi)被廣泛傳播開來,既違背了新聞“真實(shí)性”的本質(zhì)特征,又容易造成公眾誤解,造成極其惡劣的社會(huì)影響。2024年6月,國內(nèi)一家MCN機(jī)構(gòu)的實(shí)際控制人被警方予以行政處罰,據(jù)查,其運(yùn)營842個(gè)賬號,利用虛擬數(shù)字人技術(shù)生產(chǎn)虛假新聞,最高峰時(shí),一天能產(chǎn)生4000~7000篇的虛假新聞,足見其危害性巨大。在信息碎片化的當(dāng)代,“三人成虎”的情況屢見不鮮,而缺乏人類基本道德判斷力和情感理解力的虛擬數(shù)字人為這種虛假信息的滋生提供了溫床,一定程度上加劇了社會(huì)信任危機(jī)。
(二)數(shù)據(jù)泄露:隱私保護(hù)的薄弱環(huán)節(jié)
虛擬數(shù)字人為用戶播報(bào)和推薦智能內(nèi)容的核心機(jī)制在于其背后的推薦算法。這一算法依托大量的原始瀏覽和搜索記錄,通過深入的數(shù)據(jù)化分析,智能地匹配并推送與用戶興趣高度相關(guān)的播報(bào)內(nèi)容。然而,在享受數(shù)據(jù)驅(qū)動(dòng)帶來的便利與精準(zhǔn)的同時(shí),必須高度重視數(shù)據(jù)安全問題。虛擬數(shù)字人對用戶數(shù)據(jù)的采集、存儲(chǔ)、處理及傳輸?shù)拳h(huán)節(jié)均存在潛在的泄露風(fēng)險(xiǎn),一旦數(shù)據(jù)被非法獲取或?yàn)E用,將可能造成嚴(yán)重后果。
一是數(shù)據(jù)采集層面的知情風(fēng)險(xiǎn)。依據(jù)《中華人民共和國個(gè)人信息保護(hù)法》第十三條的規(guī)定,對個(gè)人信息進(jìn)行處理,必須征得個(gè)人同意。事實(shí)上,直播平臺(tái)采集個(gè)人信息時(shí),涉及多個(gè)方面:在采集內(nèi)容上,包括搜索內(nèi)容、歷史記錄、瀏覽習(xí)慣等,在采集手段上,綜合運(yùn)用錄音、拍照、讀取設(shè)備內(nèi)存等多種形式,采集的信息種類復(fù)雜、內(nèi)容繁多。但是,在征求用戶同意的過程中,這些平臺(tái)往往采取了簡化的方式,通常只需要用戶進(jìn)行一次簡單的“授權(quán)”操作,而對于具體采集的內(nèi)容、范圍等關(guān)鍵信息,則缺乏充分的解釋和說明。更為嚴(yán)重的是,一些平臺(tái)甚至設(shè)置了“不再提醒”的默認(rèn)選項(xiàng),通過誘導(dǎo)用戶選擇這種“一勞永逸”的方式,來規(guī)避其應(yīng)盡的充分告知義務(wù)。這種做法實(shí)際上剝奪了用戶對于數(shù)據(jù)處理過程的知情權(quán)。事實(shí)證明,大部分用戶對平臺(tái)數(shù)據(jù)采集的方式、范圍等內(nèi)容不甚了解,在未能充分知情的前提下“授權(quán)”平臺(tái)大肆收集個(gè)人信息。這不僅侵害了用戶的合法權(quán)益,也埋下了用戶數(shù)據(jù)泄露的隱患。2024年4月24日,杭州互聯(lián)網(wǎng)法院公開審理了國內(nèi)某知名短視頻公司訴廣東某網(wǎng)絡(luò)科技公司及其唯一股東侵害其平臺(tái)直播間用戶權(quán)益、獲取用戶數(shù)據(jù)、進(jìn)行不正當(dāng)競爭糾紛案件,表明現(xiàn)階段的數(shù)據(jù)侵權(quán)已經(jīng)構(gòu)成了不正當(dāng)競爭,對直播產(chǎn)業(yè)生態(tài)造成了惡劣的負(fù)面影響。
二是數(shù)據(jù)應(yīng)用層面的處理風(fēng)險(xiǎn)。與數(shù)據(jù)收集層面相同,虛擬數(shù)字人及直播平臺(tái)在采集數(shù)據(jù)時(shí),也并未對數(shù)據(jù)處理的方式及用途進(jìn)行充分說明。這就產(chǎn)生了數(shù)據(jù)在應(yīng)用過程中的潛在風(fēng)險(xiǎn)。現(xiàn)階段的AI帶貨主播除了可以播報(bào)展示商品、講解優(yōu)惠機(jī)制,還可以與消費(fèi)者實(shí)時(shí)互動(dòng),包括進(jìn)場問候、引導(dǎo)購買、回答提問等[3]。理論上,直播平臺(tái)采集數(shù)據(jù)時(shí),被授權(quán)的唯一用途是根據(jù)用戶習(xí)慣、偏好為其提供更優(yōu)質(zhì)的服務(wù)。然而,在實(shí)際應(yīng)用的過程中,往往伴隨著一系列的次生問題。例如,智能算法在向用戶匹配感興趣的電商帶貨主播過程中,涉及向用戶推薦商家的推銷環(huán)節(jié)。直播平臺(tái)往往會(huì)在基于智能算法的結(jié)論上,根據(jù)用戶偏好,首先推薦與平臺(tái)達(dá)成合作的商家,而那些合作商家銷售的產(chǎn)品,是否能做到如虛擬數(shù)字人宣傳的那樣“質(zhì)優(yōu)價(jià)廉”,仍然存在著很大的疑問。這無疑會(huì)削弱用戶的消費(fèi)體驗(yàn),進(jìn)而引發(fā)用戶對直播平臺(tái)的不信任。2022年4月初至6月15日期間,佛山市某文化傳媒公司負(fù)責(zé)人先后從網(wǎng)上購買抖音截流軟件提供給公司員工使用,利用截流軟件的破解技術(shù),在他人開播的抖音教學(xué)課程視頻直播間、點(diǎn)贊評論區(qū)截取抖音客戶私密信息,添加客戶微信后冒充平臺(tái)授課老師推銷第三方公司的課程,由此獲得第三方公司返利,違法獲利約140萬元。我國有著非常龐大的互聯(lián)網(wǎng)市場,由數(shù)據(jù)泄漏引發(fā)的詐騙等亂象必須引起充分重視。事實(shí)證明,哪怕只有一小部分的消費(fèi)者遭遇詐騙,損失都將是巨大的。
三是數(shù)據(jù)存儲(chǔ)層面的泄露風(fēng)險(xiǎn)。虛擬數(shù)字人為了能夠更加精準(zhǔn)地分析出用戶的偏好結(jié)論,通常會(huì)采集大批數(shù)據(jù)進(jìn)行深度分析。在這一過程中,就造成了數(shù)據(jù)泄露的隱憂。用戶的搜索記錄、使用習(xí)慣、錄音圖像等都是極其敏感的隱私信息,倘若因存儲(chǔ)不當(dāng)造成泄露,或被不法分子竊取利用,將會(huì)對個(gè)人生活造成嚴(yán)重的影響。然而,現(xiàn)如今,虛擬數(shù)字人及其背后的直播平臺(tái),在數(shù)據(jù)的存儲(chǔ)及安全性保障方面,無論是軟件還是硬件防護(hù)能力,都有待提高。對基礎(chǔ)數(shù)據(jù)也不能保證做到完全脫敏處理,這就需要在數(shù)據(jù)泄露方面建立起嚴(yán)密的保護(hù)與監(jiān)督體系,以保證用戶數(shù)據(jù)的安全無虞。
(三)侵權(quán)危機(jī):法律道德的模糊邊界
傳統(tǒng)主播與直播平臺(tái)之間的利益關(guān)系錯(cuò)綜復(fù)雜,雙方往往會(huì)通過簽訂詳盡的合同來界定彼此的權(quán)利與義務(wù),以保障各自的合法權(quán)益。然而,在傳統(tǒng)媒體與新興數(shù)字平臺(tái)的交融時(shí)代,隨著虛擬數(shù)字人技術(shù)的迅猛發(fā)展,這一領(lǐng)域內(nèi)的法律邊界變得愈發(fā)模糊。虛擬數(shù)字人作為非傳統(tǒng)法律意義上的主體,其法律地位與使用權(quán)限的界定尚存爭議,這直接導(dǎo)致了其在實(shí)際應(yīng)用中的一系列侵權(quán)風(fēng)險(xiǎn)。
一方面,從知識(shí)產(chǎn)權(quán)的角度來看,虛擬數(shù)字人及其衍生內(nèi)容,比如其獨(dú)特的形象設(shè)計(jì)、聲音特征以及算法技術(shù)等等,都是受法律保護(hù)的智力成果。這些元素不僅蘊(yùn)含著創(chuàng)作者的藝術(shù)靈感與技術(shù)智慧,更是商業(yè)價(jià)值的重要來源。因此,未經(jīng)授權(quán)擅自使用、復(fù)制或修改虛擬數(shù)字人的特征,無疑是對知識(shí)產(chǎn)權(quán)的嚴(yán)重侵犯。在我國首例涉及虛擬數(shù)字人侵權(quán)的司法案例中,上海魔琺公司精心打造的數(shù)字人“Ada”被杭州某網(wǎng)絡(luò)公司未經(jīng)許可擅自使用,法院最終判決該網(wǎng)絡(luò)公司構(gòu)成著作權(quán)侵權(quán)及不正當(dāng)競爭。這一判決不僅彰顯了法律對虛擬數(shù)字人知識(shí)產(chǎn)權(quán)保護(hù)的決心,也提醒業(yè)界應(yīng)嚴(yán)格遵守相關(guān)法律法規(guī),尊重并保護(hù)虛擬數(shù)字人的知識(shí)產(chǎn)權(quán)。
另一方面,從自然人的人格權(quán)角度出發(fā),隨著技術(shù)的不斷進(jìn)步,虛擬數(shù)字人在外貌、語言和行為上的仿真度日益提高,使得其與現(xiàn)實(shí)世界中的人類形象愈發(fā)難以區(qū)分。若未經(jīng)真實(shí)人物的明確授權(quán)或同意,擅自將其形象、聲音等個(gè)人特征融入虛擬數(shù)字人,并通過直播平臺(tái)等渠道進(jìn)行廣泛傳播,則極有可能侵犯到該自然人的人格權(quán)。2024年國慶假期期間,各大短視頻平臺(tái)出現(xiàn)大量“雷軍”AI配音的惡搞視頻,在視頻中,“雷軍”對假期堵車等現(xiàn)象進(jìn)行了犀利評價(jià),言語中甚至夾雜著不雅詞匯。短時(shí)間內(nèi),話題瀏覽量過億,引發(fā)較大爭議。盡管此事被迅速澄清,但是,這些由生成式人工智能制造的“假新聞”不僅嚴(yán)重干擾了公眾視聽,更對雷軍本人的人格權(quán)構(gòu)成了實(shí)質(zhì)侵犯。對于以真實(shí)人物形象為基礎(chǔ)的虛擬數(shù)字人,真實(shí)人物的同意和監(jiān)管是商業(yè)運(yùn)營中必不可少的步驟。然而,在現(xiàn)階段直播平臺(tái)虛擬數(shù)字人廣泛應(yīng)用的大背景下,這一過程往往被“簡化”,為侵權(quán)行為埋下隱患。
二、直播平臺(tái)虛擬數(shù)字人的治理難點(diǎn)
直播平臺(tái)虛擬數(shù)字人作為新質(zhì)生產(chǎn)力發(fā)展的重要成果,在現(xiàn)階段,由于對其了解不足、缺乏相關(guān)經(jīng)驗(yàn)等原因,對涉及虛擬數(shù)字人問題的治理仍存在著短板,具體而言,在治理過程中,前端設(shè)計(jì)、中端監(jiān)管、后端定責(zé)三個(gè)環(huán)節(jié)都存在著一定的現(xiàn)實(shí)困境。
(一)前端設(shè)計(jì):技術(shù)優(yōu)化方案的局限性
針對直播平臺(tái)虛擬數(shù)字人的應(yīng)用風(fēng)險(xiǎn)的治理,首當(dāng)其沖的就是設(shè)計(jì)環(huán)節(jié)。能否在技術(shù)發(fā)展的初期階段,就始終堅(jiān)持“科技向善”的理念,在研發(fā)過程中加以限制和規(guī)范,保證技術(shù)的可改正性、可控制性與可選擇性呢?這需要從虛擬數(shù)字人風(fēng)險(xiǎn)的表征及其背后的本質(zhì)加以分析。
一方面,AIGC(人工智能生成內(nèi)容)技術(shù)下,虛擬數(shù)字人的動(dòng)態(tài)具有難以預(yù)測的特性。人工智能分為弱人工智能、強(qiáng)人工智能和超強(qiáng)人工智能。現(xiàn)階段的虛擬數(shù)字人產(chǎn)品已經(jīng)初步具備人類的感知、分析和判斷等能力,能夠很好地與人類進(jìn)行協(xié)作、互動(dòng),接近強(qiáng)人工智能的水平。打破了傳統(tǒng)人工智能對數(shù)據(jù)處理時(shí)“鏈條”式的依存關(guān)系,能夠深度挖掘數(shù)據(jù)內(nèi)涵,重塑數(shù)據(jù)結(jié)構(gòu),進(jìn)而跨模態(tài)地生成所需內(nèi)容。在這種情況下,虛擬數(shù)字人的反應(yīng)和行為呈現(xiàn)出較強(qiáng)的“自涌性”特征,很難再用傳統(tǒng)思維對其進(jìn)行禁錮和控制。同時(shí),過分地限制技術(shù)本身,無疑會(huì)阻礙科技創(chuàng)新的腳步,影響虛擬數(shù)字人及相關(guān)產(chǎn)業(yè)的長遠(yuǎn)發(fā)展。
另一方面,技術(shù)優(yōu)化方案沒有觸及虛擬數(shù)字人風(fēng)險(xiǎn)的本質(zhì)。有觀點(diǎn)認(rèn)為,虛擬數(shù)字人本質(zhì)上是一種算法模型,不具有能動(dòng)性。而人類作為道德主體,是算法歧視的責(zé)任人[4]。算法給出的計(jì)算結(jié)果,即使帶有偏見和歧視,也是基于開發(fā)者及用戶的使用習(xí)慣和隱含在這背后的價(jià)值選擇。因此,從這一角度來看,直播平臺(tái)中虛擬數(shù)字人所引發(fā)的數(shù)據(jù)歧視問題,實(shí)質(zhì)上是對人類社會(huì)現(xiàn)有歧視規(guī)則的一種反映或延續(xù)。對此,對虛擬數(shù)字人的治理不能僅僅停留在表面現(xiàn)象上,而忽略了人類在這一過程中的主體作用和根本影響。要深入剖析數(shù)據(jù)歧視的根源,就必須從人類社會(huì)的價(jià)值觀念和道德選擇入手,而不僅僅是依賴技術(shù)層面的優(yōu)化和調(diào)整。
(二)中端監(jiān)管:算法檢查方案的局限性
直播平臺(tái)中虛擬數(shù)字人所傳達(dá)的信息,是基于復(fù)雜的算法得出的結(jié)論。因此,可以從本體論的角度出發(fā),對算法程序本身進(jìn)行規(guī)制、評估,以減少虛擬數(shù)字人在應(yīng)用過程中帶來的一系列問題。但是,這種方案在實(shí)踐過程的中卻具有很大程度上的局限性。
一方面,對算法進(jìn)行檢查面臨著現(xiàn)實(shí)挑戰(zhàn)[5]。對算法進(jìn)行檢查的主體應(yīng)包括直播平臺(tái)自身和官方監(jiān)管。從直播平臺(tái)自身的角度來看,對算法自行檢視的成本高昂。大的語言模型在生成信息時(shí),很大程度上“難辨真?zhèn)巍保绻麅H僅通過系統(tǒng)自身對信息進(jìn)行真實(shí)性檢查,難以做出基于客觀條件的事實(shí)判斷。而依靠人工進(jìn)行逐一審查,時(shí)間和人力成本過于昂貴,不具備可行性。直播平臺(tái)的本質(zhì)是企業(yè),是以盈利為目的的社會(huì)主體,如果因?yàn)椴糠痔摷傩畔⒌母蓴_,就過分要求企業(yè)承擔(dān)對信息進(jìn)行逐一核實(shí)、把關(guān)的義務(wù),忽視企業(yè)的經(jīng)營壓力和社會(huì)成本,這種“因噎廢食”的做法會(huì)極大抑制科技創(chuàng)新的積極性。而通過行政部門對算法內(nèi)容進(jìn)行檢查,也無法預(yù)防虛擬數(shù)字人在傳播信息過程中產(chǎn)生的缺乏合理性和合法性的風(fēng)險(xiǎn)。當(dāng)前行政部門對算法規(guī)制的主要手段是進(jìn)行常態(tài)化備案和專項(xiàng)檢查,但是,常態(tài)化的算法備案對大型語言模型內(nèi)容層面的算法安全風(fēng)險(xiǎn)并無更深層次的治理效果,且更會(huì)產(chǎn)生信息泄露、不正當(dāng)競爭等一系列問題。因此,通過算法檢查手段,無論是直播平臺(tái)自身,還是行政部門,都難以做到促進(jìn)虛擬數(shù)字人健康發(fā)展與風(fēng)險(xiǎn)規(guī)避之間的完全平衡。
另一方面,對算法風(fēng)險(xiǎn)進(jìn)行評估在應(yīng)用上存在困難。算法風(fēng)險(xiǎn)評估性工具旨在使用系統(tǒng)制定的衡量標(biāo)準(zhǔn)對算法模型的系統(tǒng)架構(gòu)、數(shù)據(jù)流轉(zhuǎn)以及應(yīng)用過程等進(jìn)行評估,以明確該算法模型的影響水平和風(fēng)險(xiǎn)等級。但是,在直播平臺(tái)虛擬數(shù)字人的語境下,算法風(fēng)險(xiǎn)評估方案具有應(yīng)用上的難題。虛擬數(shù)字人的直播具有靈活性、不確定性等特點(diǎn),與現(xiàn)有的算法風(fēng)險(xiǎn)評估體系要求的靜態(tài)性、具體性難以適配。現(xiàn)有的算法風(fēng)險(xiǎn)評估方案主要集中于對大型語言模型本身進(jìn)行基礎(chǔ)性評估。而虛擬數(shù)字人涉及的上下游產(chǎn)業(yè)繁多,如何對這些配套的模型及服務(wù)制訂切實(shí)可行的風(fēng)險(xiǎn)評估方案無疑是更加重要且關(guān)鍵的問題。
(三)末端定責(zé):主體治理方案的局限性
既然對算法本身進(jìn)行規(guī)制的可行性并不高,那么,能否按照不同主體,對直播平臺(tái)虛擬數(shù)字人的風(fēng)險(xiǎn)和責(zé)任進(jìn)行合理劃分,從而實(shí)現(xiàn)有效的規(guī)制呢?在現(xiàn)有的技術(shù)和社會(huì)條件下,至少面臨以下問題:
首先是責(zé)任主體界定存在一定困難。直播平臺(tái)虛擬數(shù)字人治理的首要問題就是明確治理對象。然而,虛擬數(shù)字人能否成為獨(dú)立的責(zé)任主體呢?對此,學(xué)界存在著不同的觀點(diǎn)。肯定的觀點(diǎn)認(rèn)為,人工智能分為弱人工智能、強(qiáng)人工智能和超強(qiáng)人工智能。現(xiàn)階段的虛擬數(shù)字人產(chǎn)品已經(jīng)初步具備人類的感知、分析和判斷等能力,能夠與人類進(jìn)行協(xié)作、互動(dòng),接近強(qiáng)人工智能的水平,且產(chǎn)生風(fēng)險(xiǎn)原因多數(shù)是由其直接造成,并非人工操控,因而其可以作為承擔(dān)責(zé)任的主體。從過錯(cuò)原則的角度講,應(yīng)當(dāng)在制度層面賦予其主體地位,以推動(dòng)責(zé)任問題的解決。反對的觀點(diǎn)則認(rèn)為,從抽象層面看,虛擬數(shù)字人本質(zhì)上還是虛擬AIGC技術(shù)背景下的人工智能產(chǎn)業(yè)的成果,屬于“非人之物”,不應(yīng)賦予其人格地位,否則就是對人類主體性地位的否認(rèn)。從具象層面看,如果將虛擬數(shù)字人定義為責(zé)任主體,在現(xiàn)實(shí)語境下,其并不具備獨(dú)立承擔(dān)責(zé)任的實(shí)際能力,后續(xù)的責(zé)任劃分過程將會(huì)變得沒有意義。此外,如果過分對虛擬主體追責(zé),會(huì)造成“責(zé)任離散”現(xiàn)象,使責(zé)任追究流于形式,不利于充分保護(hù)用戶權(quán)益。引發(fā)風(fēng)險(xiǎn)和承擔(dān)責(zé)任的主體不能做到完全對稱,是目前直播平臺(tái)虛擬數(shù)字人治理過程中面臨的首要問題。
其次是責(zé)任劃分不能做到完全清晰。傳統(tǒng)的人工智能更多關(guān)注的是算法模型與個(gè)體用戶之間的關(guān)系,而如今的人工智能已經(jīng)經(jīng)歷了由傳統(tǒng)的人工智能向生成式人工智能過渡的歷史階段,直播平臺(tái)虛擬數(shù)字人作為人工智能產(chǎn)業(yè)鏈的前端產(chǎn)品,可能承擔(dān)“算法主體責(zé)任”的主體呈多元化、分散化、動(dòng)態(tài)化、場景化特性[6]。一方面,虛擬數(shù)字人對用戶數(shù)據(jù)的收集、分析和處理可能對應(yīng)多個(gè)不同的算法模型,算法模型背后承擔(dān)責(zé)任的主體多元;另一方面,多種算法綜合的條件下,數(shù)據(jù)風(fēng)險(xiǎn)具有一定的關(guān)聯(lián)性。不同的數(shù)據(jù)基礎(chǔ)、應(yīng)用模式之間存在著相互聯(lián)系、共同作用的情況。難以完全細(xì)致量化各個(gè)主體承擔(dān)責(zé)任的具體比例,缺乏實(shí)踐層面的可行性。
最后是治理力度面臨“科林格里奇困境”。英國技術(shù)哲學(xué)家大衛(wèi)·科林格里奇(David Collingridge)曾指出:“一項(xiàng)技術(shù)的社會(huì)后果不能在技術(shù)早期被準(zhǔn)確預(yù)見,當(dāng)技術(shù)產(chǎn)生不良后果時(shí),它往往已經(jīng)成為整個(gè)經(jīng)濟(jì)和社會(huì)結(jié)構(gòu)中難以抽離的一部分,以至于難以對它進(jìn)行控制。”學(xué)界稱之為“科林格里奇困境” [7]。目前,針對直播行業(yè)虛擬數(shù)字人的綜合治理,正面臨“科林格里奇困境”。在世界范圍內(nèi),歐洲國家對于個(gè)人隱私保護(hù)的要求最為嚴(yán)格,由此連帶對虛擬AIGC的強(qiáng)硬規(guī)制[8]。但嚴(yán)格責(zé)任模式下,卻抑制了相關(guān)主體進(jìn)行科技創(chuàng)新的積極性。而美國則更關(guān)注AIGC的商業(yè)發(fā)展,以產(chǎn)業(yè)發(fā)展作為監(jiān)管的重心[8]。但是,弱監(jiān)管模式必然伴隨著一系列問題的產(chǎn)生,長此以往,也會(huì)對智能產(chǎn)業(yè)發(fā)展產(chǎn)生較大的負(fù)面影響。對于我國而言,如何在推進(jìn)中國式現(xiàn)代化的進(jìn)程中,精準(zhǔn)地把握保護(hù)與發(fā)展新技術(shù)的平衡點(diǎn),既確保其在合理框架內(nèi)健康發(fā)展,又充分激發(fā)其創(chuàng)新潛力,是必須認(rèn)真思考、審慎把握的重要問題。
三、直播平臺(tái)虛擬數(shù)字人風(fēng)險(xiǎn)的應(yīng)對策略
如前所述,對直播平臺(tái)虛擬數(shù)字人的治理,無論從技術(shù)優(yōu)化、算法規(guī)制還是從主體責(zé)任的角度,都具有很明顯的局限性。那么,如何建立起高效、公平、合理的責(zé)任機(jī)制,促使直播平臺(tái)虛擬數(shù)字人健康發(fā)展呢?必須充分認(rèn)識(shí)到虛擬數(shù)字人具有的“雙刃劍”的屬性,一方面帶來風(fēng)險(xiǎn)和困境的同時(shí),另一方面也具有社會(huì)發(fā)展大背景下技術(shù)進(jìn)步的合理性。在進(jìn)行責(zé)任機(jī)制分配時(shí),可以選擇性忽視其“趨利”的一方面,轉(zhuǎn)而聚焦“避害”的另一方面,從虛擬數(shù)字人本身造成的風(fēng)險(xiǎn)源出發(fā),根據(jù)不同的風(fēng)險(xiǎn),具體施策,針對性制定與之相適配的責(zé)任方案。
(一)規(guī)范算法機(jī)制,提升公眾媒介素養(yǎng)水平
對算法層面的治理,不是簡單地治理算法本身,本質(zhì)上是治理隱藏在算法背后的“人”,即算法程序的設(shè)計(jì)者、開發(fā)者和使用者的行為。具體而言,可以從三個(gè)方面同時(shí)入手:
一是強(qiáng)化算法透明度與多樣性優(yōu)化。首先,應(yīng)增強(qiáng)智能算法的透明度,打破“算法黑箱”。這要求直播平臺(tái)公開算法的基本原理、決策邏輯及可能影響用戶信息接收的關(guān)鍵因素,使用戶能夠了解并評估算法的運(yùn)行機(jī)制。同時(shí),建立算法審計(jì)機(jī)制,由第三方獨(dú)立機(jī)構(gòu)定期對算法進(jìn)行審查,確保其公正性、無偏見性。在此基礎(chǔ)上,推動(dòng)算法多樣化優(yōu)化,避免過度迎合用戶偏好而導(dǎo)致的信息繭房效應(yīng)。此外,算法設(shè)計(jì)還應(yīng)具有探索性推薦功能,鼓勵(lì)用戶跳出舒適區(qū),接觸并了解多元化的信息,促進(jìn)信息的全面流通與社會(huì)的多元發(fā)展。
二是建立內(nèi)容審核與真實(shí)性保障機(jī)制。針對虛擬數(shù)字人傳播內(nèi)容的真實(shí)性和客觀性挑戰(zhàn),必須建立起嚴(yán)格的內(nèi)容審核機(jī)制。一方面,可以引入人工智能輔助審核技術(shù),結(jié)合人工復(fù)審,對爭議較大或產(chǎn)生重大影響的新聞進(jìn)行真實(shí)性驗(yàn)證,確保信息的準(zhǔn)確無誤。另一方面,設(shè)立獨(dú)立的新聞倫理委員會(huì),負(fù)責(zé)監(jiān)督虛擬數(shù)字人播報(bào)內(nèi)容的道德合規(guī)性,防止算法偏見導(dǎo)致的信息誤導(dǎo)。同時(shí),要強(qiáng)化對虛擬數(shù)字人技術(shù)供應(yīng)商的監(jiān)管,要求其提供符合新聞倫理標(biāo)準(zhǔn)的算法模型,并對算法進(jìn)行持續(xù)更新,以適應(yīng)不斷變化的社會(huì)環(huán)境和用戶需求。此外,平臺(tái)應(yīng)當(dāng)鼓勵(lì)用戶舉報(bào)虛假信息,并建立起快速響應(yīng)機(jī)制,對查實(shí)的虛假信息進(jìn)行及時(shí)辟謠,以減少由此造成的不良影響。
三是提升公眾媒介素養(yǎng)與加強(qiáng)行業(yè)自律。提升公眾的媒介素養(yǎng)是解決信息碎片化時(shí)代虛假信息問題的重要途徑。通過開展教育、媒體宣傳等多種渠道,普及媒介素養(yǎng)知識(shí),提高用戶對信息真?zhèn)蔚谋鎰e能力,尤其是對虛擬數(shù)字人播報(bào)內(nèi)容的批判性思考能力。引導(dǎo)用戶認(rèn)識(shí)到算法推薦信息的局限性,鼓勵(lì)主動(dòng)尋找和驗(yàn)證信息來源,培養(yǎng)獨(dú)立思考和多元信息獲取的習(xí)慣。同時(shí),加強(qiáng)行業(yè)自律,推動(dòng)直播平臺(tái)、MCN機(jī)構(gòu)等利益相關(guān)方簽署行業(yè)公約,明確信息真實(shí)性、客觀性標(biāo)準(zhǔn),建立違規(guī)處罰機(jī)制,對制造、傳播虛假信息的行為進(jìn)行嚴(yán)厲打擊。鼓勵(lì)行業(yè)內(nèi)部共享“黑名單”,對違規(guī)者實(shí)施聯(lián)合懲戒,形成有效的行業(yè)監(jiān)管網(wǎng)絡(luò)。
(二)嚴(yán)管數(shù)據(jù)使用,構(gòu)筑用戶個(gè)人隱私屏障
數(shù)據(jù)泄露風(fēng)險(xiǎn)貫穿虛擬數(shù)字人應(yīng)用的各個(gè)環(huán)節(jié),極大影響用戶的體驗(yàn)感,同時(shí)可能帶來一系列的社會(huì)問題。因此,必須在數(shù)據(jù)采集、數(shù)據(jù)使用、數(shù)據(jù)存儲(chǔ)三個(gè)層面針對性地分層施策。做到保護(hù)全鏈條、監(jiān)管全覆蓋。
一是直播平臺(tái)應(yīng)完善數(shù)據(jù)采集的具體標(biāo)準(zhǔn)。首先是對虛擬數(shù)字人采集數(shù)據(jù)的內(nèi)容和來源做出限制。例如,對用戶信息的采集僅限于日常瀏覽信息和搜索記錄,而對于那些與關(guān)聯(lián)性弱、涉及個(gè)人隱私的數(shù)據(jù),如身份信息、照片、錄音、位置信息等則不予采集,提高數(shù)據(jù)采集的標(biāo)準(zhǔn)。同時(shí),要特別注意用戶的知情權(quán),每次采集前,必須準(zhǔn)確告知用戶采集的范圍、方式及目的,盡到充分提醒的義務(wù)。做到“非必要不采集、非授權(quán)不采集”。其次是嚴(yán)管數(shù)據(jù)使用的方式方法。對采集過的原始數(shù)據(jù),要進(jìn)行綜合的分析判定,避免低質(zhì)量的數(shù)據(jù)堆砌,且在使用過程中,應(yīng)遵循“數(shù)據(jù)采集的目的是服務(wù)用戶”的根本原則,防止數(shù)據(jù)被用作商業(yè)推銷、非法販賣,損害用戶利益。最后是提高數(shù)據(jù)存儲(chǔ)的保密質(zhì)量。運(yùn)用安全的傳輸手段,對收集上來的數(shù)據(jù)進(jìn)行脫敏處理,及時(shí)對過期的數(shù)據(jù)進(jìn)行清理,避免數(shù)據(jù)冗余與泄露風(fēng)險(xiǎn)。同時(shí),嚴(yán)格限制數(shù)據(jù)訪問權(quán)限,對用戶的使用信息嚴(yán)格保密,提高虛擬數(shù)字人隱私保護(hù)的綜合能力。
二是監(jiān)管機(jī)構(gòu)要采取嚴(yán)格的管控措施。首先是事前明確規(guī)定。盡快健全關(guān)于支持和發(fā)展虛擬數(shù)字人的數(shù)據(jù)安全的體制機(jī)制,完善限制虛擬數(shù)字人風(fēng)險(xiǎn)的法律法規(guī),明確各相關(guān)主體的責(zé)任范圍與歸責(zé)依據(jù),努力讓制度創(chuàng)新追上科技創(chuàng)新前進(jìn)的步伐,為行業(yè)發(fā)展提供堅(jiān)實(shí)的“規(guī)則之盾”。其次是事中嚴(yán)格監(jiān)管。除了要求平臺(tái)方建立健全自查自糾機(jī)制外,監(jiān)管機(jī)構(gòu)還應(yīng)采取定期審查與隨機(jī)抽查相結(jié)合的監(jiān)管模式,對涉及虛擬數(shù)字人的直播間實(shí)施全方位、多維度的監(jiān)督,及時(shí)發(fā)現(xiàn)并有效避免數(shù)據(jù)泄露等潛在風(fēng)險(xiǎn),確保監(jiān)管工作的精準(zhǔn)性和時(shí)效性。最后是事后妥善處理。對于數(shù)據(jù)泄露事件導(dǎo)致的個(gè)人或國家利益受損,相關(guān)職能部門應(yīng)依據(jù)法律法規(guī),迅速啟動(dòng)應(yīng)急響應(yīng)機(jī)制,采取科學(xué)合理的補(bǔ)救措施,既要嚴(yán)格依法追責(zé),確保不缺位、不越權(quán),又要妥善處理用戶與直播平臺(tái)之間的糾紛,平衡各方利益,既要維護(hù)用戶合法權(quán)益,又要為產(chǎn)業(yè)的持續(xù)健康發(fā)展?fàn)I造良好環(huán)境。
三是用戶個(gè)人需注意自身隱私的保護(hù)。一方面,要提高隱私意識(shí)。充分認(rèn)識(shí)到數(shù)據(jù)泄露的風(fēng)險(xiǎn)與隱患,從而增強(qiáng)對個(gè)人隱私的防護(hù)。用戶應(yīng)主動(dòng)學(xué)習(xí)關(guān)于數(shù)據(jù)安全的相關(guān)法律法規(guī),了解自身在數(shù)據(jù)保護(hù)方面的權(quán)利與義務(wù),以便在必要時(shí)能夠準(zhǔn)確、有效地尋求法律幫助與支持。另一方面,要學(xué)會(huì)依法維權(quán)。在使用平臺(tái)過程中注意識(shí)別直播平臺(tái)虛擬數(shù)字人可能存在的侵犯隱私權(quán)、數(shù)據(jù)泄露等問題,并通過截圖、錄像等手段保留相關(guān)證據(jù),及時(shí)向平臺(tái)方和監(jiān)管部門反饋舉報(bào),用法律手段維護(hù)自身權(quán)益不受侵犯。
(三)強(qiáng)化權(quán)益保護(hù),建立侵權(quán)風(fēng)險(xiǎn)防控體系
科學(xué)技術(shù)發(fā)展的最終目標(biāo)是造福人類。在直播平臺(tái)虛擬數(shù)字人發(fā)展的過程中,出現(xiàn)了沖擊個(gè)體權(quán)利的“陣痛”。為此,必須始終堅(jiān)持人類的主體地位、厘清虛擬數(shù)字人侵權(quán)問題的法律框架與責(zé)任歸屬,多主體協(xié)同、多維度發(fā)力,構(gòu)建起堅(jiān)實(shí)可靠的侵權(quán)風(fēng)險(xiǎn)防控體系。
一是相關(guān)部門要盡快完善法律法規(guī),厘清虛擬數(shù)字人法律地位。虛擬數(shù)字人作為新質(zhì)生產(chǎn)力高度發(fā)展背景下生成式人工智能領(lǐng)域的重要成果,其法律地位與使用權(quán)限的界定尚存爭議,這是導(dǎo)致侵權(quán)風(fēng)險(xiǎn)頻發(fā)的重要原因。因此,完善相關(guān)法律法規(guī),明確虛擬數(shù)字人的法律地位,是防范侵權(quán)風(fēng)險(xiǎn)的首要任務(wù)。相關(guān)部門應(yīng)密切關(guān)注虛擬數(shù)字人的應(yīng)用現(xiàn)狀及未來趨勢,對虛擬數(shù)字人的定義、權(quán)利歸屬、責(zé)任承擔(dān)等問題進(jìn)行界定。同時(shí),要加強(qiáng)對虛擬數(shù)字人知識(shí)產(chǎn)權(quán)的保護(hù)力度,明確知識(shí)產(chǎn)權(quán)的歸屬與行使方式,為創(chuàng)作者和運(yùn)營者提供明確的法律指引,通過完善法律法規(guī),構(gòu)建一個(gè)公平、透明的法律框架,為虛擬數(shù)字人的健康發(fā)展提供堅(jiān)實(shí)的法律保障。
二是直播平臺(tái)要加強(qiáng)技術(shù)監(jiān)管,提升虛擬數(shù)字人應(yīng)用的安全性。技術(shù)監(jiān)管是防范虛擬數(shù)字人侵權(quán)風(fēng)險(xiǎn)的重要手段。直播平臺(tái)應(yīng)加強(qiáng)對虛擬數(shù)字人應(yīng)用的技術(shù)監(jiān)管,確保其在合法、合規(guī)的范圍內(nèi)運(yùn)行。一方面,平臺(tái)應(yīng)建立嚴(yán)格的審核機(jī)制,對虛擬數(shù)字人的形象設(shè)計(jì)、聲音特征、算法技術(shù)等元素進(jìn)行審查,確保其內(nèi)容符合法律法規(guī)和道德規(guī)范。另一方面,平臺(tái)應(yīng)加強(qiáng)對用戶行為的監(jiān)控,及時(shí)發(fā)現(xiàn)并處理未經(jīng)授權(quán)擅自使用、復(fù)制或修改虛擬數(shù)字人特征的行為。此外,平臺(tái)還要注重技術(shù)的更新與迭代,提升虛擬數(shù)字人應(yīng)用的安全性,防止因技術(shù)漏洞導(dǎo)致的侵權(quán)風(fēng)險(xiǎn),通過加強(qiáng)技術(shù)監(jiān)管,提升虛擬數(shù)字人應(yīng)用的安全性,為用戶提供一個(gè)更加安全、可靠的網(wǎng)絡(luò)環(huán)境。
三是用戶個(gè)人要提升自身權(quán)益保護(hù)能力。直播平臺(tái)的用戶作為虛擬數(shù)字人應(yīng)用的直接參與者,其知識(shí)產(chǎn)權(quán)與人格權(quán)保護(hù)意識(shí)與能力對于侵權(quán)行為的防范而言至關(guān)重要。用戶應(yīng)當(dāng)樹立主人翁意識(shí),積極參與虛擬數(shù)字人應(yīng)用的監(jiān)督和管理,發(fā)現(xiàn)侵權(quán)行為及時(shí)舉報(bào),逐漸形成全社會(huì)共同抵制侵權(quán)的良好氛圍。同時(shí),對于以真實(shí)人物形象為基礎(chǔ)的虛擬數(shù)字人,應(yīng)當(dāng)理性看待,避免過度模仿或惡搞,充分尊重真實(shí)人物的合法權(quán)益。此外,要加強(qiáng)對青少年的教育和引導(dǎo),防止其因好奇心或無知而參與侵權(quán)行為,共同營造健康向上的網(wǎng)絡(luò)環(huán)境。
四、結(jié)語
當(dāng)前,人工智能與人類深度交互的時(shí)代已日益臨近。虛擬數(shù)字人具有逼真的個(gè)體形象、周密的算法結(jié)論,生動(dòng)的交互能力,正逐步改變著人們的信息接收方式、娛樂消費(fèi)習(xí)慣乃至社交互動(dòng)模式,為直播平臺(tái)注入了前所未有的活力與可能性。可以說,虛擬數(shù)字人的不斷發(fā)展,既代表了生成式人工智能不斷發(fā)展的具象成果,又是傳媒行業(yè)深度變革的新風(fēng)向標(biāo)。然而,由此帶來的算法偏見、數(shù)據(jù)泄露、隱私安全等種種風(fēng)險(xiǎn)都不容忽視,我們既要秉承開放包容的態(tài)度,對虛擬數(shù)字人的技術(shù)研發(fā)、應(yīng)用提供大力支持,推動(dòng)其不斷發(fā)展,為科技創(chuàng)新注入強(qiáng)勁動(dòng)力,又要堅(jiān)持嚴(yán)格審慎的原則,對其發(fā)展過程中的負(fù)面影響予以控制。要采取綜合手段和多維措施,通過強(qiáng)化數(shù)據(jù)安全保護(hù)、嚴(yán)格算法倫理審查、推動(dòng)行業(yè)自律與標(biāo)準(zhǔn)制定等方法,共同構(gòu)建起堅(jiān)實(shí)可靠的監(jiān)督屏障和行之有效的保護(hù)機(jī)制。
可以預(yù)見的是,未來,隨著生成式人工智能技術(shù)的進(jìn)一步深化,虛擬數(shù)字人將更加深度融入人們生活當(dāng)中,充當(dāng)虛擬偶像、虛擬導(dǎo)演等眾多新型角色。由此也可能產(chǎn)生更加復(fù)雜的問題,即人類主體性身份認(rèn)同問題。虛擬數(shù)字人的高度仿真性,使得用戶在與之互動(dòng)的過程中,可能產(chǎn)生對其真實(shí)性的混淆,進(jìn)而影響個(gè)體的自我認(rèn)知、社交關(guān)系乃至心理健康,甚至導(dǎo)致社會(huì)秩序混亂等嚴(yán)重問題。這無疑是對現(xiàn)實(shí)人類社會(huì)的重大沖擊。對此,必須在科學(xué)技術(shù)進(jìn)步的同時(shí),堅(jiān)守科技理性與道德理性底線,厘清虛擬數(shù)字人在人類生產(chǎn)生活中的實(shí)踐邊界。換言之,必須堅(jiān)持虛擬數(shù)字人的非主體地位,在價(jià)值向度中厘清其不斷發(fā)展的必然、服務(wù)人類的應(yīng)然、工具屬性的實(shí)然。使用算法輔助決策而非代替決策,使用虛擬數(shù)字人輔助人類直播而非完全替代人類,同時(shí)充分發(fā)掘、特別強(qiáng)調(diào)人類的獨(dú)特價(jià)值。否則,任何虛擬數(shù)字人的實(shí)踐都會(huì)陷入人類主體性消解的困境,難逃“科林格里奇困境”的窠臼。因此,只有充分了解直播平臺(tái)虛擬數(shù)字人發(fā)展的具體狀況、現(xiàn)實(shí)困境,才能明確其問題來源與潛在風(fēng)險(xiǎn),有針對性地分層施策,使直播平臺(tái)虛擬數(shù)字人健康持續(xù)發(fā)展,驅(qū)動(dòng)新質(zhì)生產(chǎn)力不斷進(jìn)步,為廣大用戶持續(xù)提供豐富、便捷、高效的信息服務(wù)與文化體驗(yàn),從而更好地造福社會(huì)、造福人類。
注 釋:
① “算法黑箱”指的是在大數(shù)據(jù)和人工智能應(yīng)用中,由于數(shù)據(jù)收集的非結(jié)構(gòu)化和非標(biāo)準(zhǔn)化,以及對數(shù)據(jù)來源和處理過程透明度的缺乏,使用者難以理解模型的決策邏輯及其依據(jù),從而無法解釋其推斷的理由。具體參見:侯東德《人工智能發(fā)展中的數(shù)據(jù)風(fēng)險(xiǎn)及治理》,《行政法學(xué)研究》,2024年第6期。
參考文獻(xiàn):
[1] 陳力銘.數(shù)字經(jīng)濟(jì)時(shí)代農(nóng)產(chǎn)品直播電商的“信息繭房”困境及其倫理反思[J].西南民族大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2024,45(7):141-148.
[2] 郭棟.虛擬數(shù)字人的傳播風(fēng)險(xiǎn)與社會(huì)行動(dòng)者治理[J].陜西師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2024,53(3):122-129.
[3] 王翠翠,徐靜,秦海生,等.電商主播類型對消費(fèi)者購買行為的影響:AI主播和真人主播[J].管理科學(xué),2023,36(4):30-43.
[4] 孟令宇.從算法偏見到算法歧視:算法歧視的責(zé)任問題探究[J].東北大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2022,24(1):1-9.
[5] 張欣.生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管[J].現(xiàn)代法學(xué),2023,45(3):108-123.
[6] 張旭芳.生成式人工智能的算法安全風(fēng)險(xiǎn)及治理路徑[J].江西社會(huì)科學(xué),2024,44(8):90-100.
[7] 文成偉,汪姿君.預(yù)知性技術(shù)倫理消解AI科林格里奇困境的路徑分析[J].自然辯證法通訊,2021,43(4):9-15.
[8] 張春春,孫瑞英.如何走出AIGC的“科林格里奇困境”:全流程動(dòng)態(tài)數(shù)據(jù)合規(guī)治理[J].圖書情報(bào)知識(shí),2024,41(2):39-49+66.