基于“大數(shù)據(jù)+高算力+強算法”的具身智能,加上其與人類相近的外形和行為模式,無疑會導(dǎo)致一定的風險,其中最值得關(guān)注的就是倫理風險。如何消除具身智能的“恐怖谷效應(yīng)”,值得深入探討。
具身智能潛在的倫理風險,源于其兩大特點——AIGC(人工智能生成內(nèi)容)和與人類高度相近的物理形態(tài)。
AIGC為具身智能賦能,也導(dǎo)致了不容忽視的倫理風險。例如一部可以提供家庭服務(wù)的具身智能設(shè)備,能夠識別其所服務(wù)的家庭成員的面孔,了解他們的生活習慣。對大量個人信息和隱私數(shù)據(jù)的處理是實現(xiàn)具身智能個性化、智能化服務(wù)的必要前提。以與人類互動為主要功能的人形機器人是多種應(yīng)用的集成。它能全面收集你的相關(guān)參數(shù),可能成為世界上最懂你的“人”,還會時刻在身邊觀察你——這便是“恐怖谷效應(yīng)”的成因。所謂“恐怖谷效應(yīng)”,即人類對類似人類的非人類物體的一種情感反應(yīng)。
除了“恐怖谷效應(yīng)”,在具身智能的科技倫理挑戰(zhàn)中,擬人交互系統(tǒng)的沉迷風險也值得關(guān)注。有美國媒體報道,作為心理輔導(dǎo)員的具身智能設(shè)備接觸大量受眾,每臺設(shè)備都能獲取超過9500萬條信息,極易令人沉迷于與它的交流之中。尤其是青少年,他們通過與具身智能設(shè)備聊天、互動,尋求更多的陪伴、支持、娛樂乃至心理療愈。面對一個“知我懂我”,情緒價值和物理體驗都能與真人相媲美的設(shè)備,很有可能導(dǎo)致情感沉迷。在網(wǎng)絡(luò)上,有基于算法治理的防沉迷機制,規(guī)定算法推薦服務(wù)提供者不得利用算法推薦服務(wù)誘導(dǎo)未成年人沉迷網(wǎng)絡(luò)。但在線下一對一的空間里,如何構(gòu)筑相應(yīng)的規(guī)范體系?如何防止未成年人沉迷于具身智能設(shè)備?
AIGC與生俱來的風險與其物理形態(tài)相結(jié)合,極易放大倫理挑戰(zhàn)。AIGC可能導(dǎo)致具身智能設(shè)備對人類進行誤導(dǎo),甚至在價值偏差下操縱人類。在社交媒體時代,當我們的喜好被算法“投喂”,我們的憎惡被算法強化,我們的觀點被算法構(gòu)建,人類的自由意志可能被部分消解。當然,用戶可以利用推薦、決策、評級等機制,通過有意識地改變自己在算法機制中輸入的信息,來實現(xiàn)對算法的掌控。不過我們?nèi)匀灰伎迹谝粚σ唤换タ臻g中,高度近似人類的具身智能設(shè)備是否會對人類意志產(chǎn)生更為深遠的影響?
更加令人擔憂的是,人類如何能夠不依賴一個在知識儲備上遠勝于自己的具身智能設(shè)備?我們已經(jīng)看到了人類和機器互動方式的巨大變化。當代年輕人已經(jīng)習慣了通過語音與具身智能互動,越來越習慣摘取具身智能為他們準備好的知識成果,從而在認知層面“對齊”。未來一代人則面臨著更加不同的互動方式和人機力量對比,防止具身智能操縱人類將成為共識。
除了倫理風險,具身智能的應(yīng)用還會導(dǎo)致其他風險。
一是網(wǎng)絡(luò)安全風險。具身智能離不開網(wǎng)絡(luò),一旦接入互聯(lián)網(wǎng)就面臨網(wǎng)絡(luò)安全風險。具身智能的交互能力越強,承擔的智能任務(wù)越多,面臨的網(wǎng)絡(luò)安全風險就越大。
如果工廠中的具身智能設(shè)備遭遇網(wǎng)絡(luò)攻擊,不僅會對正常的工業(yè)生產(chǎn)造成不良影響,而且可能威脅工人的安全。攻擊者進行“數(shù)據(jù)投毒”,向模型的訓(xùn)練數(shù)據(jù)中加入惡意樣本,或修改訓(xùn)練數(shù)據(jù)標簽信息,都會影響模型在推理階段的表現(xiàn)。惡意軟件可能導(dǎo)致醫(yī)用機器人在與人交互時執(zhí)行不必要的操作。勒索軟件可能劫持各種機器人,使其無法使用。黑客可能獲取具身智能所掌握的個人信息,用于實施詐騙,或利用作為私人助手的具身智能實施遠程違法“代理”,也可能控制具身智能實施入戶盜竊、搶劫等犯罪行為。
另外,具身智能的發(fā)展可能大大增加恐怖活動的風險。如果加油(氣)站、充電站、危險品倉庫、化工廠等危險目標遭到具身智能的襲擊,不僅可能造成人員、財產(chǎn)等重大損失,還可能造成惡劣的政治影響。
具身智能設(shè)備需要處理復(fù)雜任務(wù),其控制系統(tǒng)中既部署了本地任務(wù),也需要借助算力強大的私有云計算系統(tǒng)應(yīng)對復(fù)雜問題,滿足更為復(fù)雜的用戶需求。信息“上云”對傳統(tǒng)的個人數(shù)據(jù)保護體系形成挑戰(zhàn),打破了通過服務(wù)應(yīng)用進行隱私數(shù)據(jù)保護的模式,產(chǎn)生了更為復(fù)雜多樣的隱私問題。
具身智能已成為人工智能時代人機關(guān)系命題的重要方面。挑戰(zhàn)不僅在于完善技術(shù)及法規(guī),也需要人類社會共同面對、協(xié)同治理。
比如,如何通過區(qū)分本地處理和云側(cè)處理場景,僅在相對有限的情形下向云端提供數(shù)據(jù),有效降低數(shù)據(jù)泄露風險?又如,端側(cè)內(nèi)部處理機制、上傳信息的標準和觸發(fā)條件、數(shù)據(jù)加密機制、數(shù)據(jù)傳輸類型等如何把握?是否能將個人信息用于模型訓(xùn)練數(shù)據(jù)?應(yīng)對類似的新型數(shù)據(jù)隱私挑戰(zhàn),有待我們進一步探索。
二是個人信息安全風險。具身智能的運行離不開個人信息。具身智能在同人類交流的過程中,會掌握大量個人信息,如生物識別、身份號、金融賬戶、醫(yī)療健康等信息,存在泄露的風險。大模型一方面可能會“記住”并在特定誘導(dǎo)模式下泄露訓(xùn)練數(shù)據(jù)中的個人信息,另一方面可能推斷出個人的經(jīng)濟狀況等信息,并予以泄露。攻擊者可能YXz+01EsGMALWjwipu38xg==實施“撞庫”攻擊,即通過收集互聯(lián)網(wǎng)中已泄露的用戶和密碼信息生成對應(yīng)的字典表,借機嘗試批量登錄相關(guān)平臺,竊取更多信息。
由于“耳聰目明”,具身智能可能成為超強的“竊聽器”和“監(jiān)視器”。作為私人助手的具身智能設(shè)備,不僅可能違法收集家庭成員的談話、電話通信等語音信息,還可能違法識別有關(guān)家庭財產(chǎn)和私密行為的圖片等信息。作為情感伙伴的具身智能設(shè)備,可能獲取人們不愿意主動透露的個人隱私。在智能化社會中,如何有效保護個人信息,是人們面臨的新的法律和社會問題。
三是數(shù)據(jù)安全風險。具身智能不僅可能引發(fā)個人信息安全風險,還可能引發(fā)公共數(shù)據(jù)和企業(yè)數(shù)據(jù)泄露風險。
具身智能離不開生成式人工智能的運用,而生成式人工智能語料庫的大規(guī)模流動、聚合和分析會帶來前所未有的數(shù)據(jù)安全風險,其范圍涵蓋數(shù)據(jù)輸入、運算、存儲和輸出的全過程,兼具瞬時性和破壞性。
數(shù)據(jù)可能被具身智能的開發(fā)者、相關(guān)軟件運營者等主體違法處理,也可能被黑客竊取。現(xiàn)階段的技術(shù)局限導(dǎo)致大模型在應(yīng)對訓(xùn)練數(shù)據(jù)被提取、“數(shù)據(jù)投毒”等數(shù)據(jù)攻擊活動時的穩(wěn)定性不足。
服務(wù)特種領(lǐng)域、助力智能制造等方面的具身智能,其收集存儲的大量公共數(shù)據(jù)和企業(yè)數(shù)據(jù)可能被泄露。企業(yè)數(shù)據(jù)屬于商業(yè)生產(chǎn)資料,可能涉及商業(yè)秘密和核心數(shù)據(jù)資產(chǎn),違法處理可能給企業(yè)造成巨大的經(jīng)濟損失。公共數(shù)據(jù)屬于公共生產(chǎn)資料,但并非都會無條件開放,違法對其進行處理可能損害公共安全。
上述風險曾是影視作品中熱議的有關(guān)具身智能的科幻話題,如今已經(jīng)成為需要全社會共同面對和解決的現(xiàn)實難題。我們需要進行思考和探索,以完善具身智能的倫理原則和治理體系。
首先,科技發(fā)展應(yīng)當堅持以人為本。我國關(guān)于人工智能治理的倡議提出,人工智能應(yīng)當以人為本。人工智能技術(shù)發(fā)展的目標始終應(yīng)該是增進人類福祉。一方面,“不發(fā)展是最大的不安全”;另一方面,人類始終是科技的主人。我們不能讓機器成為任何一個人類個體的主宰,而是要讓它們成為我們的助手。人工智能不能自我訓(xùn)練、自我復(fù)制和自我進化。我們在法律制度設(shè)計中要始終堅持人類的主體地位,保留人類對人工智能進行干預(yù)和介入的權(quán)利。
其次,人類必須對人工智能的風險予以積極回應(yīng)。如果缺乏全球協(xié)調(diào)治理機制,某些企業(yè)就會受到“激勵”,將其風險較高的活動轉(zhuǎn)移到監(jiān)管嚴格程度低、成本低和/或執(zhí)法力度小的地區(qū)。為了保持全球競爭力,監(jiān)管更嚴格的地區(qū)和國家將被迫降低標準,導(dǎo)致監(jiān)管標準整體呈下降趨勢——這可能成為全人類都會面臨的風險。
諸多國際組織都開展了人工智能治理工作。聯(lián)合國秘書長古特雷斯主導(dǎo)成立了高級別人工智能咨詢機構(gòu),發(fā)布了人工智能中期發(fā)展報告,其核心是“以人為本的人工智能治理”。這也符合中國在全球人工智能治理倡議中提出的設(shè)想,在聯(lián)合國框架下討論建立全球人工智能治理機構(gòu)。相信通過世界各國的聯(lián)動協(xié)作,人類能夠更好地應(yīng)對人工智能帶來的風險。
