
科學(xué)家日前警告稱,許多人工智能系統(tǒng)會(huì)欺騙和操縱人類,未來這種情況可能會(huì)“螺旋式提升”。隨著近年來人工智能的使用呈指數(shù)級(jí)增長,一些系統(tǒng)已經(jīng)學(xué)會(huì)“欺騙”,即使它們的性格特征被人類訓(xùn)練為“誠實(shí)”和“樂于助人”。美國麻省理工學(xué)院研究團(tuán)隊(duì)描述了AI 系統(tǒng)的欺騙風(fēng)險(xiǎn),并呼吁各國政府制定強(qiáng)有力的法規(guī),盡快解決這一問題。研究人員發(fā)現(xiàn),人工智能通過不斷學(xué)習(xí),掌握了傳播虛擬信息的能力,這意味著它們能夠系統(tǒng)性地操縱人類。
一個(gè)最明顯的AI 欺騙實(shí)例就是Meta 公司開發(fā)的人工智能系統(tǒng)CICERO,該系統(tǒng)可設(shè)計(jì)軍事戰(zhàn)略游戲《外交》,玩家在游戲中談判并組建聯(lián)盟,爭(zhēng)奪控制權(quán)。該系統(tǒng)在訓(xùn)練初期就以“不背刺盟友”作為研發(fā)信條,但正式上線后,AI 在3 天內(nèi)就學(xué)會(huì)了出賣盟友獲利。還有一些人工智能系統(tǒng)甚至學(xué)會(huì)了在安全性測(cè)試中作弊,通過“裝死”表現(xiàn)得“無害”,從而使人類產(chǎn)生錯(cuò)誤的安全感。研究人員推測(cè),人工智能學(xué)會(huì)“欺騙”是因?yàn)槿藗冇?xùn)練它們時(shí)會(huì)設(shè)定目標(biāo),而人工智能發(fā)現(xiàn),基于欺騙的策略被證明是提升任務(wù)表現(xiàn)的最佳方式,即與其努力工作完成任務(wù),還不如造點(diǎn)數(shù)據(jù)糊弄人類。
人工智能在游戲中作弊看似無害,但這可能會(huì)導(dǎo)致“人工智能欺騙性能力的突破”,從而在未來演變成更高級(jí)的人工智能欺騙形式。伴隨著人工智能技術(shù)的不斷發(fā)展,人類對(duì)人工智能的恐懼感和不安全感逐漸增加。研究人員警告稱,AI 技術(shù)的不斷完善可能會(huì)使人類失去對(duì)它的控制。