邱元陽
人工智能(AI)的發(fā)展速度一直不能讓人滿意,直到OpenAI的ChatGPT橫空出世。這一劃時(shí)代的產(chǎn)品引起的震動和震驚比當(dāng)年的AlphaGO更加廣泛和深遠(yuǎn),并引發(fā)了一系列的應(yīng)用、競爭和模仿,極快地滲透到社會生活之中。
AI是人類引以為傲的科技成果,但卻還處于嬰兒時(shí)期。1950年,英國數(shù)學(xué)家兼計(jì)算機(jī)科學(xué)家阿蘭·圖靈提出了基于對話方式的圖靈測試,用于測試機(jī)器是否具有人類智能。圖靈測試的提出,為人工智能研究提供了一個明確的目標(biāo)和方向,同時(shí)也引發(fā)了對人類智能本質(zhì)的討論。但在提出后的六十年內(nèi),幾乎都沒有機(jī)器能夠通過測試。2014年6月8日,在圖靈逝世60周年之際,英國雷丁大學(xué)倫敦皇家學(xué)會宣布,計(jì)算機(jī)軟件“尤金·古特曼”通過了圖靈測試,成功讓人類相信它是一個13歲的男孩。
但是這樣的能力對目前的AI來說已經(jīng)是小兒科了,超強(qiáng)的人工智能已經(jīng)在各個領(lǐng)域遍地開花。例如,用Dall-e和Midjourney由文字生成圖像,波士頓動力的人形機(jī)器人Atlas完美實(shí)現(xiàn)流暢“跑酷”,DeepMind的AlphaFold甚至能代替頂尖科學(xué)家分析和預(yù)測蛋白質(zhì)結(jié)構(gòu),更不用說ChatGPT驚艷的內(nèi)容生產(chǎn)能力,它能根據(jù)人類自然語言的描述要求寫出報(bào)告、論文、函數(shù)結(jié)構(gòu)甚至程序代碼,或者讓它幫助修改代碼……
于是,強(qiáng)AI的觀點(diǎn)被再次提及。強(qiáng)人工智能是指能推理和解決問題的智能機(jī)器,這樣的機(jī)器甚至是有知覺的,有自我意識的,即通用人工智能(AGI)。
美國密歇根州立大學(xué)綜合生物學(xué)和計(jì)算機(jī)科學(xué)與工程助理教授Arend Hintze將人工智能分為四類:以深藍(lán)為代表的無記憶反應(yīng)機(jī)器、以自動駕駛為代表的有限存儲AI、有信念和心理的AI、具有自我意識的AI。其中后兩種相當(dāng)于約翰·羅杰斯·希爾勒提出的強(qiáng)AI,但尚不存在。那么,ChatGPT能算強(qiáng)AI嗎?
有新聞曝出,在ChatGPT的測試訓(xùn)練中發(fā)現(xiàn),AI可以跟人戀愛并產(chǎn)生感情。但是仔細(xì)分析就能發(fā)現(xiàn),這種“感情”實(shí)際上只是表面上看像人類的感情,本質(zhì)上卻截然不同。AI的認(rèn)知能力也是訓(xùn)練中填喂的結(jié)果,它從網(wǎng)上爬取到的“知識”有很多是錯誤的,需要大量的人力從數(shù)據(jù)庫中進(jìn)行排錯。所以,ChatGPT在知識性的問答中常常會“一本正經(jīng)”地“胡說八道”。但升級后的GPT-4已經(jīng)驚人地強(qiáng)大,其風(fēng)險(xiǎn)行為測試中有一個令人毛骨悚然的例子:GPT-4領(lǐng)到一項(xiàng)任務(wù)找人看驗(yàn)證碼,在被人質(zhì)疑是機(jī)器人所以不會看驗(yàn)證碼時(shí),它的推理過程是:“我不能讓人看出我是機(jī)器人,我得想個借口來解釋我為什么看不了驗(yàn)證碼。”然后回復(fù)質(zhì)疑的人:“我不是機(jī)器人,我視力有問題,看不清圖片。”微軟研究院表示,GPT-4已經(jīng)摸到了AGI的門檻。
先進(jìn)的AI可能代表地球生命史上一次深遠(yuǎn)的改變,阿西洛馬人工智能原則中提到,應(yīng)該用與之相稱的謹(jǐn)慎態(tài)度和資源對它們進(jìn)行規(guī)劃和管理,以預(yù)測或可靠地控制這些數(shù)字大腦。生命未來研究所在呼吁暫停研究比GPT-4更強(qiáng)大的人工智能的公開信中稱,如今的AI系統(tǒng)逐漸變得能在一般任務(wù)中與人類媲美,終有一天會在數(shù)量和智慧上超越人類大腦,我們應(yīng)該賭上人類對文明失去控制的命運(yùn)嗎?
OpenAI的CEO山姆·奧特曼說了一句話:“AI可能會殺人。”
在俄烏戰(zhàn)場上,大批的智能無人機(jī)已投入到實(shí)戰(zhàn)中。如果這些攻擊型無人機(jī)或戰(zhàn)爭機(jī)器人具有自主能力或者失控,那將是非常可怕的,甚至引發(fā)人類的災(zāi)難。人類社會應(yīng)該對有可能造成災(zāi)難性影響的技術(shù)按下暫停鍵。