邱元陽
人工智能(AI)是人類最偉大的發(fā)明之一,它帶給人們諸多便利和神奇,使人類感到驕傲無比,其可能會成為今后人類向整個宇宙昭示地球文明魅力的象征。
2017年3月,史蒂芬·霍金在接受《泰晤士報》采訪時曾說,人類需要控制人工智能,以防止它們未來可能給人類生存帶來毀滅性的威脅。這本來是偉人和智者對人工智能的擔憂和警告,但這些話在流傳過程中,不斷被簡化和修改,最后成了人工智能將會毀滅和取締人類。這樣的預言既讓人激動又讓人恐懼。
一方面,AlphaGo對人類棋手的碾壓,自動駕駛汽車的上路,戰(zhàn)爭機器人和自主武器的研發(fā),以人工智能為噱頭的產(chǎn)品宣傳,機器人產(chǎn)業(yè)的淺表繁榮,加上媒體對大眾的誤導,很容易讓我們以為,人類已經(jīng)進入了人工智能時代。而另一方面,各類語音助理和聊天機器人,連通過圖靈測試都很困難,更別說能超越人類了。
圖靈測試主要是通過對話讓人來判斷對方是人還是機器。不少人都會質(zhì)疑,機器為什么要做得像人?實際上,如果強AI能夠出現(xiàn),圖靈測試也可能會出現(xiàn)翻轉(zhuǎn)的情況:不是因為電腦太笨,而是因為電腦太聰明的表現(xiàn)才讓人識別出來。現(xiàn)在情況卻是,聊天機器人的表現(xiàn)并不夠“人工智能”,反而有些“人工智障”。最常見的各種即時通信軟件中,幾乎都有聊天機器人,它們與人的交流對答是通過程序預設來進行的,實際上,它根本不知道你的話是什么意思。從這個意義上說,聊天機器人就是一種AI騙局。
自然語言是AI的第一個障礙。即使通過了圖靈測試,機器人也無法用自然語言與人交流,盡管它可以識別并執(zhí)行人類自然語言的指令,但是這并不代表它能夠理解自然語言。自然語言是人類非常復雜的表達方式,是大腦對信息綜合加工之后的呈現(xiàn)結(jié)果,要讓機器和程序掌握,短時間內(nèi)很難取得突破。即使是讓高智商的靈長類動物從小就開始在人類的養(yǎng)育環(huán)境中學習,也不可能成功。
直覺也是AI擬人化的障礙。這種類似于第六感的心理活動,是一種沒有任何理由的感覺,與計算機的嚴密推理和邏輯格格不入。同樣,恐懼、應激、情緒識別等具有生物特點的心理活動,機器人也是無法具有和習得的。
創(chuàng)新能力是AI發(fā)展更大的障礙。創(chuàng)新和發(fā)明是人類獨具的能力,也是人類能夠不斷進步的原因。人工智能要想具有創(chuàng)新能力,就必須具有分析問題的能力,而不是通過判斷來解決問題的能力。這就又回到了一個元命題上——機器能夠思考嗎?
強AI觀點認為計算機不僅僅是用來研究人的思維的一種工具,只要運行適當?shù)某绦颍嬎銠C本身是有思維的。甚至有人認為,機器還可以有知覺,有自我意識,有和生物一樣的各種本能。
人們常常將人工智能的突破性進展寄希望于強AI的出現(xiàn)。但是各種發(fā)展障礙沒有突破,強AI目前還是沒有出現(xiàn)。但是神經(jīng)網(wǎng)絡和深度學習的研究和應用進展,讓人們看到了強AI的曙光,甚至對超級人工智能的出現(xiàn)都有了信心。
有人說,人類總有一天會發(fā)現(xiàn),科技才是最大的敵人,因為它的終極目標是把人變成機器,把機器變成人。于是,人類的靈性終將消逝在自己創(chuàng)造的文明里。當機器有了靈性,開始在地球上行使上帝的權(quán)力時,這才是人類的終極危機。但是,這有可能嗎?