曹俊
阿爾法狗(AlaphaGo)3∶0戰勝了李世石。也許柯潔上陣結果會不一樣,但也不會太不一樣,畢竟以阿爾法狗的進步速度,擊敗所有人類高手不是今天就是明天。那么,人工智能(AI)將會勝過人類的智慧嗎?顯然不會!幾十年來,AI躍上了第一個臺階,但至少還要躍升兩個臺階,才有跟人類智慧較量的資本。
每個學習圍棋的人,必然背過圍棋十訣、棋經十三篇,知道“單關無惡手”、“棋拐一頭,力大如牛”等諺語,也必然知道“棋形”等美學概念。這些“虛”的指導思想,極大地簡化了具體的計算。
阿爾法狗除了暴力搜索算法外,通過價值網絡和策略網絡形成“棋感”,使它的能力躍上了一個臺階。經過大量訓練形成的這兩個神經網絡,就相當于這些虛的指導思想。在神經網絡中,這些指導思想以各個神經元的系數的方式存在。可以說,通過深度學習,阿爾法狗獲得的知識以一系列的數字表達出來,而不是棋理。
粒子物理學家20多年前就開始使用神經網絡(以及其他人工智能方法, 如Boost Decision Tree)來進行數據分析,比如尋找希格斯粒子,但一般盡量不用,因為訓練出的神經網絡不透明,就是一堆神經元的系數。我們說這里“沒有物理”,因為難以判斷其可靠程度(誤差分析不好做)。此外,神經網絡的一個突出問題是過度訓練。對一個有限的樣本,經過一定次數的訓練,有用的信息基本使用殆盡;如果繼續訓練,在人類對它的績效考核壓力下,它就開始鉆空子,報告說性能更好了,但實際上使用了垃圾信息,其表現為神經網絡“發神經”。據說,阿爾法狗的第四局失誤就來自過度訓練。
“沒有物理”有什么問題呢?首先,其他人難以判斷它是否正確,沒有同行評議,也許是過度訓練得到的假知識呢?其次,就算無條件相信它正確,獲得的知識也無法傳承。在科學研究中,自己知道了什么不是最重要的,更重要的是讓其他人知道你知道了什么。創造知識與傳承知識是同等重要的。否則,獲得的知識無法融入科學發展的長河中,未來還需要重新發現,那其對科學的貢獻實際上就為零。受過專業訓練的科學家與民間科學家的區別,就在于專業科學家看似普通的每一句話、每一個論據,都是建立在前人已檢驗過的知識基礎之上的,需要推敲的新論據每次只有一小點。
同樣,阿爾法狗獲得的知識是一堆莫名其妙的數字,只能它自己用,不能轉化為棋理,因而不能傳播和傳承。如果不解決表達與傳承的問題,AI只能依附于人類的智慧。人類知識由一個個的個體形成網絡和體系,而一個個AI都只能單獨地與人類接口,不能連成網絡。人類永遠是它的老師。
假如阿爾法狗想與人類智慧較量,首先它要形成抽象的表達能力:可以學習人類的語言與思維方式,從而與人類網絡接口;也可以獨立發展出自己的機器表達,比如說,天下的AI都用同一套神經網絡結構。這時候,AI就上了另一個臺階:每一個AI能夠抽象出易于表達的物理和棋理。
下一個臺階,就是將這些知識授予其他機器,從而構成網絡,甚至形成社會。為什么說形成社會呢?AI張三獲得的知識與AI李四的知識也許相反,怎么解決沖突?怎么形成妥協?是不是還要有人類社會的等級結構?
有了這些,阿爾法狗們就可以不依附于人類,獨立發展出知識體系。不過,還得要有文采哦!言之無文,行而不遠,阿爾法狗愿意教,但貝塔狗、伽馬狗愛不愛聽呢?