
人工智能是一個“機器大腦”,是通過不斷學習訓練出來的。我們不妨用人腦和人工智能做個類比:人腦由很多神經元組成,它們之間互相連接的強度是可變的,而人們正是通過改變神經元之間的連接強度來學習新事物或強化某項技能,比如,畫畫、寫字、釣魚、打球……而人工智能就是通過模擬人腦學習過程,構建卷積神經網絡的。它像人類一樣學習觀察、總結經驗、執行任務,能做到“自學成才”。
那么問題來了,人工智能如何學習?訓練人工智能,就像教育小孩,人們一般會使用以下幾種辦法:
一、監督學習。人類通過給孩子看大量貓和狗的照片,讓孩子能夠辨認出貓與狗,用類似方式給人工智能“看”信息,并告訴它答案,人工智能“看”了足夠多的信息后就能夠進行識別工作了,如人臉識別、車牌識別和腫瘤診斷等。
二、無監督學習。人工智能先分析大概內容,再根據觀察到的特征,把自己認為相似的東西分成一組。這樣,人工智能可以從繁雜的信息中找到隱藏的規律。
三、強化學習。人工智能直接和環境互動,通過環境給出的獎懲來學習,通過一系列動作獲得最大的獎勵。在互動過程中,人工智能會不斷調整自己的行為,對環境變化做出最佳的應對。例如,人工智能在經過多次訓練后,能夠用“一條命”就通關馬里奧游戲。強化學習適用于訓練行為,如玩游戲、無人駕駛等。
在實際應用中,這3種方法經常被綜合使用,讓人工智能學會各種技能。現如今,人工神經網絡模型的神經元數量可達千萬量級,可以說,當下人工智能的勝利是數據與算力的勝利。但人工智能并非一誕生就是個“大學霸”,你知道不同的人工智能模型是由多少數據練成的嗎?
1950年,著名的計算機科學家香農設計了一只內置磁鐵和金屬絲的機械小鼠,它的任務是穿越迷宮,找到位于終點的奶酪。起初,小鼠花了2分鐘,經歷反復碰壁和拐彎才跌跌撞撞地摸索到終點,但在第二次穿越同一個迷宮時,它像是有記憶一般,一路順暢且準確無誤地,只花費了12~15秒就抵達終點。
奧秘在于,香農在迷宮底部安裝了復雜的繼電器系統,這一系統可以在沒有外部輸入的情況下自行創建、記憶和使用信息,從而指揮機械小鼠按照正確的路徑行走。而這,就是世界上最早的人工智能設備之一。與當代進行機器學習所需的龐大訓練數據集不同,香農的實驗里僅設置了40個數據點,迷宮中有40個插槽,只需把金屬板隨意放入不同的插槽位置,就可以創造出一條全新的路徑。這幾乎是機器學習所成功使用過的最小數據集。時間來到20世紀90年代,科學家們開始嘗試訓練計算機模型來識別圖像。MNIST是其中經典的數據集,它誕生于1994年,一共包括7萬張數字圖像,這些數字都是真人手寫的,既有高中生的筆跡,也有政府員工的筆跡——聽起來有點夸張是嗎?事實上整個數據集的大小只相當于1.14張iPhone15手機拍出的照片。
在2012年的ImageNet大規模視覺識別挑戰賽中,一個名叫AlexNet的參賽模型以開創性的方法達到了比亞軍整整高出10.8%的準確率,以絕對優勢摘得桂冠。這一方法就是深度學習。AlexNet模型一戰成名,從此開啟了人工智能領域的深度學習浪潮,而它參賽所使用的訓練數據集就是由ImageNet平臺提供的1281167張圖像。這個數據集的大小共計167.62GB,幾乎是MNIST數據集大小的1.6萬倍。
如果你足夠關注人工智能繪畫,一定不會忽略Stable Diffusion這一強大的圖像生成模型。它的初代版本經過了共計43.1萬步的訓練,涉及的圖像數量高達1.7億張。如果把這些圖片制作成電影,以每秒24幀的速度在我們眼前播放,需要整整1967小時35分鐘33秒才能放完。如今Stable Diffusion仍在不斷迭代,2024年發布的3.0版本擁有最多80億個參數。
(哈 克摘自《青年文摘·彩版》2024年第13期,宋晨圖)