
人工智能是一個“機器大腦”,是通過不斷學(xué)習(xí)訓(xùn)練出來的。我們不妨用人腦和人工智能做個類比:人腦由很多神經(jīng)元組成,它們之間互相連接的強度是可變的,而人們正是通過改變神經(jīng)元之間的連接強弱來學(xué)習(xí)新事物或強化某項技能,比如,畫畫、寫字、釣魚、打球……而人工智能就是模擬人腦學(xué)習(xí)過程構(gòu)建人工神經(jīng)網(wǎng)絡(luò)。它像人類一樣學(xué)習(xí)觀察、總結(jié)經(jīng)驗、執(zhí)行任務(wù),能做到“自學(xué)成才”。
那么問題來了,人工智能如何學(xué)習(xí)?訓(xùn)練人工智能,就像教育小孩,人們一般會使用以下幾種辦法:
一、監(jiān)督學(xué)習(xí)。人類通過給孩子看大量貓狗照片讓孩子能夠辨認(rèn)出貓與狗,用類似方式給人工智能看信息并告訴它答案,人工智能看了足夠多的信息后就能夠進行識別了。這樣,人工智能就可以進行人臉識別、車牌識別和腫瘤診斷等工作。
二、無監(jiān)督學(xué)習(xí)。人工智能分析概要內(nèi)容,根據(jù)自己觀察到的特征,把認(rèn)為相似的東西分成一組。這樣,人工智能可以從繁雜的信息中找到隱藏的規(guī)律。
三、強化學(xué)習(xí)。人工智能直接和環(huán)境互動,通過環(huán)境給出的獎懲學(xué)習(xí),通過一系列動作獲得最大的獎勵。在互動過程中,人工智能會不斷調(diào)整自己的行為,對環(huán)境變化做出最佳的應(yīng)對。例如,人工智能在經(jīng)過多次“訓(xùn)練”后,能夠用“一條命”就通關(guān)馬里奧游戲。強化學(xué)習(xí)適用于訓(xùn)練行為,如玩游戲、無人駕駛等。
在實際應(yīng)用中,這三種方法經(jīng)常被綜合使用,讓人工智能學(xué)會各種技能。現(xiàn)如今,人工神經(jīng)網(wǎng)絡(luò)模型的神經(jīng)元數(shù)量可達千萬量級,可以說,當(dāng)下人工智能的勝利是數(shù)據(jù)與算力的勝利。但人工智能并非一誕生就是個“大學(xué)霸”,你知道不同的人工智能模型是由多少數(shù)據(jù)練成的嗎?
1950年,著名的計算機科學(xué)家香農(nóng)設(shè)計了一只內(nèi)置磁鐵和金屬絲的機械小鼠,它的任務(wù)是穿越迷宮,找到位于終點的奶酪。起初,小鼠花了2分鐘,經(jīng)歷反復(fù)碰壁和拐彎才跌跌撞撞地摸索到終點,但在第二次穿越同一個迷宮時,它像是有記憶一般一路絲滑且準(zhǔn)確無誤,只花費了12~15秒就順利抵達終點。
奧秘在于,香農(nóng)在迷宮底部安裝了復(fù)雜的繼電器系統(tǒng),這一系統(tǒng)可以在沒有外部輸入的情況下自行創(chuàng)建、記憶和使用信息,從而指揮機械小鼠按照正確的路徑行走。而這,就是世界上最早的人工智能設(shè)備。與當(dāng)代進行機器學(xué)習(xí)所需的龐大訓(xùn)練數(shù)據(jù)集不同,香農(nóng)的實驗里僅設(shè)置了40個數(shù)據(jù)點,迷宮中有40個插槽,只需把金屬板隨意放入不同的插槽位置,就可以創(chuàng)造出一條全新的路徑。這幾乎是機器學(xué)習(xí)所成功使用過的最小數(shù)據(jù)集!
時間來到20世紀(jì)90年代,科學(xué)家們開始嘗試訓(xùn)練計算機模型來識別圖像。M N I S T是其中經(jīng)典的數(shù)據(jù)集,它誕生于1994年,一共包括70000張數(shù)字圖像,這些數(shù)字都是真人手寫的,既有高中生的筆跡,也有政府員工的筆跡——聽起來有點夸張是嗎?事實上整個數(shù)據(jù)集的大小只相當(dāng)于1.14張iPhone15手機拍出的照片。
在2012年的I m a g e N e t大規(guī)模視覺識別挑戰(zhàn)賽中,一個名叫AlexNet的參賽模型以開創(chuàng)性的方法獲得了比亞軍整整高出10.8%的準(zhǔn)確率,毫無疑問地摘得桂冠。這一方法就是深度學(xué)習(xí)。AlexNet模型的一戰(zhàn)成名從此開啟了人工智能領(lǐng)域的深度學(xué)習(xí)浪潮,而它參賽所使用的訓(xùn)練數(shù)據(jù)集就是由I m a g e N e t平臺提供的1281167張圖像。這個數(shù)據(jù)集的大小共計167.62G B,相當(dāng)于57214本電子書,幾乎是MNIST數(shù)據(jù)集的16000倍!
如果你足夠關(guān)注A I繪畫,一定不會忽略Stable Diffusion這一強大的圖像生成模型。它的初代版本經(jīng)過了共計431000步的訓(xùn)練,涉及的圖像數(shù)量高達1.7億張!如果把這些圖片制作成電影,以每秒24幀的速度在我們眼前不眠不休地播放,需要整整1967小時35分鐘33秒才能放完。如今Stable Diffusion仍在不斷迭代,2024年發(fā)布的3.0版擁有多達80億個參數(shù)!
資料來源:《少年新知》、科普中國、央視新聞等微信公眾號