2017全國雙創活動周在上海拉開帷幕,百度創始人李彥宏作為“雙創”領袖代表在啟動儀式上致辭。在發言中,“人工智能忠實粉絲”的他除了介紹了AI技術對于創新創業的推動作用外,還提到了一些神秘字符——
9月15日,2017年全國大眾創業萬眾創新活動周在上海舉行,百度創始人李彥宏作為企業家代表進行發言。
今年活動周的主題是“雙創促升級,壯大新動能”,在描繪“雙創”升級之路時,李彥宏表示,近年來互聯網的人口紅利已經逐漸釋放殆盡,但一個比互聯網規模和影響都更大的新浪潮,正在撲面而來,就是人工智能。
李彥宏在發言中提到:技術在人工智能時代起到的作用非常大,而且技術進步的速度也很快……過去幾年,深度學習從DNN,到RNN,到CNN,再到GAN,不停地在升級換代,觸發新的創新。
掐指一算,這段話里一共出現了7個N。人工智能技術雖然現在已經不是新概念,但這些N究竟是什么意思?DNN(深度神經網絡)、RNN(循環神經網絡)、CNN(卷積神經網絡)、GAN(生成式對抗網絡)究竟代表了什么技術,為何最近人工智能技術會飛速發展,結合到人工智能的未來又將會如何呢?
李彥宏說道DNN、RNN、CNN、GAN其實都是深度學習的內容。這些名詞聽上去高深莫測。其實道理并不復雜——
DNN是啥?
所謂神經網絡其實這個詞是后來的,最早這個東西叫感知機,就是有一個輸入層,一個隱含層,一個輸出層。通過算法迭代完成一個解。
但是只有一層是處理不了復雜函數的,于是后來就發明了多層感知機,有多個隱含層,然后有算法讓各個層的各個節點互相聯通。
這種聯通很像人體中的神經,于是這種多層的感知機就有了名字,叫神經網絡。
理論上,隱含層當然是越多越好,但是科學家在使用中發現層數多了往往是局部最優。
就好比你下象棋,多層數的神經網絡,算了很多步,計算怎么把對方的馬吃了,然后選了最佳一步棋。但是下棋是殺死對方的帥啊,吃掉馬能占據子力優勢,但是并不一定贏啊。
為了吃掉對方馬的最優步,不一定是贏棋的最優步,這個問題不解決,層數多了反而不好用。
同時層數多了,訓練數據的有效性就弱了,整體學習的效率也就不行了。
這個難題一直到2006年才解決,然后DNN(深度神經網絡)就流行了。
DNN引出的CNN
DNN已經可以實用,但是DNN的問題是參數太多,每個點連接產生的數據量太大,雖然有算法改良還是容易陷入局部最優,而現實中有些東西是固定,不需要一層層地去學習計算。
于是,科學家就提出一個叫“卷積核”的東西,用這個東西來降低參數量,參數量少了,計算效率就提升了,而且陷入局部最優解的概率也就下來了,深度計算就好用了。
時間問題引出的RNN
全部連接的DNN存在一個問題,就是沒法按照時間序列的變化建立模型。但是人工智能深度學習的東西可不是靜態的。
語音識別是動態的,手寫也是動態的,需要解決時間序列的問題,于是就有了RNN(循環神經網絡)。在DNN的基礎上發展出時間戳,發展出長短時記憶單元,可以有解決時間序列的應用,這就是RNN。
以假亂真的GAN
GAN(生成式對抗網絡)是給生成模型用的,機器出來的語言,圖像能夠以假亂真,需要一個標準,需要一個判定模型。譬如要模擬生成一張畫,就有一個生成畫的模型,有一張事實存在的畫,有一個判定生成的畫,與事實存在的畫差異的模型。
首先固定生成模型,反復訓練判斷模型,讓判斷模型學會判斷,判斷模型學習好了,就可以訓練生成模型,最終讓生成模型生成的東西能以假亂真。
我們聽到百度度秘能模仿人說話,就是這種技術在起作用。
在李彥宏看來,隨著人工智能技術的進一步開放共享,它也將更好地賦能產業、完善生態、助力創新創業。在人工智能實際應用中,李彥宏說的DNN、CNN、RNN、GAN是混在一起用的。度秘看到你,識別你的面孔需要CNN,聽取你的語音需要RNN,回答你生成語言需要GAN。
而在包括人工智能技術這些新動能發展起來之后,現代社會中簡單的勞動都可以被取而代之了。endprint