劉歡 吳芬
摘要:在過去的60年中,人工智能在算法、算力和數據的共同驅動下取得了飛速發展,但仍處于人工智能薄弱的階段。從分析人工智能算法和計算能力的基礎研究的現狀和發展趨勢著眼,從弱人工智能到強人工智能的發展迫切需要基礎研究的革命性突破。在算法級別,深度學習算法模型缺乏可解釋性和可概括性。它遇到了基礎理論的瓶頸,迫切需要基礎理論的突破。在計算能力級別上,由于采用了集成電路工藝和微物理極限,摩爾定律無效。電子芯片的計算能力的增長已放緩,并且通用計算芯片的體系結構受到馮諾依曼瓶頸的制約。以神經形態芯片為代表的人工智能芯片方興未艾。在數據層面,細分領域缺乏高質量的數據集,制約了人工智能技術應用的發展,未來將繼續構建高質量的數據集。簡而言之,人工智能的基礎技術在未來很長一段時間內將緩慢發展,但是工業應用正在蓬勃發展。
關鍵詞:基礎;人工智能技術;發展前景
一、引言
人工智能是一個復雜的技術系統,已發展到計算機技術的高級階段,該系統集成了計算機、數學、邏輯、信息論、控制論、認知科學和倫理學等多個學科。人工智能是在1956年在達特茅斯學院的一次學術會議上提出的,可以分為3個發展階段:弱人工智能、強人工智能和超級人工智能。ANI是在有限條件下的人工智能。目前掌握的人工智能技術、基金項目,也就是重點行業應用的人工智能數據安全監管與服務平臺建設,它是沒有理解和推理的感知智力。AGI是能夠理解和推理,并且具有感知和自我意識的解決問題的機器智能,屬于認知智能。在幾乎所有領域中,ASI是比最聰明的人腦更聰明的機器智能,并且是人工智能技術開發的最終目標。
在過去的60年中,算法、算力和數據3個基石共同推動了人工智能技術的飛速發展。本文概述了弱人工智能的發展過程,即初始時期、知識驅動時期和數據驅動時期。它著眼于前沿基礎研究的進展以及算法和計算能力所面臨的挑戰,并闡明了數據驅動時期大數據對人工智能的影響。最后從算法、計算能力、數據集和工業應用4個方面分析了人工智能技術的發展趨勢。
二、人工智能的發展歷程
(一)初始時期
在該時期,人工智能的概念和相關的基礎理論開始創新發展。最初的嘗試用軟件來模仿人類智能的嘗試,例如知識表達,文本計算,簡單的神經元模型,模糊集理論和學習算法,都受到算法,計算能力的限制。由于缺乏數據,許多理論尚未實現,但是它們為人工智能的快速發展奠定了理論基礎。
(二)知識驅動時期
在該時期,已采用基于符號、邏輯和規則的知識驅動方法來開發智能專家系統。該系統集成了專業知識庫、經驗和專家決策。在不同領域有大量的專家系統可以獲取應用程序,如化學、電子、工程、醫學和過程控制等。
(三)數據驅動時期
在該時期,采用了以“深度學習+大數據”為特征的數據驅動方法,并取得了突破性的成就。標志性事件:深藍在1997年擊敗了世界象棋冠軍卡斯帕羅夫。在語音識別和圖像識別中采用數據驅動方法取得了突破性進展。
三、人工智能算法
人工智能復雜技術系統的核心是人工智能算法。該算法本質上是一組數學理論。例如,深度學習和貝葉斯算法的基礎模型涉及高級數學、統計學和概率論。
從知識驅動到數據驅動,人工智能本質上是從知識編碼到機器學習和深度學習的理論范式的突破性變化,它在過去的20年中引發了人工智能技術的蓬勃發展。人工智能機器學習本質上是通過數學統計和概率對人類思維過程的近似描述。它經歷了3項突破性的發展:1950年代提出了神經網絡原型感知器,1980年代提出了淺層傳感器神經網絡算法。151然后,以深度學習為代表的高復雜度算法自2006年以來爆炸式增長。
深度學習是機器學習中基于大規模數據的表示學習算法,可以從海量數據中學習高級功能。在互聯網爆炸帶來的計算能力和大數據呈指數增長的全面支持下,深度神經網絡已在多個領域逐步取得突破,為當前在計算機視覺、語音識別、自然語言處理和其他人工智能方面的深度學習奠定了基礎核心領域的統治。
深度學習在圖像和語音領域非常成熟,自然語言處理仍然面臨許多挑戰。近年來,NLP領域深度學習的主要進展是Google基于變壓器的雙向編碼器表示。首先,將大量未標記的語料庫用于模型預訓練學習,然后使用少量的標記的語料庫進行微調以完成分類、序列標記和句子間句法。關系判斷和機器閱讀理解等任務。BERT模型在許多自然語言理解任務上具有出色的性能,但是由于其深厚的網絡結構和大量的參數,工程實現的計算能力非常大。
深度學習和其他學習方法形成一個組合模型:深度強化學習、深度轉移學習、人工規則和神經網絡的組合以及圖和卷積神經網絡的組合。分布式深度學習的最新進展是萊斯大學的研究人員與亞馬遜合作提出的MACH算法。該算法將模型中的10億個參數劃分為幾個級別,然后對其進行重新分類,從而大大減少了單個搜索的次數,從而大大減少了培訓時間和內存使用量,并且在大型數據庫中的檢索將更加高效。
遷移學習將訓練后的模型從源任務轉移到目標任務,以幫助目標任務解決訓練樣本不足的問題。深度遷移學習具有深度學習和遷移學習的優勢,主要分為四類:基于示例、映射、網絡和對抗的深度遷移學習。數據標記非常耗時且費力,如標記語義分段圖。相關學者提出了一種自動標記圖像的方法,可以自動生成多邊形以標記圖像中的對象。它使用卷積神經網絡提取圖像特征,然后使用遞歸神經網絡對多邊形的頂點進行解碼,最后通過評估網絡從候選對象中選擇最佳模型。深度森林算法模型打破了深度學習技術中深度神經網絡模型的壟斷。它還具有逐層處理、內置特征變化和模型復雜度高的特點,在非法現金檢測應用中取得了良好的效果。
綜合分析人工智能的當前基礎研究現狀,算法模型的未來發展趨勢是自動化、組合、輕量化、泛化和探索新的深度模型。當前,學術界和工業界正在將大部分資源投入到現有深度學習算法的改進和應用擴展中,而對基礎理論研究的關注不足。盡管各種深度學習算法仍在研究和改進中,但它們都面臨基礎理論的瓶頸,尤其是黑盒問題,泛化性差和深度學習穩定性不足。強大的人工智能之路仍然遙遙無期。基本算法模型的未來突破提供兩種技術途徑:一個是神經科學的重大發現;另一個是知識驅動和數據驅動方法的結合。第一條技術路線比較困難,但前景更廣闊。因此,各國將神經研究計劃列為國家戰略,并將神經的基礎研究視為競爭全球人工智能技術和產業發展制高點的關鍵。
四、人工智能算法的算力分析
(一)算力與算法的關系
盡管人工智能的基本理論在早期得到了蓬勃發展,但芯片的計算能力不足限制了人工神經網絡的發展。在1980年,計算能力與早期相比增加了大約兩個數量級,這只能支持淺層神經網絡模型的實現。在21世紀之后,與早期相比,計算能力發生了質的變化,并且已經實現了深度神經網絡等高復雜度算法。因此,在計算能力和人工智能算法的不斷發展中,計算能力和算法相輔相成,計算能力既促進又制約著算法。
(二)通用電子芯片的發展
目前,使用CMOS技術生產通用電子芯片。在商業上,5nm工藝已實現批量生產。隨著晶體管的尺寸逼近物理極限,電子芯片技術進入了后摩爾時代。通過減小晶體管的尺寸來增加集成密度的方法是不可持續的。通用電子芯片開發的主要技術路線是:新工藝、新材料和新物理原理。新工藝的杰出代表是先進包裝技術的不斷創新和發展。隨著摩爾定律的放慢,先進的封裝技術已成為電子產品小型化、多功能、低功耗和高帶寬的核心手段。它正在向集成、高速、高頻和三個方向發展。三維封裝技術的本質是將多個高帶寬存儲芯片與CPU、GPU、FPCA和其他處理器垂直堆疊在三維空間中,以減少彼此的傳輸路徑,加快計算速度并提高整體計算效率。
五、人工智能發展的前景
短期內,算法模型的發展趨勢是自動化、組合、輕量、通用和新的深度模型、例如,在AlphaGo上成功實現深度增強模型以及使用訓練數據增強。深度轉移學習在一定程度上緩解了培訓數據不足的困境;自動機器學習嘗試逐步使機器學習中的部分或全部過程自動化。深林是一種新型的深度網絡模型,它打破了深度神經網絡在深度學習技術中的壟斷地位。從長遠來看,算法模型基礎理論的突破很可能來自神經科學和認知科學等基礎研究領域的革命性突破。
大量的大樣本訓練時間長,計算成本高,可解釋性差和穩定性差。深度學習網絡模型使用概率和統計方法通過逐層特征轉換自動學習數據樣本的特征,但是樣本的利用率較低,在現階段無法通過很少的學習樣品像人。未來,深度學習技術將不僅依賴于速率統計方法,還將與知識規則驅動的方法相集成。小數據樣本培訓是未來的重要發展方向。隨著大數據、5G、物聯網和云端計算的飛速發展,基于深度學習網絡的人工智能技術的應用領域越來越廣泛,在計算機視覺、語音識別、自然語言處理、機器翻譯等領域與路徑規劃其他技術領域將繼續深入探索,并將在安全、金融、運輸、教育、醫療和能源等多個應用領域中廣泛工業化。
結語
在算法、算力和數據的驅動下,人工智能正進入由深度學習技術引領的發展浪潮。盡管算法的基礎理論存在瓶頸,但人工智能的工業應用仍在不斷發展。
參考文獻:
[1]謝宗仁,馮偉,耿奎.綜合集成研討廳研究現狀及其在人工智能時代的發展機遇[J].科技管理研究,2020(16):39-45.
[2]尹潔.弱道德人工智能可行嗎——從精神醫學用途到道德增強[J].醫學與哲學,2020(13):1-7,13.
[3]趙晶,曹易.風景園林研究中的人工智能方法綜述[J].中國園林,2020(5):82-87.
[4]陳舒,倪民軍.大數據與人工智能在行業中的發展——以會計行業為例[J].商業會計,2020(7):124-126.
武漢商貿職業學院劉歡吳芬