張慧娟
導(dǎo)語
隨著ChatGPT 的風(fēng)靡,生成式AI 不斷刷新熱度,隨之而來的是進一步的探索和落地嘗試。其中一個趨勢是,云端的機遇正傳導(dǎo)至邊緣和端側(cè),給這些市場埋下一顆大彩蛋。
混合AI 的機遇
高通高級副總裁Alex Katouzian 最近表示,高通正在從通信公司轉(zhuǎn)型為“智能邊緣計算”公司。他指出,“隨著連接設(shè)備和數(shù)據(jù)流量的加速增長,疊加數(shù)據(jù)中心成本攀升,(我們)不可能將所有內(nèi)容都發(fā)送到云端。”
高通看到的機遇,其實也反映了AI 當下的兩大趨勢。
首先,不止云端,邊緣AI 也將成為必然趨勢。邊緣計算具有低時延、降低帶寬依賴、降低成本、數(shù)據(jù)可控、高可靠性等核心優(yōu)勢,可與云端計算互補協(xié)同,是解決推理加速“最后一公里”的關(guān)鍵所在。
其次,“連接+計算”的能力越來越關(guān)鍵。
在云端市場中,英偉達正在實現(xiàn)從計算到連接能力的突破,隨著模型參數(shù)的急劇膨脹、GPU 要處理和傳輸?shù)臄?shù)據(jù)量飆升,英偉達通過升級NVLink 系統(tǒng),賦予以太網(wǎng)AI 能力,使網(wǎng)絡(luò)連接技術(shù)邁上了新臺階。
在邊緣市場中,高通正在做類似的事情,不過與英偉達相反,它是從通信連接能力向算力進發(fā)。與英偉達在云端的計算能力相對應(yīng),高通在無線通信基帶、手機計算芯片市場,都占據(jù)領(lǐng)先地位。隨著“算力”成為AI 時代的寶貴資源,高通已經(jīng)不滿足于通信市場,而是希望集“連接+計算能力”于一身,從邊緣側(cè)進攻AI 大市場。
那么,高通在邊緣AI 市場主打什么戰(zhàn)略? 目前看來,主要是云邊一體的混合AI 路徑。從高通已有的模型落地案例來看,其邊緣大模型相當于云端大模型的“感知器官”,從而實現(xiàn)AI 功能在終端設(shè)備的實現(xiàn)。
2023 年2 月,高通就利用AI 軟件棧執(zhí)行了全棧的AI 優(yōu)化,首次在Android 智能手機上部署了StableDiffusion。在這個場景中,用戶對著手機說話,自動語音識別AI 模型(如Whisper)可以在手機設(shè)備上將語音轉(zhuǎn)換為文本,然后發(fā)送到云端,再由云端運行大模型,回發(fā)文本答案。
根據(jù)高通最近發(fā)布的混合AI 白皮書,上述場景就是一個典型的混合AI 場景。并且,在未來的進階版本中,設(shè)備端AI 可以承擔(dān)更多處理任務(wù),通過與調(diào)度程序協(xié)作,可以基于上下文提供更個性化的提示給云端。例如,用戶要求通過手機預(yù)約最愛的餐廳和朋友吃飯,對簡單查詢、較小的模型可在設(shè)備上運行而無需云交互;如果用戶需要復(fù)雜信息,則本地將需求轉(zhuǎn)化為提示發(fā)給云端大模型并返回詳細答案。
高通認為,混合AI 主要有以下優(yōu)點。
(1)經(jīng)濟性:降低云端推理成本、高效利用邊緣算力、降低AI 應(yīng)用開發(fā)門檻。
(2)能耗低:邊緣設(shè)備可以通過較低能耗運行大模型,若考慮處理和數(shù)據(jù)傳輸?shù)纫蛩兀芎墓?jié)約更加顯著。
(3)可靠性:邊緣AI 不受網(wǎng)絡(luò)狀況影響,運行更加穩(wěn)定。
(4)隱私性:數(shù)據(jù)完全在本地推理,大幅降低泄密風(fēng)險。
( 5)個性化:邊緣設(shè)備可以通過用戶真實生活中的行為、價值觀、痛點、需求、關(guān)注問題等信息,形成個人畫像,提供更為個性化服務(wù)。
預(yù)計到2023 年,邊緣AI 將覆蓋10 億參數(shù)以下的各類模型。
為什么要在邊、端部署生成式AI?
目前,端、邊的市場需求已經(jīng)足夠豐富,小到錄音筆、手機,大到ADAS 輔助駕駛、自動駕駛……各類應(yīng)用都在響應(yīng)AI 趨勢進行升級。那么,生成式AI 的落地現(xiàn)實嗎? 有必要嗎? 在與一些業(yè)內(nèi)人士的交流中,他們已經(jīng)看到了足夠的理由和空間。
比如,將Transformer 大模型應(yīng)用在視覺領(lǐng)域,它將具有一定的畫面語意理解能力,有望解決以往的一些痛點。AI 數(shù)據(jù)和模型的部署流程通常是:采集數(shù)據(jù)—標注—訓(xùn)練,那么,一旦出現(xiàn)沒見過的場景,或是某場景下的數(shù)據(jù)沒有標注過,就會導(dǎo)致應(yīng)用效果大打折扣或無法落地。
以河道垃圾監(jiān)測的視覺應(yīng)用為例:當河道上出現(xiàn)了一種新垃圾,是之前數(shù)據(jù)標注/ 訓(xùn)練沒有的。如果是以往的AI 系統(tǒng)就會無法識別,必須重新采集。但采用無監(jiān)督訓(xùn)練的大模型之后,無論出現(xiàn)什么樣新類型的垃圾,系統(tǒng)都能自主推理和判斷,大幅提高了效率和應(yīng)用效果。
基于類似上述提升做出判斷,愛芯元智聯(lián)合創(chuàng)始人、副總裁劉建偉認為,一直以來,AI 落地標準化場景效果較好,而在一些通用場景,除非增加針對性的投入,才能進一步提升應(yīng)用效果,但這同時意味著更高的成本,這成為AI 加速應(yīng)用落地的主要困難。
從大模型帶來的改變來看,它能夠降低邊際場景的AI 成本,因為它不需要對長尾場景做專門的、從頭到尾的適配,通過部署預(yù)訓(xùn)練的大模型就能達到比較好的效果,這將使AI 在端側(cè)和邊緣側(cè)的應(yīng)用再上一個臺階。
安謀科技產(chǎn)品總監(jiān)楊磊認為,ChatGPT 等應(yīng)用催生了對算力需求指數(shù)級的提升,而云端的需求早晚會傳導(dǎo)到端側(cè),屆時,端側(cè)原有的CPU 能力是不足以負擔(dān)的。此外,應(yīng)用的需求也會越來越豐富,包括成本、性能、功能特性等核心指標。“很難通過一種方案或一種架構(gòu)去滿足所有,還是需要各類處理器的創(chuàng)新聯(lián)動,以更高的異構(gòu)水平來滿足市場的訴求”,楊磊指出了異構(gòu)加速平臺的發(fā)展機遇。
近年來,AI 已經(jīng)廣泛應(yīng)用于物聯(lián)網(wǎng)的各個垂直領(lǐng)域,包括零售、安全、能源和公共事業(yè)、供應(yīng)鏈和資產(chǎn)管理等。而通過生成式AI 的發(fā)展,各類AIoT 應(yīng)用在醞釀新一輪創(chuàng)新。
未來,智能終端接入大模型的方式將主要有:直接調(diào)用、大模型小型化后再調(diào)用,以及接入行業(yè)專屬大模型等。這些方式都將帶動邊緣和端側(cè)計算的成長,帶來使用體驗的提升,或?qū)⒓铀傧嚓P(guān)設(shè)備的更新迭代。以手機為例,當前正面臨消費者換機動力不足、總銷量下滑明顯的局面,而AI 大語言模型的小型化、輕量化,可望在終端應(yīng)用中內(nèi)嵌部署,帶來終端推理計算能力的提升,從而推動智能終端再升級。
低功耗設(shè)備積極擁抱大模型
如何在低功耗環(huán)境下,讓AI 更高效地運行———這是業(yè)界近幾年一直在探索的方向。不過,生成式AI展現(xiàn)的巨大潛力,正在加劇端側(cè)AI 市場的步伐,特別是已有成熟生態(tài)的動向值得關(guān)注。
幾周前,Google I/ O 大會重點強調(diào)將把生成式AI引入Android 生態(tài)系統(tǒng),微軟Build 開發(fā)者大會也在談?wù)搶⑵湟耄祝椋睿洌铮鳎?11 操作系統(tǒng)。
Arm 最近發(fā)布2023 全面計算解決方案(TCS23)時,Arm 高級副總裁兼終端事業(yè)部總經(jīng)理Chris Bergey談到,未來將是一個“混合(Hybrid)的環(huán)境”,即大型語言模型在云端運行,但考慮到智能手機或其他計算設(shè)備在本地運行AI 的隱私和能源效率等問題,用戶更愿意在設(shè)備上運行較小的模型。這意味著,大語言模型將塑造計算的未來,現(xiàn)有計算平臺需要進一步提升AI 方面的工作負載適配。Chris Bergey 認為,生成式AI 將給未來的智能手機生態(tài)系統(tǒng)帶來深遠影響。
這一趨勢已在Arm TCS23 中有所體現(xiàn),主要包括:為滿足高性能、高能效、多線程用例的CPU 集群設(shè)計,針對大數(shù)據(jù)流量的三級緩存和電源設(shè)計等,這些重大升級也將助推生成式AI 在端側(cè)的部署。
不止高通、谷歌、Arm 對云端之外的市場表示重視,英特爾最近也分享了生成式AI 方面的動向和觀點。與之前“讓AI 無所不在”的方向一致,英特爾也強調(diào)了“讓生成式AI 無所不在”的觀點。
在搭載第12 代酷睿處理器的筆記本電腦上,英特爾展示了運行Stable Diffusion 的效果,不需要任何獨立顯卡,直接利用集成顯卡就可以在二三十秒內(nèi)生成一張圖片。也就是說,不需要任何特殊設(shè)備,不需要訪問云端,就可以將任意模型和算法直接部署到本地筆記本電腦上。當然,如果用戶有Arc 獨立顯卡,那么速度可以更快,只要三四秒就可以生成一張圖片。
這個場景的獨特之處是:一方面在于基于異構(gòu)計算來跑生成式AI;另一方面展示了低功耗PC 設(shè)備跑Stable Diffusion 大模型、實現(xiàn)文生圖等生成式AI 的潛力。
在生成式AI 的普及方面,英特爾強調(diào)了端到端的計算能力。英特爾院士、大數(shù)據(jù)技術(shù)全球首席技術(shù)官戴金權(quán)認為,“為了實現(xiàn)AI 無所不在,計算也要無所不在。在通用的、無所不在的,甚至是消費級的計算上提供AI 能力,就真的可以做到AI、包括生成式AI 的無所不在。”
生成式AI 對軟硬件架構(gòu)的影響?
邊緣AI 已經(jīng)成為業(yè)界共識,而生成式AI 正在給邊緣帶來更大機會,業(yè)界對邊緣的理解也將進一步拓展。
不同于由超大型數(shù)據(jù)中心、智算中心等形式部署的云端算力,邊緣算力的部署方式隨著智能設(shè)備、邊緣數(shù)據(jù)中心的出現(xiàn)變得多樣化。邊緣計算可以是離模型推理發(fā)生處最近的算力,也可以是幫助云端算力進行預(yù)推理的算力。
生成式AI 對邊緣、端側(cè)軟硬件架構(gòu)有哪些影響? 戴金權(quán)認為,未來,一個很可能的場景就是生成式AI 被大量使用以提高工作效率,未來的工作流程進入自動化,這對軟硬件架構(gòu)都帶來影響。
大模型當前基本以Transformer 架構(gòu)作為基礎(chǔ)構(gòu)件,它對內(nèi)存的需求,包括內(nèi)存帶寬、內(nèi)存容量以及相應(yīng)的計算需求,業(yè)界還在進行大量的研究,以便更好地進行加速。此外,對訓(xùn)練、推理芯片的架構(gòu)設(shè)計,以及對不同算法級別、不同場景的適配等,都會對AI 芯片甚至所有計算芯片帶來深遠影響。
未來,Transformer 等大模型可能會產(chǎn)生更大的尺寸,可能是今天的幾倍、幾十倍甚至更高,再結(jié)合多模態(tài)融合等需求,將會對軟件算法的設(shè)計,如低精度、低比特、壓縮、稀疏化,包括注意力機制設(shè)計等產(chǎn)生不同需求。未來,軟件算法設(shè)計的多樣化,是有助于滿足生成式AI 和大語言模型算力需求的重要組成部分。
寫在最后
從發(fā)展的眼光看,生成式AI 仍處于非常早期的階段, 在邊緣、端側(cè)的研究和落地探索也在初期。
除了邊緣、端側(cè)市場的主動擁抱,一些趨勢也在推動云邊端一體的生成式AI 布局。比如,AI 模型推理Token 費用較高,如果需要成熟商用,邊緣預(yù)處理將是必選項。用戶的多樣化需求進行本地預(yù)處理后,簡單需求就可以直接利用本地模型和算力推理,復(fù)雜需求通過邊緣算力預(yù)處理后,可以精簡成最少的Token 發(fā)送至云端,從而能夠以最低成本實現(xiàn)應(yīng)用功能, 加速商業(yè)化。再如, 文中提到的Android,Windows,Arm 等已有成熟生態(tài)的積極部署,也將加快生成式AI 向邊緣和端側(cè)市場的滲透速度。未來,它們都將成為生成式AI 體系中的重要部分,成為AI 連接萬物的毛細血管。