張一迪
5月14日,英偉達一年一度的“GTC大會”在線上開幕。此次大會上,英偉達正式發布了全新數據中心GPU-NVIDIA AlOO,即此前在網上盛傳的被命名為安培(Ampere)的產品。英偉達創始人兼CEO黃仁勛在線上發布會上介紹稱,該新品GPU包含了540億個晶體管,擁有比原來強大20倍的Al算力。
因為疫情的緣故,英偉達原本定在3月的發布會被一推再推,兩個月的時間沒有白等,英偉達終于帶來了一道“硬菜”。
加碼Al“引擎”
從烤箱里端出來的不一定是墻根,也可以是“安培”。英偉達這次的線上發布會是別出心裁的,地點選在自家廚房,公司創始人兼CEO黃仁勛從烤箱中將“主菜”端了出來,而這道菜就是“安培”——Ampere架構GPU新品。
黃仁勛介紹稱,NVIDIAAmpere包含了540億晶體管,擁有比原來強大20倍的AI算力。“如果AI是跑車,數據就是燃料,而算力則是引擎。”英偉達研發中心總經理王瑋琦曾表示。英偉達此次也通過NVIDIAAmpere向業界宣布:我們的AI“引擎”很強大。
英偉達官網的介紹顯示,“這是一款有史以來最大的7納米芯片”,NVIDIA Ampere具有六項突破性關鍵創新。
一是NVIDIA Voha架構中率先采用的NVIDIA TensorCore技術助力AI實現了大幅加速。NVIDIA Ampere架構以這些創新為基礎,通過引入新的精度-T ensor浮點運算(TF32)、FP64加速和簡化AI技術,并將Tensor Core的強大功能擴展至HPC。二是多實例GPU(MIG)。借助MIG,每個A100可以劃分成七個GPU實例,在硬件級別上可實現完全安全、彼此隔離,并擁有自己的高帶寬顯存。
三是第三代NVIDIA NV-Link技術通過為多GPU系統配置提供更高的帶寬、更多的鏈接,并改進可擴展性,進而解決互連問題。
四是結構化稀疏,A100中的Tensor Core可為稀疏模型提供高達2倍的性能提升。稀疏化功能對AI推理更為有益,也可用于改善模型訓練的性能。
五是A100正在為數據中心提供海量計算能力。它具有每秒1.5TB的顯存帶寬,比上一代高出67%。此外,A100的片上存儲空間更大,包括40MB的2級緩存(比上一代大7倍)。
六是NVIDIA EGXAlOO結合了NVIDIA Ampere架構和NVIDIA Mellanox的ConneCtX-6Dx SmartNIC,為計算和網絡功能加速,且可處理邊緣端產生的大量數據。
完善Al產品生態
談到AI算力,就不得不提到英偉達,業界公認它為AI時代算力增長的“紅利收割者”,而英偉達在AI上的野心不止于提供高性能“引擎”那么簡單。
此次發布會上,英偉達還推出了兩款計算平臺,其一是適用于大型商業通用服務器的EGX AlOO。據介紹,EGX AlOO是基于安培架構的A100 GPU,每秒可接收高達200GB數據,并可將數據直接發送到GPU內存用來進行AI或5G信號處理。其二是適用于微型邊緣服務器的EGX Jetson Xavier NX。EGX Jetson Xavier NX是被稱作全球體積最小、性能最強大的Al超級計算機,適用于微型服務器和邊緣智能物聯網盒。
從英偉達在計算平臺的布局來看,它在自動駕駛計算平臺已經建立起從10TOPS/5W、200TOPS/45W到2000TOPS/800W的完整產品線。在醫療領域,NVIDIA Oara醫療平臺曾在20分鐘內分析了整個人類基因組的DNA序列,實現研究人員對病人對疾病的易感性、疾病的進展和對治療的反應更為深入的了解,構建了疾病監測AI模型;利用Clara技術進行胸部CT掃描檢測,來研究COVID-19感染的嚴重程度。
這次發布會上,英偉達不僅帶來了新一代安培架構,還推出包括GPU芯片、AI系統、服務器構建塊、AI超級計算機、邊緣服務器產品、嵌入式AI產品等全套AI計算“大禮包”。
賽迪顧問人工智能產業研究中心副總經理鄒德寶在接受《中國電子報》記者采訪時指出,英偉達從技術層、產品層、產業鏈層和供應鏈層均有布局,在構建生態上具有一定優勢,也因此進一步奠定了它在業界的領先地位。
業內專家向記者指出,利用生態開發來延長產業鏈,是企業提升自身綜合競爭力的關鍵步驟,也是所有AI芯片公司從技術研發走向商業化落地的必經之路。