“下一個短缺的將是電力?!辈痪们?,圍繞人工智能的發展,特斯拉首席執行官馬斯克發出這樣的預警。此前,他曾預警過芯片短缺會制約人工智能的發展。
ChatGPT的橫空出世,引領了一系列人工智能革命:DALL·E3掀起了人工智能繪畫熱,視頻生成應用Sora火遍全球,跨越文本、視覺、音頻的新模型GPT-4o更是智能到可以和人類“戀愛”……
人工智能飛速發展,日新月異。但也有一些人認為電力會制約人工智能的指數級發展。甚至有人提出:“AI的盡頭是算力,而算力的盡頭是電力?!?/p>
公開數據顯示,光是GPT-3的訓練過程就消耗了大約1000戶普通中國家庭一年的電量。但人工智能的高能耗不僅體現在前期訓練上,后續的使用過程才是最耗電的。隨著人工智能應用的普及、使用人數的增加,耗電量將不斷疊加。
阿姆斯特丹自由大學的互聯網能源與經濟研究者德弗里斯,對人工智能的耗電情況進行了估算。目前全球人工智能公司的服務器市場幾乎被英偉達壟斷了,所以僅從英偉達這家公司的出貨情況,就能計算出一家人工智能公司的能耗數據。舉例來說,OpenAI公司的ChatGPT總能耗就高達56.4萬度電。此外,今年2月,OpenAI首席執行官山姆·奧特曼表示,他正在試圖說服阿聯酋政府投資7萬億美元在中東建一個芯片制造廠。不久的未來,人工智能的規模很可能極速膨脹。
國際能源署不久前發布了2024版全球電力報告,發現2022年的全球數據中心、人工智能和加密貨幣這三大板塊的總耗電量幾乎占到全世界總用電量的2%,人工智能的發展速度遠超出所有人的預期。
隨著科技的發展,芯片能效的提升會在未來降低能耗嗎?德弗里斯認為不會:“人工智能的核心原則是以大為美,大模型做得越大,輸出信息的質量就越高。類似的情況在加密貨幣領域也發生過,隨著挖礦效率的提升,挖礦者反而加大了對設備的投入,增加了能耗?!?/p>
一些學者認為,人工智能雖然耗電量很高,但這項技術提升了很多其他行業的生產效率,所以總的來說是對環境有利的。這個說法有一定道理,但效率的提高往往意味著需求的提高,后者經常遠大于前者。
目前全球一共有大約8000個數據中心,其中33%在美國,16%在歐洲,10%在中國。在理論上,數據中心可以建在任何地方,比如那些擁有充足可再生能源潛力的發展中國家。但事實是,絕大多數國家的可再生能源依然緊缺,政府也傾向把可再生能源發出來的電用于更緊迫的事情,比如,代替火電、用來保障糧食安全等。
當然,目前人工智能的能耗還算不上是多么可怕的數字,AI發展“缺電”并不是已經出現的問題,而是未來可能面臨的問題。山姆·奧特曼說,人類未來需要開發出可控核聚變發電的能力,才能應對人工智能巨大的能源需求。
不過,德弗里斯卻認為,雖然人工智能產業在短期內會有高速增長,但從中長期來看,并非如此,因為人類或許并不需要那么強的人工智能,也不是所有人都想使用ChatGPT。但無論如何,AI這只“耗電巨獸”不容小覷,一旦它胃口大開時,我們最好已經有了萬全之策。
資料來源:三聯生活周刊、新聞聯播微信公眾號等