天天看點

AI難逃“能源危機”?GPT-6或被電力卡脖子!

AI難逃“能源危機”?GPT-6或被電力卡脖子!

《科創闆日報》3月27日訊 GPT-5尚未面世,OpenAI似乎已開始着手訓練GPT-6,不過電力或許已成為了一個“卡脖子”難題。

AI初創公司OpenPipe聯合創始人、CEO Kyle Corbitt透露,自己最近與一位負責GPT-6訓練叢集項目的微軟工程師談過,後者抱怨稱,在跨區域GPU之間部署infiniband級别連結,實在是一件痛苦的事。

Corbitt問到為何不将訓練叢集集中在同一區域,這位微軟工程師回答,“哦我們已經嘗試過那麼做了,但是如果在一個州放置超過10萬片H100 GPU,電網就會崩潰。”

10萬片H100是什麼概念?作為參考,市場調查機構Factorial Funds的一份報告顯示,OpenAI的文生視訊模型Sora在峰值期間需要72萬片H100——按上述工程師的說法,這個數量足以讓七個州的電網崩潰。

▌資料中心能否盈利、建設時間如何?看電力“眼色”

就在剛剛謝幕的标普全球2024年劍橋能源周(CERAWEEK)上,來自全球的能源行業高管們,談起了AI技術對行業的推進,也談及了AI對能源巨大的需求。

“到2030年,AI消耗的電力将超過家庭用電量。”美國最大天然氣生産商EQT首席執行官Toby Rice在演講中援引了這樣一項預測。

亞馬遜網絡服務工程副總裁Bill Vass指出,世界每三天就會增加一個新的資料中心。

比爾•蓋茨則表示,電力是決定資料中心能否盈利的關鍵,AI所消耗的電量是驚人的。AI的使用将推升能源需求,未來幾年,AI的發展可能會受制于晶片設計與電力供應。

這不是杞人憂天——由于新資料中心的建設速度高于建立發電廠,供需差距已經開始出現。美國商業不動産服務公司世邦魏理仕(CBRE Group, Inc.)透露,由于電力供應延遲,資料中心的建設時間已經延長了2到6年。

▌“能源巨獸”

AI“能源巨獸”的稱号并非浪得虛名。

OpenAI的Sam Altman就曾為AI的能源、特别是電力需求“叫苦”。在年初的達沃斯論壇上他表示,AI的發展需要能源方面的突破,AI将帶來遠超預期的電力需求。

有資料顯示,ChatGPT每天需要消耗超過50萬千瓦時的電力,用于處理約2億個使用者請求,相當于美國家庭日用電量的1.7萬多倍;至于搜尋巨頭谷歌,若其在每次使用者搜尋中都調用AIGC,年耗電量将增至290億千瓦時左右,這甚至高于諸如肯亞、瓜地馬拉等國一年的用電量。

回望AI還未掀起如此大範圍熱潮的2022年,彼時中國與美國的資料中心分别占各自社會總用電量的3%與4%。

随着全球算力規模逐漸增長,華泰證券3月24日研報預測,到2030年,中國與美國的資料中心總用電量将分别達到0.95/0.65萬億度與1.7/1.2萬億度電,是2022年的3.5倍與6倍以上。樂觀情景下,2030年中/美AI用電體量将達到2022年全社會用電量的20%/31%。

分析師進一步指出,由于資料中心分布并不均勻,是以區域性的缺電風險将最先出現(如美國的弗吉尼亞州)。考慮美國電力曆史上幾乎無增長,是以AI将成為海外發達區域電力重回正增長的重要驅動要素。

▌電力增量何處來?

缺電自然需要“新電”,但“新電”從何而來?在全球碳中和的浪潮下,光伏、風電為代表的的清潔能源似乎是第一選擇,但這隻是“理想狀态下的選擇”。

“我們不可能在幾年内建立100千兆瓦的可再生能源(發電廠)。有點難辦。”前美國能源部部長Ernest Moniz坦承。

EQT首席執行官Toby Rice補充稱,科技公司需要足夠可靠的電力,風能和太陽能等可再生能源并不能做到這一點,至于大型核設施(美國目前隻有一座在建)曆來建造成本高昂,耗時長。“科技公司不會為這些基礎設施等上7-10年,那就隻能用天然氣了。”

這位來自美國天然氣巨頭的高管表示,已經有建設資料中心的科技公司詢問從EQT購買天然氣事宜,Rice被問及“你們的輸送速度有多快?”“我們能獲得多少天然氣?”

▌美股“不再隐秘的角落”

先是“GPU荒”,然後是“電荒”,AI的發展之路實在難言一帆風順。

值得注意的是,想抓住AI浪潮的美股投資者們,已将目光投向了這個角落。

美國最大的電力生産商和零售能源供應商之一Vistra Energy、美國最大的能源公司Constellation Energy、美國最大的綠色電力公司NRG Energy近一年來股價全部翻倍不止,且都在本周創下了股價曆史新高。

AI難逃“能源危機”?GPT-6或被電力卡脖子!

從近一年及今年年内區間漲跌幅來看,雖然這三家公司表現不如“地表最強股票”英偉達,但也甩開了OpenAI“背後的公司”微軟。

AI難逃“能源危機”?GPT-6或被電力卡脖子!

(科創闆日報 鄭遠方)

繼續閱讀