天天看點

“吞金獸”ChatGPT背後:AI算力告急!

近兩個月來,全世界的網友們都在興緻勃勃的“調教”ChatGPT,但第一個受不了的卻是ChatGPT的所有者。

為了更長遠的發展,OpenAI宣布了付費訂閱版ChatGPT Plus,每月收費20美元。

雖然OpenAI表示,将持續提供免費版,并且收費項目也将更好的“幫助盡可能多的人使用免費服務”。但是《紐約時報》也指出“在高峰時段,免費版通路人數将受到限制。”

顯然,收費會是ChatGPT這類AI服務長久發展的必然選擇。

究其根源,在于ChatGPT“越來越聰明”的背後,需要龐大的費用支撐。其中,算力成本是最重要的,也是最不能偷工減料的一部分。

那麼,ChatGPT到底需要多少算力來支撐?

“吞金獸”ChatGPT的

算力消耗

ChatGPT對算力的消耗可以分為三個主要場景:

一是模型預訓練過程,這是ChatGPT消耗算力的最主要場景。

ChatGPT采用預訓練語言模型,在Transformer的模型架構下,語言預訓練過程可以根據上下文一次處理所有輸入,實作大規模并行計算。

通過堆疊多個解碼子產品,模型的層數規模也會随着提升,可承載的參數量同步增長。與之相對應的,模型訓練所需要消耗的算力也就越大。

據OpenAI團隊發表于2020年的論文《Language Models are Few-Shot Learners》,訓練一次1746億參數的 GPT-3模型需要的算力約為3640 PFlop/s-day。

即假如每秒計算一千萬億次,也需要計算3640天。

考慮到ChatGPT訓練所用的模型是基于GPT-3.5模型微調而來,GPT-3.5模型增加了參數量和訓練樣本量,包含超過1746億個參數,那麼預估訓練一次ChatGPT所需算力至少需要約3640 PFlop/s-day的算力。

東吳證券研報分析認為,ChatGPT的優化主要來自模型的增大,以及是以帶來的算力增加。

GPT、GPT-2和GPT-3的參數量從1.17億增加到1750億,預訓練資料量從5GB增加到45TB,其中GPT-3訓練單次的成本就高達460萬美元。

同時,模型開發過程很難一次取得成功,整個開發階段可能需要進行多次預訓練過程,是以對于算力的需求是持續的。

此外,從基礎大模型向特定場景遷移的過程,如基于ChatGPT建構醫療AI大模型,需要使用特定領域資料進行模型二次訓練,同樣會增加訓練算力需求。

二是模型疊代過程。

從模型疊代的角度來看,ChatGPT模型并不是靜态的,而是需要不斷進行模型調優,以確定模型處于最佳應用狀态。

這一過程中,一方面是需要開發者對模型參數進行調整,確定輸出内容不是有害和失真的;另一方面,需要基于使用者回報和PPO政策,對模型進行大規模或小規模的疊代訓練。

是以,模型調優同樣會為ChatGPT帶來算力成本,具體算力需求和成本金額取決于模型的疊代速度。

三是日常營運過程。

在日常營運過程中,使用者互動帶來的資料處理需求同樣也是一筆不小的算力開支。考慮到ChatGPT面向全球大衆使用者,用的人越多,帶寬消耗越大,伺服器成本隻會更高。

據SimilarWeb資料,2023年1月ChatGPT官網總通路量為6.16億次。

據Fortune雜志,每次使用者與ChatGPT互動,産生的算力雲服務成本約0.01美元。

基于此,ChatGPT單月營運對應成本約616萬美元。

據上文,我們已知訓練一次1746億參數的GPT-3模型需要3640 PFlop/s-day的算力及460萬美元的成本,假設機關算力成本固定,測算ChatGPT單月營運所需算力約 4874.4PFlop/s-day。

直覺對比,如果使用總投資30.2億、算力500P的資料中心來支撐ChatGPT的運作,至少需要7-8個這樣的資料中心,基礎設施的投入都是以百億記的。

當然,基礎設施可以通過租用的方式來解決,但算力需求帶來的本壓力依然巨大。

随着國内外廠商相繼入局研發類似大模型,将進一步加大對算力的需求。

AI算力霸權時代的到來

模型算力需求增速超越晶片性能增速,算力霸權時代或将到來。

據OpenAI測算,自2012年以來,全球頭部AI模型訓練算力需求3-4個月翻一番,每年頭部訓練模型所需算力增長幅度高達10倍。

而摩爾定律認為,晶片計算性能大約每18-24個月翻一番。

資料顯示,從2012年到2018年,訓練AI所耗費的算力增長了30萬倍,而摩爾定律在相同時間隻有7倍的增長。

是以,AI訓練模型算力需求增長與晶片計算性能增長之間的不比對,或将帶來對算力基礎設施供給需求的快速增長。

考慮到算力對于AI模型訓練效果的關鍵性作用,擁有更豐富算力資源的模型開發者,或将能夠訓練出更優秀的AI模型。

是以現在有一種說法:AI進入了新的算力霸權時代,大家要用千倍、萬倍的算力才能訓練出世界上最好的算法。

那麼無論是誰參與進來,都需要回答一個問題:算力成本怎麼解決?

在中國,這個答案就藏在國家如火如荼推進的“東數西算”工程裡。

資料顯示,大陸算力産業規模快速增長,近五年平均增速超過30%,算力規模排名全球第二。

但在發展的過程中仍面臨人均算力尚低、算力随需處理的需求難以滿足、算力應用廣度和深度不夠等問題。

是以,國家“東數西算”工程通過建構全國一體化的新型算力網絡,優化資料中心建設布局,将東部算力需求有序引導到西部,利用西部的資源優勢,為數字中國的發展提供低碳、低成本的優質算力。

對于AI産業來說,“東數西算”也可以成為“東數西訓”,即龐大的訓練算力需求完全可以轉移到算力成本更低,同時規模更具優勢的西部資料中心中進行。

對應的,這些承載智能訓練的資料中心本身,也将為更好的适應智能訓練需求進行針對性改造,比如在能源供給、散熱結構、機櫃形态等方面更适合使用了大量智能訓練晶片的伺服器等。

這也為資料中心未來發展提出了新的思路。

資料中心建設将告别千篇一律的通用時代,進入以場景為指引、以應用為導向的“專用”時代,“東數西訓”、“東數西渲”、“東數西存”等應用将成為主流方向。

目前,大陸算力産業仍在高速增長。

據IDC與浪潮資訊聯合釋出的《2022-2023中國人工智能計算力發展評估報告》顯示,相較于2020年大陸135EFLOPS的算力總規模,2022年大陸智能算力規模近乎翻倍,達到268EFLOPS,超過通用算力規模;預計未來5年大陸智能算力規模的年複合增長率将達52.3%。

未來,大陸還應在算力方面進一步加強超算中心、智算中心和邊緣資料中心建設,不斷滿足政府、行業、企業甚至個人等多樣化的智能場景需要,以算力賦能智慧城市、智慧醫療、智慧農業等千行百業的高品質發展。

不僅如此,大力加強自主可控高端晶片生産能力,争取在量子晶片領域實作換道超車,加強算力人才培養,同樣是保持大陸AI算力領先的重要手段。

繼續閱讀