天天看點

打造一個AI大模型,需要多少算力?

在席卷全球的AI熱潮中,一個不容忽視的潛在阻力是算力的不足。算力是AI發展的基礎設施,AI訓練需要将資料集進行重複多輪處理,算力的大小代表着對資料處理能力的強弱。

據OpenAI測算,2012年開始,全球AI訓練所用的計算量呈現指數增長,平均每3.43個月便會翻一倍,目前計算量已擴大30萬倍,遠超算力增長速度。随着百度、360、華為等公司紛紛入局AI領域,國内廠商對算力的需求将迎來井噴。

綜合OpenAI的研究經驗,以及中國企業大模型的研發進度等因素,廣發證券分析師劉雪峰等對國内AI大模型的訓練和推理階段算力需求,以及相應的成本進行了測算。

算力需求

首先,分析師根據GPT-3的資料測算了國内AI大模型訓練和推理所需的AI伺服器需求。

分析師認為:

根據商湯招股說明書的資料,GPT-3的大模型的所需要訓練355個GPU-年。在目前各家公司推出AI大模型意願較強的背景下,我們認為科技公司用于訓練AI大模型的時間為1個月,是以其需要訓練AI大模型的AI加速卡的數量為4260個。

我們認為,AI大模型有望成為各科技廠商競争的關鍵領域,是以假設國内有意願開發AI大模型的公司有10個,則由于AI大模型訓練而新增的AI加速卡需求空間為4.3萬個,國内由于AI大模型訓練而新增的AI伺服器的需求空間約為5325台(本文均假設單台AI伺服器搭載8個AI加速卡)。

根據英偉達官網的資料,A100針對于BERT類的AI大模型可實作每秒推理1757次,是以可假設單片A100用于AI大模型每秒生成1757個單詞,與單次客戶需要生成的内容數量相當。

截止2023年3月27日,百度“文心一言”已收到12萬家企業申請測試。我們預計,國産“類ChatGPT”的訪客量規模較為龐大。

2023年3月29日,在“2023數字安全與發展高峰論壇”上,三六零公司現場示範了360大語言模型在360浏覽器上的應用。分析師認為,内容生成類應用已成為各科技廠商開發AI大模型積極探索的方向,是以假設國内未來開發并應用“類ChatGPT”AI大模型的數量為10個。針對不同情境分析師進行了以下假設:

國産“類ChatGPT”的定位是僅給注冊企業内部使用,則假設每天通路量為5000萬人次,每人與ChatGPT對話5次,由此測算下來,由于AI大模型推理而新增的AI加速卡需求空間為4.3萬個,新增的AI伺服器需求空間為5425台。國産“類ChatGPT”的定位是面向個人使用者開放使用,則分别假設每天通路量為1億或3億人次,每人與ChatGPT對話5次,由此測算下來,由于AI大模型推理而新增的AI加速卡需求空間為8.7萬或26.0萬個,新增的AI伺服器需求空間為1.1萬或3.3萬台。

是以,樂觀假設下,國内AI大模型在訓練與推理階段或将産生相當于1.1萬台或3.8萬台高端AI伺服器的算力需求。

成本測算

此外,分析師強調,多模态大模型是AI大模型的發展方向,應用前景廣闊。今年以來,全球多家科技廠商陸續釋出多模态大模型,如谷歌的PaLM-E大模型、OpenAI的GPT-4大模型以及百度的“文心一言”大模型。

相較于自然語言類模型,多模态模型在訓練階段融合了文字、圖像、三維物體等多元度資料的訓練,可互動的資訊類型較多,通用性得到了大大增強。分析師參考OpenAI和百度的AI大模型的收費标準後,對各行業使用者用于生成類任務的成本進行了以下假設:

生成文本的價格為0.003美元/1000tokens,相當于0.02元人民币/1000tokens(參考匯率:1美元=6.88元人民币)。Tokens是包括了單詞、标點符号在内的字元,是以可以簡單了解為單個文字。生成圖檔的價格為0.02美元/張,相當于0.15元人民币/張。

多模态大模型API開放後,各行業使用者用于内容生成類任務的使用成本敏感性分析:基于以上假設條件,我們對各行業使用者調用多模态大模型的API用于内容生成任務的成本做關于文本生成量和圖檔生成量的敏感性分析。

我們預計中短期内,基于多模态大模型的單日調用量的範圍預計在5000萬人次到3億人次之間。假設每天每人生成文本内容5次,每次生成文本内容為1000個tokens,則生成文本數量的範圍預計在2.5千億到15千億個tokens之間。

假設每天每人生成圖檔5張,則生成圖檔的數量範圍預計在2.5億張-15億張。由此,我們測算出,各行業使用者調用多模态大模型的API用于内容生成任務的成本如下表所示。

分析師也強調,AI大模型技術仍處于發展早期,技術疊代的節奏和方向處于快速變化中,在AI算力需求測算中,也需考慮由于算法優化導緻AI模型消耗算力成本降低的因素。考慮到軟體優化帶來的降本提效因素,實際硬體需求和算力成本可能較此前測算的數值較低一些。

綜上,分析師指出,在暫不考慮軟體層面算法優化帶來的模型消耗算力成本下降的前提下,國内大模型在訓練與推理階段或将産生相當于1.1萬台或3.8萬台(樂觀假設下)高端AI伺服器的算力需求,以單片A100售價10萬元人民币、AI加速卡價值量占伺服器整機約70%計算,則對應約126億元(人民币)或434億元增量AI伺服器市場規模。

分析師預計,前述AI伺服器的增量需求或将在1-3年的次元内逐漸落地。

本文主要觀點來自廣發證券分析師劉雪峰(執業:S0260514030002)等釋出的報告《國内AI大模型的訓練和推理階段算力需求測算》,有删節

本文來自華爾街見聞,歡迎下載下傳APP檢視更多

繼續閱讀