目前人工智能場景對AI伺服器需求快速增長,算力在模型訓練、推理速度、資料處理方面發揮重要作用。
根據Counterpoint 的全球伺服器銷售跟蹤報告,2022年,全球伺服器出貨量将同比增長6%,達到1380 萬台。收入将同比增長17%,達到1117 億美元。根據IDC、中商産業研究院,大陸伺服器市場規模由2019年的182億美元增長至2022年的273.4億美元,複合年均增長率達14.5%,預計2023年大陸伺服器市場規模将增至308億美元。#人工智能##伺服器#
AI伺服器
目前人工智能伺服器的DRAM容量是普通伺服器的8倍,NAND容量是普通伺服器的3倍。
TrendForce 集邦咨詢預計2023年AI伺服器出貨量同比增長可達8%;2022-2026 年複合增長率将達10.8%。根據IDC資料,2021-2025年全球AI伺服器市場規模或以19.5%的CAGR由156億美元增長至318億美元。
關注樂晴智庫,洞悉産業格局!
資料來源:TRENDFORCE
據TrendForce集邦咨詢統計,2022年AI伺服器采購占比以北美四大雲端業者Google、AWS、Meta、Microsoft合計占66.2%為最,而中國近年來随着國産化力道加劇。
AI建設浪潮随之增溫,以ByteDance的采購力道最為顯著,年采購占比達6.2%,其次緊接在後的則是Tencent、Alibaba與Baidu,分别約為2.3%、1.5%與1.5%。
國内伺服器主要廠商包括:工業富聯、浪潮資訊、超聚變、紫光股份(新華三)、中興通訊、中科曙光等。
AI伺服器目前領先廠商為工業富聯和浪潮資訊,浪潮資訊在阿裡、騰訊、百度AI伺服器占比高達90%。
IDC釋出的《2022年第四季度中國伺服器市場跟蹤報告Prelim》顯示,前兩名浪潮與新華三的變化較小,第三名為超聚變,從3.2%份額一躍而至10.1%,增幅遠超其他伺服器廠商。Top8伺服器廠商中,浪潮、戴爾、聯想均出現顯著下滑,超聚變和中興則取得明顯增長。其中,浪潮份額從30.8%下降至28.1%;新華三份額從17.5%下降至17.2%;中興通訊從3.1%提升至5.3%,位居國内第5。聯想降幅最為明顯,從7.5%下降至4.9%。
國内AI伺服器競争廠商包括:浪潮資訊、新華三、超聚變、中興通訊等。
AI伺服器核心元件包括GPU(圖形處理器)、DRAM(動态随機存取存儲器)、SSD(固态硬碟)和RAID卡、CPU(中央處理器)、網卡、PCB、高速互聯晶片(闆内)和散熱模組等。#晶片#
伺服器的構成:
AI晶片
AI晶片是AI算力的“心髒”,AI伺服器中晶片成本占比較高。
随着模型的多模态發展,參數規模和訓練資料都呈現出指數級增長,
作為用于加速人工智能訓練和推理任務的專用硬體,AI算力晶片既包括CPU、GPU、FPGA等傳統晶片,也包括以TPU、VPU為代表的專門針對人工智能領域設計的ASIC晶片。
根據IDC統計,CPU、GPU、存儲等晶片在各類伺服器成本中的占比約75-90%,其中在機器學習型伺服器中GPU的成本占比超七成。
GPU
GPU擅長并行計算且具有大量核心和高速記憶體,能夠極大緩解計算層面的瓶頸,已經成為了當今主流的AI推理計算不可或缺的一部分,約占國内AI晶片市場佔有率的90%。
一台伺服器通常需要4枚-8枚GPU,根據OpenAI訓練叢集模型估算結果,1746億參數的GPT-3模型大約需要375-625台8卡DGX A100伺服器(對應訓練時間10天左右)。
一台GPU伺服器的成本是普通伺服器的10倍以上,GPU價格高漲直接帶動伺服器價格顯著上修。以國産浪潮AI智能伺服器為例,根據AI市場報價,其R4900G3規格産品含稅價已高達55萬元。
随着ChatGPT帶來AI産業大熱,相關産業對于AI算力硬體的需求也同步高漲。作為AI算力基礎,以英偉達A100和H100 GPU為代表的産品成為搶手貨。
英偉達晶片H100:
GPU是顯示卡的核心單元,采用數量衆多的計算單元和超長的流水線,在加速方面具有技術優勢。
GPU相較于比CPU更擅長并行計算,CPU是以低延遲為導向的計算單元,而GPU是以吞吐量為導向的計算單元,轉為執行多任務并行。由于微架構的不同導緻CPU絕大部分半導體用于建構控制電路和緩存,隻有小部分半導體用來完成運算工作,GPU則是流處理器和顯存控制用于絕大部分半導體,進而擁有更強大的并行計算能力和浮點計算能力。
根據芯語的資料,相比于高性能伺服器、通用伺服器,AI伺服器的晶片組(CPU+GPU)價格和成本占比通常更高,如AI伺服器(訓練)晶片組成本占比達83%、AI伺服器(推理)晶片組占比為50%。
同應用市場中AI晶片的競争格局:
英偉達、Intel等老牌海外廠商産品布局廣泛,既有雲端訓練+推理晶片,又有終端應用的産品,根據JPR統計,2022Q4英偉達在全球獨顯GPU市場中的份額高達82%,Intel和AMD的市占率均為9%,海外龍頭幾乎壟斷了高端AI晶片市場。
國内雲計算技術人士認為,1萬枚英偉達A100晶片是做好AI大模型的算力門檻,而為了支援實際應用、滿足伺服器需求,OpenAI已使用了約2.5萬個英偉達的GPU。我們認為未來随着需求将進一步增加,或将進一步推高高性能AI晶片的價格。
英偉達資料中心GPU類别:
近年來,國内也出現了寒武紀、比特大陸、百度、地平線等優質本土廠商發力布局相關産品,展望未來,國内AI晶片公司仍有廣闊成長空間。
晶片是人工智能發展的基礎,把握晶片才能擁抱算力時代。根據IDC統計,CPU、GPU、存儲等晶片在各類伺服器成本中的占比約75-90%,其中在機器學習型伺服器中GPU的成本占比超七成,可見AI時代離不開晶片的支撐。随着模型的多模态發展,參數規模和訓練資料都呈現出指數級增長。
存儲器
存儲是計算機的重要組成結構: 存儲器是用來存儲程式和資料的部件,對于計算機來說,有了存儲器才有記憶功能,才能保證正常工作。
存儲器按其用途可分為主存儲器和輔助存儲器,主存儲器又稱記憶體儲器(簡稱記憶體),輔助存儲器又稱外存儲器(簡稱外存)。
根據TrendForce資料,AI伺服器有望帶動存儲器需求增長,未來在AI模型逐漸複雜化的趨勢下,将進一步刺激ServerDRAM、SSD與HBM的需求同步上升。就現階段而言,AI伺服器的ServerDRAM配置平均容量可達1.2-1.7TB之間,未來有望提升至2.2-2.7TB之間。其ServerSSD配置平均容量約4.1TB,未來有望提升至8TB。#5月财經新勢力#
由于AI伺服器較一般伺服器增加了GPGPU的使用,是以現階段對于HBM(HighBandwidthMemory,高帶寬存儲器)用量約為320-640GB,未來有望提升至512-1024GB。
AI浪潮帶動伺服器和算力晶片市場持續擴容,國産替代勢在必行,本土廠商有望加速成長。
查行業資料,就用行行查!行行查 | 行業研究資料庫