天天看點

中信建投:兩年内算力闆塊都将處于高景氣度階段 重點推薦AI算力産業鍊各環節相關公司

作者:智通财經

智通财經APP獲悉,中信建投釋出研報表示,生成式AI取得突破,以ChatGPT為代表的大模型訓練和推理端均需要強大的算力支撐,産業鍊共振明顯,産業鍊放量順序為:先進制程制造->以 Chiplet 為代表的 2.5D/3D 封裝、HBM->AI 晶片->闆卡組裝->交換機->光子產品->液冷->AI 伺服器->IDC 出租運維。

綜合來看,大模型仍處于混戰階段,應用處于滲透率早期,AI闆塊中算力需求增長的确定性較高,在未來兩年時間内,算力闆塊都将處于高景氣度階段,重點推薦AI算力産業鍊各環節相關公司。

中信建投的主要觀點如下:

生成式AI取得突破,實作了從0到1的跨越,以ChatGPT為代表的人工智能大模型訓練和推理需要強大的算力支撐。

自2022年底OpenAI正式推出ChatGPT後,使用者量大幅增長,圍繞ChatGPT相關的應用層出不窮,其通用性能力幫助人類在文字等工作上節省了大量時間。同時在Transformer新架構下,多模态大模型也取得新的突破,文生圖、文生視訊等功能不斷完善,并在廣告、遊戲等領域取得不錯的進展。生成式AI将是未來幾年最重要的生産力工具,并深刻改變各個産業環節,圍繞生成式AI,無論是訓練還是推理端,算力需求都将有望爆發式增長。

算力産業鍊價值放量順序如下:先進制程制造->以Chiplet為代表的2.5D/3D封裝、HBM->AI晶片->闆卡組裝->交換機->光子產品->液冷->AI伺服器->IDC出租運維。

先進封裝、HBM:為了解決先進制程成本快速提升和“記憶體牆”等問題,Chiplet設計+異構先進封裝成為性能與成本平衡的最佳方案,台積電開發的CoWoS封裝技術可以實作計算核心與HBM通過2.5D封裝互連,是以英偉達A100、H100等AI晶片紛紛采用台積電CoWos封裝,并分别配備40GB HBM2E、80GB的HBM3記憶體。全球晶圓代工龍頭台積電打造全球2.5D/3D先進封裝工藝标杆,未來幾年封裝市場增長主要受益于先進封裝的擴産。

AI晶片/闆卡封裝:以英偉達為代表,今年二季度開始釋放業績。模型訓練需要規模化的算力晶片部署于智能伺服器,CPU不可或缺,但性能提升遭遇瓶頸,CPU+xPU異構方案成為大算力場景标配。其中GPU并行計算優勢明顯,CPU+GPU成為目前最流行的異構計算系統,而NPU在特定場景下的性能、效率優勢明顯,推理端應用潛力巨大,随着大模型多模态發展,硬體需求有望從GPU擴充至周邊編解碼硬體。

AI加速晶片市場上,英偉達憑借其硬體産品性能的先進性和生态建構的完善性處于市場上司地位,在訓練、推理端均占據領先地位。根據Liftr Insights資料,2022年資料中心AI加速市場中,英偉達份額達82%。是以AI晶片需求爆發,英偉達最為受益,其 Q2收入指引110億美金,預計其資料中心晶片業務收入接近翻倍。國内廠商雖然在硬體産品性能和産業鍊生态架構方面與前者有所差距,但正在逐漸完善産品布局和生态建構,不斷縮小與行業龍頭廠商的差距,并且英偉達、AMD對華供應高端GPU晶片受限,國産算力晶片迎來國産替代視窗期。

交換機:與傳統資料中心的網絡架構相比,AI資料網絡架構會帶來更多的交換機端口的需求。交換機具備技術壁壘,中國市場格局穩定。

光子產品:AI算力帶動資料中心内部資料流量較大,光子產品速率及數量均有顯著提升。訓練側光子產品需求與GPU出貨量強相關,推理側光子產品需求與資料流量強相關,伴随應用加速滲透,未來推理所需的算力和流量實際上可能遠大于訓練。目前,訓練側英偉達的A100 GPU主要對應200G光子產品和400G光子產品,H100 GPU可以對應400G或800G光子產品。

根據該行的測算,訓練端A100和200G光子產品的比例是1:7,H100和800G光子產品的比例是1:3.5。800G光子產品2022年底開始小批量出貨,2023年需求主要來自于英偉達和谷歌。在2023年這個時間點,市場下一代高速率光子產品均指向800G光子產品,疊加AIGC帶來的算力和模型競賽,該行預計北美各大雲廠商和相關科技巨頭均有望在2024年大量采購800G光子產品,同時2023年也可能提前采購。

光子產品上遊——光晶片:以AWG、PLC等為代表的無源光晶片,國内廠商市占率全球領先。以EEL、VCSEL、DFB等雷射器晶片、探測器晶片和調制器晶片為代表的有源光晶片是現代光學技術的重要基石,是有源光器件的重要組成部分。

液冷:AI大模型訓練和推理所用的GPU伺服器功率密度将大幅提升,以英偉達DGX A100伺服器為例,其單機最大功率約可達到6.5kW,大幅超過單台普通CPU伺服器500w左右的功率水準。

資料顯示,自然風冷的資料中心單櫃密度一般隻支援8kW-10kW,通常液冷資料中心單機櫃可支援30kW以上的散熱能力,并能較好演進到100kW以上,相較而言液冷的散熱能力和經濟性均有明顯優勢。同時“東數西算” 明确PUE(資料中心總能耗/IT裝置能耗)要求,樞紐節點PUE要求更高,同時考慮到整體規劃布局,未來新增機櫃更多将在樞紐節點内,風冷方案在某些地區可能無法嚴格滿足要求,液冷方案滲透率有望加速提升。目前在AI算力需求的推動下,如浪潮資訊、中興通訊等伺服器廠商已經開始大力布局液冷伺服器産品。在液冷方案加速滲透過程中,資料中心溫控廠商、液冷闆制造廠商等有望受益。

AI伺服器:預計今年Q2-Q3開始逐漸釋放業績。具體來看,訓練型AI伺服器成本中,約7成以上由GPU構成,其餘CPU、存儲、記憶體等占比相對較小,均價常達到百萬元以上。對于推理型伺服器,其GPU成本約為2-3成,整體成本構成與高性能型相近,價格常在20-30萬。根據IDC資料,2022年全球AI伺服器市場規模202億美元,同比增長29.8%,占伺服器市場規模的比例為16.4%,同比提升1.2pct。

該行認為全球AI伺服器市場規模未來3年内将保持高速增長,市場規模分别為395/890/1601億美元,對應增速96%/125%/80%。根據IDC資料,2022年中國AI伺服器市場規模67億美元,同比增長24%。該行預計,2023-2025年,結合對于全球AI伺服器市場規模的預判,以及對于大陸份額占比持續提升的假設,大陸AI伺服器市場規模有望達到134/307/561億美元,同比增長101%/128%/83%。競争格局方面,考慮到AI伺服器研發和投入上需要更充足的資金及技術支援,國内市場的競争格局預計将繼續向頭部集中,保持一超多強的競争格局。

IDC:在數字中國和人工智能推動雲計算市場回暖的背景下,IDC作為雲基礎設施産業鍊的關鍵環節,也有望進入需求釋放階段。在過去兩年半,受多重因素影響下,雲計算需求景氣度下行,但IDC建設與供給未出現明顯放緩,2021年和2022年分别新增機櫃數量120萬架和150萬架,是以短期内出現供需失衡情況(核心區域供需狀況相對良好),部分地區上電率情況一般。是以IDC公司2022年業績普遍承壓。

目前,該行認為國内IDC行業有望邊際向好。随着宏觀經濟向好,平台經濟發展恢複,AI等拉動,IDC需求有望逐漸釋放,疊加2023新增供給量有望較2022年減少(例如三大營運商2022年新增IDC機櫃15.6萬架,2023年計劃新增11.4萬架)。展望未來,電信營運商在雲計算業務方面仍将實作快速增長,百度、位元組跳動等網際網路公司在AIGC領域有望實作突破性進展,都将對包括IDC在内的雲基礎設施産生較大新增需求,相關IDC廠商有望獲益。

風險提示:國産替代程序不及預期。GPU的國産替代過程中面臨諸多困難,國産替代程序可能不及預期;AI技術進展不及預期。目前AI技術的快速進步帶動了巨大的AI算力需求,如果AI技術進展不及預期,可能對GPU市場的整體需求産生不利影響;網際網路廠商資本開支不及預期等。