天天看點

全球第五,破萬億市值!這家廠商正在壟斷AI産業

作者:凱恩斯财經

美國晶片制造商英偉達市值一度突破1萬億美元,成為首家市值達到這一裡程碑的晶片企業。是美股市值第五大公司。

人工智能以及晶片行業今年的火熱程度已經不言而喻了,英偉達股價上漲一部分因素受高于預期的業績指引推動。英偉達的第一季度每股收益達到1.09美元,高于92美分的市場預期,第二季度營收指引高達110億美元,比71.5億美元的市場預期高出近40億美元。市值上,英偉達也不便宜了,未來12個月預期市盈率高達47.4倍。

現在股價的上漲更多是受到未來生成式人工智能推動英偉達産品需求大幅上升,為英偉達創造了更多的市場增長潛力和預期。

從英偉達的方向熱度來看,長遠的領域可能還比較早,現在算力GPU這些基礎才是最重要的。今天聊聊英偉達。

在這場AI大模型的戰局裡,已經有不少廠商參與了,像OpenAI、微軟、谷歌,國内百度、阿裡、華為、商湯等。但是掩藏在背後的GPU巨頭英偉達,要藏不住了,尤其是英偉達A100、H100,是目前為AI大模型提供算力的“主力”。掌握着“算力”也得到了不少關注。如今要參與訓練大模型了。

前兩天,英偉達創始人兼CEO黃仁勳在台北電腦展COMPUTEX 2023上,公布涉及加速計算和人工智能(AI)的多項進展。

推出了采用英偉達最新GPU和CPU的系統巅峰之作——新型大記憶體AI超級計算機DGX GH200,涵蓋了英偉達最先進的加速計算和網絡技術。是首款将Grace Hopper超級晶片與英偉達NVLink Switch系統搭配的超級計算機,通過采用新互連方式,将256個Grace Hopper超級晶片連接配接在一起,使它們能像單個巨型GPU一樣協同運作,進而提供了1EFLOPS的性能和144TB的共享記憶體,比2020年推出的上一代DGX A100 320GB系統的記憶體多出近500倍。

全球第五,破萬億市值!這家廠商正在壟斷AI産業

同時,還在打造自己的基于DGX GH200的大型AI超級計算機NVIDIA Helios,以支援其研究和開發團隊的工作。它采用4個DGX GH200系統,每個都将與英偉達Quantum-2 InfiniBand網絡連接配接,帶寬高達400Gb/s,以提高訓練大型AI模型的資料吞吐量。Helios将包括1024顆Grace Hopper超級晶片。

全球第五,破萬億市值!這家廠商正在壟斷AI産業

如今GH200 Grace Hopper超級晶片已全面投産,這款産品GH200 Grace Hopper超級晶片采用NVIDIA NVLink-C2C互連技術,将基于Arm的英偉達Grace CPU和Hopper GPU架構組合在同一封裝中,提供了高達900GB/s的總帶寬——比傳統加速系統中的标準PCIe Gen5通道帶寬高7倍,互連功耗降低到原來的1/5,能夠滿足苛刻的生成式AI和高性能計算(HPC)應用。

還有推出NVIDIA Spectrum-X,是一個旨在提高基于以太網的AI雲的性能和效率的網絡平台,Spectrum-X的優勢是高度通用性,能夠用在一些AI應用上。基于Spectrum-X參考設計的藍圖和測試平台,英偉達在其以色列資料中心建構一台超大規模生成式AI超級計算機Israel-1。

以及NVIDIA MGX伺服器規範,可以滿足各種規模的資料中心的需求。有了這個規範,系統制造商可以用該産品去建構100多種伺服器配置,去适應廣泛的AI、HPC及NVIDIA Omniverse應用。MGX已經可以和英偉達全系列GPU、CPU、DPU以及各種x86及Arm處理器相配适。有了MGX,制造商可以從為其伺服器機箱加速計算優化的基本系統架構開始,然後選擇GPU、DPU和CPU。AI訓練和5G等多項任務可以在一台機器上處理,或者更新到下一代硬體上。

全球第五,破萬億市值!這家廠商正在壟斷AI産業

還有一個是關于遊戲的,推出面向遊戲的NVIDIA Avatar雲引擎(ACE),大家的關注度比較高。是一款定制AI模型代工服務,中間件、工具和遊戲開發者可以使用它來建構和部署定制的語音、對話和動畫AI模型。這款模型涵蓋了英偉達的多項技術,英偉達NeMo,使用專有資料,建構、定制和部署語言模型;英偉達Riva,用于自動語音識别和文本轉語音,以實作實時語音對話;英偉達Omniverse Audio2Face,用于即時建立遊戲角色的表情動畫,以比對任何語音軌道。關于人工智能,雖然還沒到應用狀态,但cpo和遊戲傳媒方向慢慢嶄露頭角。

之前,英偉達和Convai合作,就展示過遊戲開發者如何使用ACE來為遊戲建構NPC。AI模型用于創作遊戲,确實有不少優勢,AI可以創造更智能化NPC、更人性化對話系統、更自由的場景生成,給使用者更好的體驗,而且AI技術還能夠實作“降本增效”。傳統方法生成NPC的成本很高,制作一分鐘人物動畫可能要幾天時間,但利用AI技術就要更快一些。

會上英偉達推出的内容有很多,有興趣的話,大家可以再去了解了解。訓練AI大模型确實是一項耗費算力、算法、資料的工作,前兩天英偉達推出的一系列硬體基礎設施及軟體工具,也說明了英偉達要在大模型上發力了,要圍繞企業開發和部署生成式AI應用的核心痛點,利用自己的技術破解大規模AI的算力瓶頸。如果可以适用于更多的企業,那麼會幫助企業及研究機構節省大量時間和成本。

為什麼是英偉達?

在CPU和GPU上,英偉達押注的是GPU。并把GPU用在了通用計算上。那時候 GPU 的多是用來加速圖形渲染,時常用于遊戲領域。但是二十年前英偉達就研發了CUDA開發平台(通用并行計算架構)。搭載GPU的工具集,理由CUDA程式設計,能夠讓多個GPU并行運算,提高相應的計算性能。

在CUDA的加持之下,GPU脫離了圖像處理的單一用途,開始真正具備通用計算的能力,并逐漸被用到了AI的深度學習之中。比如OpenAI研發的GPT大語言模型,就需要大量的計算能力,GPU是主要的算力産出工具。英偉達推出的A100晶片是支撐起GPT的“主力”GPU。公開資料顯示,GPT-3具有1750億個參數,45TB的訓練資料,并由上萬枚A100晶片支撐。

在這兩天的台北電腦展上,黃仁勳也看好GPU的計算能力,提到訓練一個LLM大語言模型,将需要960個CPU組成的伺服器叢集,這将耗費大約1000萬美元(約合人民币7070萬元),并消耗11千兆瓦時的電力。相比之下,同樣以1000萬美元的成本去組建GPU伺服器叢集,将以僅3.2千兆瓦時的電力消耗,訓練44個LLM大模型。若是都消耗11千兆瓦時的電量,而GPU伺服器叢集可以實作150倍的加速,訓練150個LLM大模型,且占地面積更小。

想訓練一個LLM大模型時,隻需要一個40萬美元左右,消耗0.13千兆瓦時電力的GPU伺服器即可。也就是說,GPU伺服器可以以4%的成本和1.2%的電力消耗來訓練一個LLM,GPU比CPU伺服器的優勢大很多。

相比其他廠商,英偉達在AI晶片的優勢,既有硬體性能的優勢,也有軟體生态的優勢。英偉達推出了CUDA平台,支援開發者用熟悉的進階程式語言進行程式設計,靈活調用GPU的算力。自此,GPU的使用範圍不再局限于顯示卡,而是擴充到所有适合并行計算的領域。GPU與CUDA組成的軟硬體系統,形成了英偉達的産品壁壘。

AMD 的産品重點是CPU, Passmark曾釋出相關情況,2021年第四季度AMD EPYC 霄龍系列在英特爾壟斷下有所增長,占全球伺服器 CPU 市場的 6%。但這幾年AMD也在做GPU,研發 GPGPU 産品,還建立了 Infinity Fabric 技術,将 EPYC 霄龍系列 CPU 與 Instinct MI 系列 GPU 直接相連。有了硬體建設之外,軟體上也毫不遜色,AMD 推出 ROCm 平台打造 CDNA 架構。AMD 的 ROCm 生态采用了 HIP 程式設計模型,但 HIP 與 CUDA 的程式設計文法極為相似,開發者可以模仿 CUDA 的程式設計方式為 AMD 的 GPU 産品程式設計,然後在在源代碼層面上相容 CUDA。也就是說,AMD 的ROCm 生态借用了 CUDA 的技術,技術上仍沒有超過英偉達。

亞馬遜推出過AI專用晶片,2020年底,AWS推出專用于訓練機器學習模型的Trainium。今年初,專為人工智能打造的Inferentia 2釋出,将計算性能提高了三倍,加速器總記憶體提高了四分之一,吞吐量提高了四分之一,延遲提高了十分之一。Inf2執行個體(可通過晶片之間的直接超高速連接配接支援分布式推理)最多可支援1750億個參數。微軟也在開發AI晶片,還有谷歌在自己的資料中心部署了人工智能晶片TPU v4,基于TPU v4的超級計算機擁有4096塊晶片。谷歌的資料是相比TPU v3,TPU v4性能提升2.1倍。

而國内AI晶片廠商很難同時把兩者都做好,多是傾向于架構創新、算力性能、平台方案等上,晶片的研發有些有了成果,像海光資訊、天數智芯、壁仞科技和摩爾線程等為代表的國内廠商在研發 GPU,但成果也不多,軟體、系統和生态層的建設更少。

我們也知道目前ChatGPT大模型隻是開始,有些廠商已經獲益不少,比如英偉達今年開始,股價增幅超過60%。英偉達在這場“AI算力上”,以A100、H100系列晶片貢獻了不少力量,是ChatGPT這樣的大型語言模型背後的動力來源。前幾天英偉達公布2024财年第一季度财務業績,季度營收71.9億美元,較上一季度增長19%。其中,超過一半營收來自資料中心,達42.8億美元,創曆史新高。基于本季度營收增長态勢,英偉達預計下季度營收将達110億美元。得益于對生成式AI和大語言模型需求的不斷增長,英偉達資料中心營收創曆史新高,同比增長14%,環比增長18%

英偉達的業績和藍海還遠不止A100、H100,因為越來越多的廠商對大模型有需求,特别是科技行業正在競相開發更大的 AI 模型,而且大型資料中心營運商也在調整的計算基礎設施,也在做人工智能方向,對晶片的需求是源源不斷的,我們之前也提到H100晶片出現過短缺,今年才開始銷售,H100 和 A100 晶片的銷量都非常強勁,隻增不減。而且美國禁止向大陸出售高端AI晶片,國内難以買不到A100和H100,導緻A800和H800這兩款晶片的價格比原來的建議零售價高出40%。

那麼,對于英偉達接下來的産品,性能如何?應用如何?市場還是非常期待。

呂長順(凱恩斯) 證書編号:A0150619070003。【以上内容僅代表個人觀點,不構成買賣依據,股市有風險,投資需謹慎】