天天看點

小衆存儲晶片“翻身”:火熱的ChatGPT還會催熱哪些晶片需求?

記者 | 彭新

編輯 |

由OpenAI開發的聊天機器人ChatGPT于去年末釋出後,由于表現驚豔,近期在全球刮起了一股猛烈的旋風。微軟和谷歌等巨頭在此類技術上投入巨資。在國内,百度和其他網際網路公司也表示正在開發此類技術,并即将推出。

GPT即預訓練大語言模型(Generative Pre-trained Transformer),其基于自然語言處理模型Transformer進行預訓練,并不斷疊代提升模型能力。大語言模型等此類生成式AI通過海量資料訓練,可以産生前所未有的高品質輸出,可用于搜尋、對話機器人、圖像生成和編輯等。

微軟使用ChatGPT技術,将其引入搜尋引擎必應,借助對話式人工智能(AI),通過準确了解人類提問意圖并做出回答,給搜尋帶來革新。除了文字,預訓練大模型還能生成圖像,與真人作畫相比不分高下的AI畫師過去數月多次湧現。

ChatGPT崛起,相關應用使用者快速增長下,對運算基礎的算力要求越來越高,也将對相關的晶片提出了需求。因其背後技術将高度依賴AI處理能力,并涉及與之相關的網絡、存儲和算力基礎設施。

GPU為AI計算主流

ChatGPT高度依賴AI計算能力,而向OpenAI提供GPU晶片的英偉達正成為最大受益者,摩爾線程摩爾學院院長李豐解釋,當人工智能模型通過算法生成内容時,即需要大量資料進行訓練,這一過程即在GPU叢集進行,随後訓練完成的模型又部署在GPU叢集進行推斷,完成圖像生成、語言聊天等工作。

“人工智能的算法是在不斷進步和疊代過程當中,GPU實際上兼顧了靈活度以及計算能力,”李豐稱,相比專用的AI晶片,GPU靈活性更強,又可以保證AI計算性能,是以受到開發者的歡迎。他提及,在全世界範圍内,主要的增長算力的來源來自于GPU。

目前,ChatGPT背後的GPT-3.5模型已有超過1750億個參數,訓練成本高昂,根據國盛證券報告顯示,GPT-3訓練一次的成本約為140萬美元,對于一些更大的大型語言模型,訓練成本介于200萬美元至1200萬美元之間。

以ChatGPT在今年1月的獨立訪客平均數1300萬計算,其對應晶片需求為3萬多片英偉達A100 GPU圖形處理器,初始投入成本約為8億美元。此外,據花旗集團預估,ChatGPT将可能促使英偉達相關産品在12個月内銷售額達到30億至110億美元。

這意味着,ChatGPT等此類應用将會拉動英偉達GPU晶片需求。英偉達公司的GPU圖形處理器在大型AI模型教育訓練市場占據主導地位,其股價今年已大漲55% 。

一家大型IT廠商的人工智能部門負責人向界面新聞記者表示,目前在訓練端,英偉達是毫無疑問的冠軍,其他玩家争奪的市場在于推斷端,這部分的任務量較小,對功耗、延遲更敏感。李豐就提及,摩爾線程已經在内部測試,完全部署在摩爾線程GPU上的AIGC平台不久即面世,這是包括了圖像生成、自然語言生成等一系列的内容生成平台。

除了GPU,涉及計算能力的晶片類型還包括CPU、FPGA、ASIC等,不同類型的計算晶片進行組合,可以滿足不同AI模型的計算需要。

專用AI晶片ASIC(專用內建電路)也有望未來在AI算力中占據一席之地。谷歌此前釋出了自研TPU(張量處理器)并多次疊代,這是谷歌特别設計用于機器學習的晶片。依照谷歌提供的資料,TPU計算效率是過往GPU十倍以上。谷歌将TPU部署在自家雲平台上,未來該公司将推出的對話式AI服務Bard,也将基于TPU運作。

小衆晶片HBM走向前台

在一個計算系統中,與計算相比對必然還需要存儲、網絡等架構。無論是CPU、GPU,還是其它專用晶片,在計算過程中均将不可避免的被存儲、通信等程序打斷,需要行業參與者拿出對應解決方案。

在ChatGPT熱潮下,一種小衆存儲晶片的名氣正随着AI計算需求劇增而為外界所知,據《南韓經濟日報》報道,受惠于ChatGPT,随着市場對GPU需求劇增,三星、SK海力士的HBM晶片赢得了額外的訂單,成為目前存儲晶片下行市場中,意外爆紅的晶片類型。

HBM(High Bandwidth Memory,高帶寬存儲器)晶片是一種可以實作高帶寬的記憶體晶片,與普通DRAM記憶體相比,HBM可以提供更高的資料的傳輸速度,基于該特性,HBM主要應用于高性能計算場景中,如超級計算機、AI加速器、高性能伺服器領域。

HBM在與CPU及GPU協同工作中,可以提高機器學習和計算性能。目前ChatGPT的火熱發展已令英偉達等GPU廠商受益——ChatGPT使用了1萬多個英偉達的A100 GPU學習了龐大的文檔資料。而HBM可以安裝在加速卡中,英偉達A100就最高配備80GB HBM2記憶體。

“HBM一直很難賣,因為價格是DRAM的3倍,但AI是HBM的殺手級應用。”TriOrient Investments副總裁Dan Nystedt稱。由于成本高昂,HBM一直難以大規模普及,市場推廣較慢,但預計AI應用将為其進一步打開市場規模。

目前,由ChatGpt帶動的HBM需求已經引起了上遊廠商的關注。SK海力士提及,目前已開發除第四代HBM産品,并于去年向英偉達供貨。三星半導體對界面新聞表示,基于人工智能技術的互動式AI的學習和推理需要高性能處理器和支援其高性能存儲器組合,這将積極地影響對存儲器的需求。

三星HBM-PIM

針對AI應用,三星半導體介紹,已經在存儲晶片上結合人工智能處理器的HBM-PIM(Procee in Memory,存内計算)技術上取得了成果,并計劃與客戶共同建構PIM平台生态系統。

根據市場調研機構Omdia在2021年預測,到2025年,HBM市場的總收入将達到25億美元,目前來看,這一數字随着AI計算需求增長有望打破。

長期來看,HBM配合CXL等新型資料傳輸協定也将在增強AI計算性能,并獲得行業巨頭支援。半導體咨詢機構集邦咨詢認為,CXL将随着未來CPU内置CXL功能而普及化,在未來AI伺服器中,可以見到更多使用HBM和CXL的聯合設計方案。

分布式計算呼喚DPU

ChatGPT參數量數以億計,無法在單台機器上進行有效的訓練或推理,是以需要使用分布式計算。在分布式計算中,機器之間的帶寬和高效的計算晶片變得至關重要,因為資料互連往往是瓶頸。在資料中心層面,業界期待被視為資料中心“第三顆晶片“的DPU解決此類問題。

“ChatGPT這類語言類生成模型的參數量高達千億,幾乎不可能使用單機訓練和推理,而必須大量使用分布式計算。”DPU開發商雲脈芯聯相關負責人告訴界面新聞,在進行分布式計算時,就需要DPU做一些資料的處理和預處理,由DPU将任務分發給CPU、GPU和FPGA等進行計算。

DPU即資料處理器(Data Processing Unit),用于處理海量資料,在雲資料中心中,資料在多個伺服器之間來回流動。雲廠商通過将網卡改造為DPU,減輕CPU負擔,使其專注于更關鍵的任務,類似于公司前台可以緩解員工的工作量。

業内還預計,除了GPU、HBM、DPU以外,由小芯粒技術Chiplet加持的晶片異構技術,也有望支援算力增長,Chiplet通過把不同晶片的能力子產品化,利用新的設計、互聯、封裝等技術,在一個封裝的産品中使用來自不同技術、不同制程甚至不同工廠的晶片。從半導體産業鍊端來看,包括IP授權、晶圓代工、封測等廠商為之提供關鍵的技術支援,可視為提升AI算力重要的基礎設施。包括Imagination、Arm、台積電、日月光等上下遊廠商,将從中獲得增長。

繼續閱讀