天天看點

人工智能風繼續吹,AI 晶片乘風而起

作者:遠瞻智庫

人工智能風再起,産業發展空間廣闊

本輪人工智能浪潮由 ChatGPT 掀起,并以語言大模型(Large Language Model, LLM)和生成式 AI(Generative AI)應用作為切入點。自谷歌在 2017 年發表至今,Transformer除了帶來像 ChatGPT 這樣的 C 端爆款産品外,其早已在自然語言處理、計算機視覺、自動駕駛等領域裡廣泛應用。各中外科技企業持續加大對相關的投入,包括谷歌(GOOGL US)、Meta(META US)、微軟(MSFT US)、位元組跳動(未上市)、百度(BIDU US)等海内外一衆科技巨頭和初創企業均希望分一杯羹,其他非技術公司也不斷在人才、技術和資源方面進行布局。根據 Bloomberg Intelligence 的預測資料,到 2032 年,生成式 AI 在總體資訊技術硬體、軟體、服務、廣告和遊戲等支出中的占比或将從目前不到 1%的水準擴大至 12%。

人工智能風繼續吹,AI 晶片乘風而起

ChatGPT(Chat Generative Pre-trained Transformer)自 22 年 11 月釋出後就引起了全球關注,5 天内注冊使用者超 100 萬,僅兩個月後,月活躍使用者已達 1 億。ChatGPT 将生成式AI 在文本、圖像、視訊等領域的多模态應用正式帶入 C 端大衆使用者的視野。然而,我們認為,語言大模型若隻是停留在 C 端應用,提供給一些網民娛樂,其實意義并不大。我們更加認為,生成式 AI 的發展必須要配合 B 端應用的落地,才能成為真正可以改變世界的高端科技。目前,微軟已釋出 Microsoft 365 Copilot 等生成式 AI 産品,作為率先釋出的重磅商業化應用。Copilot 依托微軟龐大的使用者群體、産品生态及使用場景,有望開啟 AI 的 B 端應用發展新裡程,并帶動微軟打開新的 AI 商業化空間。Bloomberg Intelligence 預測,全球生成式 AI 下遊軟體市場規模将在 2032 年擴大至 2799 億美元,2022-2023 年十年複合增速達到 69%。

人工智能風繼續吹,AI 晶片乘風而起

看好整體 AI 晶片需求将伴随着大模型和生成式 AI 的 B 端應用落地而增加

2022 年開始,大模型的數量及參數量均呈指數級增長。總體來說,我們認為模型的數量和所需的訓練資料才是對于算力要求的關鍵,是以,我們看好整體 AI 晶片的需求,将伴随着大模型和生成式 AI 所支援的 B 端商業應用落地而增加。

自 2018 年 OpenAI(未上市)釋出了包含 1.17 億參數的第一代 GPT(Generative Pre-trained Transformer)模型以來,每一代 GPT 模型的疊代都伴随着參數量的飛躍。

人工智能風繼續吹,AI 晶片乘風而起

一衆中外的科技巨頭們也不甘示弱,包括Google、Meta、百度等紛紛釋出了 PaLM 、LaMDA 、Llama、文心一言等為代表的大語言模型。2020 年 1 月,OpenAI 團隊論文《Scaling Laws for Neural Language Models》提出“縮放定律”(Scaling Laws),即大模型表現伴随模型參數量、資料集大小和計算量增長而增長,他們于 2023 年 5 月也再次強調,目前縮放定律仍未出現瓶頸。

但我們也看到,谷歌在今年 5 月的 I/O 大會裡釋出的新一代 PaLM 大模型,PaLM2,就是通過算法上的改進達到訓練資料增加為上一代 PaLM(7800 億 tokens)的約 5 倍,達到 3.6 萬億個 tokens,但參數量為 3400 億,小于 PaLM 的 5400 億。

人工智能風繼續吹,AI 晶片乘風而起

“大模型”通常指的是有大量參數的自我監督和預訓練模型,其背後的核心技術是Transformer 架構,目前比較廣泛應用于文本生成等自然語言處理領域。Transformer 在2017 年由谷歌大腦團隊在論文《Attention Is All You Need》中提出。該架構主要用于處理序列資料,主要采用自注意力機制(self-attention mechanism),為序列中的每個元素賦予不同的權重,進而捕獲序列内部的長距離依賴關系。在 Transformer 之前,深度學習模型更多是采用監督學習的方法進行訓練,是以需要大量标注的資料。相對來說,GPT 模型的創新之處在于采用了接近無監督學習(具體叫“自我監督學習”,self-supervised learning)的預訓練,加上少量有監督的微調相結合。

人工智能風繼續吹,AI 晶片乘風而起
人工智能風繼續吹,AI 晶片乘風而起

在文本生成、上下文語義了解、文章修訂及摘要總結等需要泛化能力的大語言模型中,Transformer 架構相對以往的 CNN 和 RNN 網絡結構取得了較大的進展。Transformer 架構突破了 RNN(Recurrent Neural Network)模型固定順序屬性所帶來的計算限制,其通過自注意力機制,可以同時處理整個序列的所有元素,進而實作了高效的并行化,提高了計算速度。

同時,相比 CNN(Convolutional Neural Network)模型中伴随距離增大,計算位置關聯所需操作将不斷增多,Transformer 通過自注意力機制,可直接計算序列中任何兩個元素之間的關聯,且通過權重顯示序列元素間的關系,進而為模型提供更為豐富的全局上下文資訊,有效提高對複雜結構及語義的了解。故 Transformer 被認為與大部分白領工作相契合,在目前人力成本較高及生産力急需提升的背景下,或将開始下沉至辦公、會計、法律、程式設計和醫療等各領域進行結合。我們可将 Transformer 模型比作人類的右腦,在淺層關聯性上表現優異,适用于需要創造性的生成式領域,但其仍然需要加強左腦的邏輯判斷能力。

人工智能風繼續吹,AI 晶片乘風而起
人工智能風繼續吹,AI 晶片乘風而起

人腦神經網絡的運作模式始終是人工智能追求的終極形态

類比人類大腦,左腦主要負責對資訊邏輯的處理,如串行運算、數字和算術、分析思維、了解、分類、整理等,而右腦負責并行計算、多模态、創造性思維和想象等。是以,左右腦從功能上分别代表 CPU 和 GPU,對比人類可實作左右腦協同工作,整體調動神經網絡,将為 AI 的最終願景。

早在 2011 年,AMD 産品構想中就以 CPU 和 GPU 分别類比人類左右腦,并基于此提出了CPU+GPU 的異構産品政策。(詳見 AMD 部分)目前 AMD 的 MI300A 和英偉達的 Grace Hopper(GH200)均為 CPU+GPU 的異構內建。

GPU 的算力高并針對并行計算,但須由 CPU 進行控制調用,釋出指令。在 AI 訓練端,CPU可負責控制及發出指令,訓示 GPU 處理資料和完成複雜的浮點運算(如矩陣運算)。在面對不同模态資料的推理時,我們認為,CPU 與 GPU 的分工也各有不同,是以,同時部署CPU 和 GPU 能提供更大的運算支撐。例如,在處理語音、語言和文本資料的推理時,AI模型需逐個識别目标文字,計算有序,是以或更适合使用擅長串行運算的 CPU 進行運算支援;但在處理圖像、視訊等資料的推理時(對比人類的操作,每一個像素是同時進入眼睛),需要大規模并行運算,或更适宜由 GPU 負責,例如英偉達 L4 GPU 可将 AI 視訊性能提高120 倍,據英偉達測試,L4 與基于 CPU 的傳統基礎設施相比能源效率提高 99%。

人工智能風繼續吹,AI 晶片乘風而起

AI 推理市場規模大,但對算力要求比訓練較低,是以我們認為各類晶片的使用将百花齊放,在大模型和多模态趨勢下 GPU 或能奪份額。但目前推理端還是以 CPU 主導,多方湧入下競争愈發激烈。值得一提的是,資料中心裡擁有各類不同的晶片,而不同的 AI 工作負載應該在哪一片晶片上運作,将取決于以上提到的适配度以及成本效益。是以,各類晶片也有其不同的優勢。

人工智能風繼續吹,AI 晶片乘風而起

我們處于 AI 的“iPhone”時刻嗎?

人工智能的概念可以追溯到上世紀五六十年代。很多我們現在熟悉的算法,如神經網絡,在 20-30 年前已經存在,但由于缺乏算力和資料,是以無法有效地運作。随着 GPU 被應用到 AI、雲計算的普及和海量資料的産生和存儲,AI 技術才得以快速發展和應用。

對于“現在是 AI 的 iPhone 時刻”的觀點,我們更傾向于認為,這是描述跟 GPT 相關的生成式 AI 開始應用于 To B 端及解放生産力的重要突破。至于在 To C 端,AI 技術其實早已有衆多應用融入了我們的生活,如智能手機中的語音助手 Siri 和人臉識别等功能。

人工智能風繼續吹,AI 晶片乘風而起

生成式 AI 将帶動雲大廠加碼硬體基礎設施

我們認為,硬體裝置的規模和性能是 AI 大模型時代的必然要求。鑒于目前生成式 AI 主要以大參數模型路徑實行,随着模型數量和所需要處理的資料量增長,其訓練與推理均需要大量的計算能力與存儲資源,故生成式 AI 應用的蓬勃發展将帶動高算力 AI 晶片以及雲計算的需求增長。Bloomberg Intelligence 及 IDC 資料顯示,到 2024 年,AI 訓練和推理硬體市場規模将達 930 億美元,而到 2032 年将逾 6000 億美元。

人工智能風繼續吹,AI 晶片乘風而起

雲大廠和網際網路巨頭預計将繼續加大資本開支,AI 硬體為重點領域。谷歌、微軟、亞馬遜以及 Meta 在二季度業績說明會中提到:

• 微軟 FY23Q4:資本開支(不含融資租賃)89.43 億美元,同比增加 30.16%,計劃持續加大資料中心、CPU 和 GPU 等投入;

• 谷歌 232Q:資本開支環比增長 10%至 69 億美元,主要投放在伺服器以及 AI 大模型計算領域,增幅低于彭博一緻預期主因資料中心建設項目延遲,但公司預計對技術基礎設施的投資将在 2023 下半年增加;

• 亞馬遜 23Q2:資本開支(含融資租賃)為 114.55 億美元,同比下跌 27%,雖受逐漸下滑的運輸投入影響,公司預計 2023 全年資本開支同比下滑至略高于 500 億美元的水準,但仍将繼續增加對 AI 和大語言模型的投入以滿足客戶需求;

• Meta 23Q2:資本開支(不含融資租賃)為 61.34 億美元,同比下跌 19%,主要鑒于非 AI 伺服器費用的減少,以及部分項目和裝置傳遞的延誤将轉入 2024 年,公司預計2024 年資本開支将伴随資料中心、伺服器及人工智能方面投資的推進而增加。

總體來看,2023 上半年,以谷歌、微軟及亞馬遜及 Meta 為代表的網際網路巨頭在資本開支方面,雖受到項目延期或宏觀與其他業務規劃等因素擾動,但在 AI 相關的資本開支方面正逐漸加大。展望 2024 年,AI 基礎設施将是重點投入領域。故我們認為頭部雲廠商和網際網路巨頭加大 AI 領域資本開支将進一步支撐 AI 的産業趨勢。我們認為,2022 年以來,美聯儲穩步提高利率導緻企業削減資料中心支出,後續美聯儲或将停止加息,疊加 AI 需求增長,有望提振科技巨頭的資本開支,将持續帶動 AI 晶片等基礎硬體設施放量。

人工智能風繼續吹,AI 晶片乘風而起

以上内容僅供學習交流,不構成投資建議。

精選報告來源:文庫-遠瞻智庫

繼續閱讀