天天看点

人工智能风继续吹,AI 芯片乘风而起

作者:远瞻智库

人工智能风再起,产业发展空间广阔

本轮人工智能浪潮由 ChatGPT 掀起,并以语言大模型(Large Language Model, LLM)和生成式 AI(Generative AI)应用作为切入点。自谷歌在 2017 年发表至今,Transformer除了带来像 ChatGPT 这样的 C 端爆款产品外,其早已在自然语言处理、计算机视觉、自动驾驶等领域里广泛应用。各中外科技企业持续加大对相关的投入,包括谷歌(GOOGL US)、Meta(META US)、微软(MSFT US)、字节跳动(未上市)、百度(BIDU US)等海内外一众科技巨头和初创企业均希望分一杯羹,其他非技术公司也不断在人才、技术和资源方面进行布局。根据 Bloomberg Intelligence 的预测数据,到 2032 年,生成式 AI 在总体信息技术硬件、软件、服务、广告和游戏等支出中的占比或将从目前不到 1%的水平扩大至 12%。

人工智能风继续吹,AI 芯片乘风而起

ChatGPT(Chat Generative Pre-trained Transformer)自 22 年 11 月发布后就引起了全球关注,5 天内注册用户超 100 万,仅两个月后,月活跃用户已达 1 亿。ChatGPT 将生成式AI 在文本、图像、视频等领域的多模态应用正式带入 C 端大众用户的视野。然而,我们认为,语言大模型若只是停留在 C 端应用,提供给一些网民娱乐,其实意义并不大。我们更加认为,生成式 AI 的发展必须要配合 B 端应用的落地,才能成为真正可以改变世界的高端科技。目前,微软已发布 Microsoft 365 Copilot 等生成式 AI 产品,作为率先发布的重磅商业化应用。Copilot 依托微软庞大的用户群体、产品生态及使用场景,有望开启 AI 的 B 端应用发展新里程,并带动微软打开新的 AI 商业化空间。Bloomberg Intelligence 预测,全球生成式 AI 下游软件市场规模将在 2032 年扩大至 2799 亿美元,2022-2023 年十年复合增速达到 69%。

人工智能风继续吹,AI 芯片乘风而起

看好整体 AI 芯片需求将伴随着大模型和生成式 AI 的 B 端应用落地而增加

2022 年开始,大模型的数量及参数量均呈指数级增长。总体来说,我们认为模型的数量和所需的训练数据才是对于算力要求的关键,因此,我们看好整体 AI 芯片的需求,将伴随着大模型和生成式 AI 所支持的 B 端商业应用落地而增加。

自 2018 年 OpenAI(未上市)发布了包含 1.17 亿参数的第一代 GPT(Generative Pre-trained Transformer)模型以来,每一代 GPT 模型的迭代都伴随着参数量的飞跃。

人工智能风继续吹,AI 芯片乘风而起

一众中外的科技巨头们也不甘示弱,包括Google、Meta、百度等纷纷发布了 PaLM 、LaMDA 、Llama、文心一言等为代表的大语言模型。2020 年 1 月,OpenAI 团队论文《Scaling Laws for Neural Language Models》提出“缩放定律”(Scaling Laws),即大模型表现伴随模型参数量、数据集大小和计算量增长而增长,他们于 2023 年 5 月也再次强调,目前缩放定律仍未出现瓶颈。

但我们也看到,谷歌在今年 5 月的 I/O 大会里发布的新一代 PaLM 大模型,PaLM2,就是通过算法上的改进达到训练数据增加为上一代 PaLM(7800 亿 tokens)的约 5 倍,达到 3.6 万亿个 tokens,但参数量为 3400 亿,小于 PaLM 的 5400 亿。

人工智能风继续吹,AI 芯片乘风而起

“大模型”通常指的是有大量参数的自我监督和预训练模型,其背后的核心技术是Transformer 架构,目前比较广泛应用于文本生成等自然语言处理领域。Transformer 在2017 年由谷歌大脑团队在论文《Attention Is All You Need》中提出。该架构主要用于处理序列数据,主要采用自注意力机制(self-attention mechanism),为序列中的每个元素赋予不同的权重,从而捕获序列内部的长距离依赖关系。在 Transformer 之前,深度学习模型更多是采用监督学习的方法进行训练,因此需要大量标注的数据。相对来说,GPT 模型的创新之处在于采用了接近无监督学习(具体叫“自我监督学习”,self-supervised learning)的预训练,加上少量有监督的微调相结合。

人工智能风继续吹,AI 芯片乘风而起
人工智能风继续吹,AI 芯片乘风而起

在文本生成、上下文语义理解、文章修订及摘要总结等需要泛化能力的大语言模型中,Transformer 架构相对以往的 CNN 和 RNN 网络结构取得了较大的进展。Transformer 架构突破了 RNN(Recurrent Neural Network)模型固定顺序属性所带来的计算限制,其通过自注意力机制,可以同时处理整个序列的所有元素,从而实现了高效的并行化,提高了计算速度。

同时,相比 CNN(Convolutional Neural Network)模型中伴随距离增大,计算位置关联所需操作将不断增多,Transformer 通过自注意力机制,可直接计算序列中任何两个元素之间的关联,且通过权重显示序列元素间的关系,从而为模型提供更为丰富的全局上下文信息,有效提高对复杂结构及语义的理解。故 Transformer 被认为与大部分白领工作相契合,在当前人力成本较高及生产力急需提升的背景下,或将开始下沉至办公、会计、法律、编程和医疗等各领域进行结合。我们可将 Transformer 模型比作人类的右脑,在浅层关联性上表现优异,适用于需要创造性的生成式领域,但其仍然需要加强左脑的逻辑判断能力。

人工智能风继续吹,AI 芯片乘风而起
人工智能风继续吹,AI 芯片乘风而起

人脑神经网络的运作模式始终是人工智能追求的终极形态

类比人类大脑,左脑主要负责对信息逻辑的处理,如串行运算、数字和算术、分析思维、理解、分类、整理等,而右脑负责并行计算、多模态、创造性思维和想象等。因此,左右脑从功能上分别代表 CPU 和 GPU,对比人类可实现左右脑协同工作,整体调动神经网络,将为 AI 的最终愿景。

早在 2011 年,AMD 产品构想中就以 CPU 和 GPU 分别类比人类左右脑,并基于此提出了CPU+GPU 的异构产品策略。(详见 AMD 部分)目前 AMD 的 MI300A 和英伟达的 Grace Hopper(GH200)均为 CPU+GPU 的异构集成。

GPU 的算力高并针对并行计算,但须由 CPU 进行控制调用,发布指令。在 AI 训练端,CPU可负责控制及发出指令,指示 GPU 处理数据和完成复杂的浮点运算(如矩阵运算)。在面对不同模态数据的推理时,我们认为,CPU 与 GPU 的分工也各有不同,因此,同时部署CPU 和 GPU 能提供更大的运算支撑。例如,在处理语音、语言和文本数据的推理时,AI模型需逐个识别目标文字,计算有序,因此或更适合使用擅长串行运算的 CPU 进行运算支持;但在处理图像、视频等数据的推理时(对比人类的操作,每一个像素是同时进入眼睛),需要大规模并行运算,或更适宜由 GPU 负责,例如英伟达 L4 GPU 可将 AI 视频性能提高120 倍,据英伟达测试,L4 与基于 CPU 的传统基础设施相比能源效率提高 99%。

人工智能风继续吹,AI 芯片乘风而起

AI 推理市场规模大,但对算力要求比训练较低,因此我们认为各类芯片的使用将百花齐放,在大模型和多模态趋势下 GPU 或能夺份额。但目前推理端还是以 CPU 主导,多方涌入下竞争愈发激烈。值得一提的是,数据中心里拥有各类不同的芯片,而不同的 AI 工作负载应该在哪一片芯片上运行,将取决于以上提到的适配度以及性价比。因此,各类芯片也有其不同的优势。

人工智能风继续吹,AI 芯片乘风而起

我们处于 AI 的“iPhone”时刻吗?

人工智能的概念可以追溯到上世纪五六十年代。很多我们现在熟悉的算法,如神经网络,在 20-30 年前已经存在,但由于缺乏算力和数据,因此无法有效地运行。随着 GPU 被应用到 AI、云计算的普及和海量数据的产生和存储,AI 技术才得以快速发展和应用。

对于“现在是 AI 的 iPhone 时刻”的观点,我们更倾向于认为,这是描述跟 GPT 相关的生成式 AI 开始应用于 To B 端及解放生产力的重要突破。至于在 To C 端,AI 技术其实早已有众多应用融入了我们的生活,如智能手机中的语音助手 Siri 和人脸识别等功能。

人工智能风继续吹,AI 芯片乘风而起

生成式 AI 将带动云大厂加码硬件基础设施

我们认为,硬件设备的规模和性能是 AI 大模型时代的必然要求。鉴于目前生成式 AI 主要以大参数模型路径实行,随着模型数量和所需要处理的数据量增长,其训练与推理均需要大量的计算能力与存储资源,故生成式 AI 应用的蓬勃发展将带动高算力 AI 芯片以及云计算的需求增长。Bloomberg Intelligence 及 IDC 数据显示,到 2024 年,AI 训练和推理硬件市场规模将达 930 亿美元,而到 2032 年将逾 6000 亿美元。

人工智能风继续吹,AI 芯片乘风而起

云大厂和互联网巨头预计将继续加大资本开支,AI 硬件为重点领域。谷歌、微软、亚马逊以及 Meta 在二季度业绩说明会中提到:

• 微软 FY23Q4:资本开支(不含融资租赁)89.43 亿美元,同比增加 30.16%,计划持续加大数据中心、CPU 和 GPU 等投入;

• 谷歌 232Q:资本开支环比增长 10%至 69 亿美元,主要投放在服务器以及 AI 大模型计算领域,增幅低于彭博一致预期主因数据中心建设项目延迟,但公司预计对技术基础设施的投资将在 2023 下半年增加;

• 亚马逊 23Q2:资本开支(含融资租赁)为 114.55 亿美元,同比下跌 27%,虽受逐渐下滑的运输投入影响,公司预计 2023 全年资本开支同比下滑至略高于 500 亿美元的水平,但仍将继续增加对 AI 和大语言模型的投入以满足客户需求;

• Meta 23Q2:资本开支(不含融资租赁)为 61.34 亿美元,同比下跌 19%,主要鉴于非 AI 服务器费用的减少,以及部分项目和设备交付的延误将转入 2024 年,公司预计2024 年资本开支将伴随数据中心、服务器及人工智能方面投资的推进而增加。

总体来看,2023 上半年,以谷歌、微软及亚马逊及 Meta 为代表的互联网巨头在资本开支方面,虽受到项目延期或宏观与其他业务规划等因素扰动,但在 AI 相关的资本开支方面正逐渐加大。展望 2024 年,AI 基础设施将是重点投入领域。故我们认为头部云厂商和互联网巨头加大 AI 领域资本开支将进一步支撑 AI 的产业趋势。我们认为,2022 年以来,美联储稳步提高利率导致企业削减数据中心支出,后续美联储或将停止加息,叠加 AI 需求增长,有望提振科技巨头的资本开支,将持续带动 AI 芯片等基础硬件设施放量。

人工智能风继续吹,AI 芯片乘风而起

以上内容仅供学习交流,不构成投资建议。

精选报告来源:文库-远瞻智库

继续阅读