天天看點

英偉達狂飙,今年市值大漲65%

據路透社報道,随着人工智能熱潮的興起,英偉達有望成為晶片制造商中最大的赢家——盡管不是唯一的赢家。

人工智能已成為科技行業投資的亮點,該行業增長放緩導緻大規模裁員和實驗性投資減少。

但興趣激增幫助 Nvidia 周三公布了好于預期的季度收益,并預測銷售額高于華爾街預期,這與競争對手英特爾公司預計虧損和削減股息形成鮮明對比。

Nvidia的市值讓英特爾、AMD相形見绌

Nvidia 股價周四上漲近 14% 至 236.70 美元。自今年年初以來,它們的漲幅已超過 65%,幾乎是費城半導體指數漲幅的三倍。該公司通過幫助視訊遊戲看起來更逼真,開始了 PC 的圖形晶片業務,然後随着其晶片用于采礦而乘着加密貨币浪潮。現在,下一個推動力來自生成式 AI。

Nvidia 周四的飙升使其市值增加了超過 700 億美元。這使其市值超過 5800 億美元,約為英特爾的五倍。它是美國第七大上市公司。該公司成功的關鍵是它控制了大約 80% 的圖形處理單元 (GPU) 市場,這是一種專用晶片,可給OpenAI流行的 ChatGPT 聊天機器人等服務提供所需的計算能力。

GPU市場的王者

圖形處理單元旨在非常高效地處理人工智能計算中涉及的特定類型的數學,而英特爾的通用中央處理器 (CPU) 可以以較低的效率處理更廣泛的計算任務。但人工智能正在接管科技行業,據研究公司 Gartner 稱,到 2026 年,資料中心使用的 GPU 等專用晶片的份額預計将從 2020 年的不到 3% 上升到 15% 以上。

AMD是 GPU 行業的第二大玩家,其股價在周三 Nvidia 财報公布後也有所上漲,市場佔有率約為 20%。

“在硬體和處理方面引領 AI 革命的兩家公司是 Nvidia 和 AMD,在我們看來,這兩家公司遙遙領先于其他公司,”Piper Sandler 分析師 Harsh Kumar 說。

Lisa Su 上司的 AMD 近年來在 AI 方面進行了大量投資,包括一系列旨在與 Nvidia 最快的産品競争的晶片。作為對比,英特爾占有不到 1% 的份額。

“對 ChatGPT 的熱情及其解鎖的潛在用例可能代表了人工智能采用的轉折點,”持有英偉達 0.54% 股份的 AllianceBernstein 技術基金投資組合經理 Lei Qiu 表示。“雖然很難準确地确定今天人工智能占(Nvidia)收入的百分比有多大,但随着大型科技公司競相開發類似類型的人工智能應用程式,它有可能呈指數增長,”Qiu 說。

英偉達在 AI 行業的實力也引起了風險投資家和初創公司的關注,他們正在投資數十億美元,并承諾進行諸如降低電力消耗等改進。但到目前為止,它們都沒有對 Nvidia 的業務造成重大影響。

所有這一切對英特爾來說都是壞消息,英特爾在資料中心和個人電腦行業的 CPU 市場佔有率也正在被 AMD 奪走,而 AMD 曾一度占據主導地位。該公司現在面臨失去該行業下一個增長點的風險。近幾個月來,它努力加強對 GPU 的關注,包括在 12 月将其圖形晶片部門一分為二:一個專注于個人電腦,另一個專注于資料中心和人工智能。

不過,分析人士表示,在英特爾在市場上占有一席之地之前,該公司還有很長的路要走。

Wedbush Securities 分析師 Matthew Bryson 表示:“英特爾有更多的設計試圖滲透(AI)市場,但迄今為止,盡管其解決方案過多,但它的牽引力令人失望。”

ChatGPT 助力英偉達狂飙

華爾街日報在最近的報道中指出,晶片制造商熱衷于科技領域的最新熱點:人工智能工具可以在最少提示的情況下生成文本,但這需要強大的計算能力才能運作,并有望給相關供應商帶來豐厚的新收入來源。

分析師估計,對于半導體制造商而言,新工具如果得到廣泛采用,可能會帶來數百億美元的年淨銷售額。

自去年年底釋出總部位于舊金山的 OpenAI 聊天機器人ChatGPT以來,市場對所謂的生成式 AI 的興奮已經達到了狂熱的程度。該技術通過産生令人信服的真實反應(有時甚至是不準确的反應)吸引了使用者,幫助它從微軟公司吸引了數十億美元。

NVDA英偉達公司首席執行官黃仁勳甚至表示,該技術已達到拐點。“生成式 AI 的多功能性和能力引發了全球企業開發和部署 AI 戰略的緊迫感,”他在公司周三公布季度收益并公布了一項新的雲計算計劃以利用商業機會時表示。

他說,對此類人工智能工具的興趣正在促使公司重新調整他們的業務預期。“毫無疑問,由于過去 60 天、90 天,我們對今年的看法在進入新一年時已經發生了相當大的變化。”

随着個人電腦、智能手機和其他電子産品銷售疲軟,晶片行業正在努力應對半導體行業的急劇下滑,令人興奮之際。由于對經濟衰退的擔憂導緻消費者和企業縮減支出,大多數晶片制造商都報告稱銷售放緩。

Nvidia 是無可争議的 AI 晶片市場上司者,在資料中心的單調世界中,ChatGPT 等工具進行計算并輸出結果。據 Omdia 估計,截至 2020 年,它在此類 AI 處理器中的份額約為 80%。

不過,有這麼多資金可供争奪,其他晶片制造商也想加入其中。

英特爾公司首席執行官帕特基辛格周三表示,他的公司擁有一套廣泛的晶片來應對生成人工智能的機會,包括面向人工智能計算的專業晶片、資料中心的圖形晶片和新一代資料中心中央處理器——計算機的數字大腦——他說這在人工智能工作中表現良好。

“随着人工智能融入未來的每一個應用程式,我們期望的性能将成為計算的主流,”他說。

AMD為 AI 量身定制 CPU、圖形晶片和其他硬體,同時押注運作該技術所必需的許多計算的大型雲計算公司将大力投資晶片。AMD 首席執行官Lisa Su上個月底表示 ,這項業務明年應該會開始變得更有意義。

美國銀行分析師 Vivek Arya 表示,到 2027 年,生成式人工智能每年可為整個人工智能晶片市場增加 200 億美元。他說,Nvidia 應該能夠保持至少 65% 的人工智能晶片市場佔有率。

網際網路搜尋巨頭谷歌是Alphabet Inc.的子公司,本月展示了其稱為 Bard 的ChatGPT 本土競争對手。中國的百度公司正在開發一種名為 Ernie Bot 的類似于 ChatGPT 的人工智能聊天機器人,它計劃在下個月推出。微軟已經在其 Bing 搜尋引擎結果中為使用者提供了有限的 ChatGPT 體驗。

至少在短期内,Nvidia 在 AI 領域的主導地位可能是它獲利的最佳位置。該公司通過允許軟體開發人員利用其圖形晶片的特性獲得了領先地位,這些晶片從大約 15 年前開始就被證明擅長 AI。瑞銀分析師在一份報告中表示,現在,該公司的晶片是唯一可用于建立大規模 AI 語言系統的可行産品,并補充說,他們估計 ChatGPT 需要大約 10,000 個該公司的圖形晶片來訓練。

黃仁勳在财報說明會上建議該公司下個月可能會更新其潛在市場規模的前景,大約一年前,黃預測其從提供視訊遊戲晶片到汽車的業務将達到 1 萬億美元。

“由于生成式人工智能令人難以置信的能力和多功能性,以及去年年中和年底發生的所有融合突破,我們可能會遲早達到那個[市場規模],”他說。“毫無疑問,這對計算機行業來說是一個非常重要的時刻。”

Nvidia 正試圖通過開始為企業提供雲計算服務來更快地實作這一目标,以使用其硬體和軟體開發生成式 AI 聊天機器人和其他工具。該服務将通過成熟的雲計算公司提供,旨在降低人工智能在商業中的應用普及的門檻。

Nvidia 表示,它正在與所有主要的雲計算提供商(包括亞馬遜、微軟和谷歌)就生成人工智能工具以及消費者網際網路公司和初創公司展開合作。

上萬美金的A100是新武器

在CNBC看來,在目前火熱的AI晶片市場,售價上萬美金的Nvidia A100已經成為了該市場的新武器。

A100 目前已成為人工智能專業人士的“主力”,投資者Nathan Benaich 說。他釋出了一份涵蓋人工智能行業的時事通訊和報告,其中包括使用 A100 的超級計算機的部厘清單。根據 New Street Research 的資料,Nvidia 占據了可用于機器學習的圖形處理器市場的95%份額。

在他看來,A100 非常适合支援ChatGPT、Bing AI或Stable Diffusion等工具的機器學習模型。它能夠同時執行許多簡單的計算,這對于訓練和使用神經網絡模型很重要。

A100 背後的技術最初用于在遊戲中渲染複雜的 3D 圖形。它通常被稱為圖形處理器或 GPU,但如今 Nvidia 的 A100 配置和目标是機器學習任務,并在資料中心運作,而不是在發光的遊戲 PC 中運作。

開發聊天機器人和圖像生成器等軟體的大公司或初創公司需要數百或數千個 Nvidia 晶片,并且要麼自行購買,要麼從雲提供商處安全通路計算機。

例如在開發目前火熱的ChatGPT所需的大型語音模型,就需要數百個 GPU來訓練。這些晶片需要足夠強大以快速處理數 TB 的資料以識别模式。之後,還需要像 A100 這樣的 GPU 來進行“推理”,或者使用模型生成文本、進行預測或識别照片中的對象。

這意味着 AI 公司需要獲得大量 A100,該領域的一些企業家甚至将他們獲得的 A100 數量視為進步的标志。

“一年前我們有 32 塊A100,”Stability AI 首席執行官 Emad Mostaque在一月份的推特上寫道。“Dream big and stack moar GPUs kids. Brrr.” 他繼續寫道。Stability AI 是幫助開發 Stable Diffusion 的公司,Stable Diffusion 是去年秋天引起關注的圖像生成器,據報道其估值超過10 億美元。

根據 State of AI 報告的一項估計,Stability AI 現在可以使用超過 5,400 個A100 GPU ,該報告繪制并跟蹤了哪些公司和大學擁有最多的 A100 GPU——盡管它不包括雲提供商,它們不公開公布他們的數字。

Nvidia 首席執行官黃仁勳周三在與分析師的電話會議上不停地談論人工智能,暗示最近人工智能的繁榮是公司戰略的核心。

黃說:“過去 60 天,圍繞我們建構的 AI 基礎設施的活動,以及使用 Hopper 和 Ampere 影響大型語言模型的推理活動剛剛爆發。” “毫無疑問,無論我們對今年的看法如何,因為過去 60 天、90 天,在我們進入這一年之際,都發生了相當大的變化。”

“雲服務”帶來的新可能

與其他類型的軟體(如網頁服務)相比,它偶爾會以微秒為機關突發性地使用處理能力,而機器學習任務可能會占用整個計算機的處理能力,有時長達數小時或數天。

這意味着發現自己擁有熱門 AI 産品的公司通常需要購買更多 GPU 來處理高峰期或改進他們的模型。這些 GPU 并不便宜。除了可以插入現有伺服器的卡上的單個 A100 之外,許多資料中心還使用一個包含八個 A100 GPU 協同工作的系統。

這個來自Nvidia的,名為DGX A100的建議售價接近 200,000 美元,但它配備了所需的晶片。周三,Nvidia 表示将直接出售對 DGX 系統的雲通路,這可能會降低修補匠和研究人員的入門成本。

很容易看出 A100 的成本是如何增加的。

例如,New Street Research 的一項估計發現,Bing 搜尋中基于 OpenAI 的 ChatGPT 模型可能需要 8 個 GPU 才能在不到一秒的時間内響應問題。按照這個速度,微軟将需要超過 20,000 台 8-GPU 伺服器才能将 Bing 中的模型部署給每個人,這表明微軟的功能可能需要 40 億美元的基礎設施支出。

“如果你來自微軟,并且你想擴充它,以 Bing 的規模,那可能是 40 億美元。如果你想擴充到谷歌的規模,每天服務 8 或 90 億次查詢,你實際上需要在 DGX 上花費 800 億美元。” New Street Research 的技術分析師 Antoine Chkaiban 說。“我們得出的數字是巨大的。但它們隻是反映了這樣一個事實,即每個使用如此大型語言模型的使用者在使用它時都需要一台大型超級計算機。”

根據 Stability AI 線上釋出的資訊,最新版本的圖像生成器 Stable Diffusion 在256 個 A100 GPU或 32 台機器上進行了訓練,每台機器有 8 個 A100,總計 200,000 個計算小時。

Stability AI 首席執行官莫斯塔克在 Twitter 上表示,以市場價格計算,僅訓練模型就花費了 60 萬美元,他在推特交流中暗示,與競争對手相比,這個價格異常便宜。這還不包括“推理”或部署模型的成本。

Nvidia 首席執行官黃仁勳在接受 CNBC 的 Katie Tarasov 采訪時表示,就這些模型所需的計算量而言,該公司的産品實際上并不昂貴。

“我們将原本價值 10 億美元的運作 CPU 的資料中心縮小為 1 億美元的資料中心,”Huang 說。“現在,1 億美元,當你把它放在雲端并由 100 家公司共享時,幾乎什麼都不是。”

Huang 表示,Nvidia 的 GPU 允許初創公司以比使用傳統計算機處理器低得多的成本訓練模型。“現在你可以用大約 10 到 2000 萬美元建構類似大型語言模型的東西,比如 GPT,”Huang 說。“這真的非常實惠。”他補充說。

也許,在談到這個英偉達“雲服務”的時候,很多人會把他看作類似AWS、AZURE和谷歌這樣的公有雲競争者。但按照nextplatform的說法,英偉達隻是将其自己的 DGX 系統真正地放入大雲中,這樣客戶就可以在雲上使用與他們可以安裝在自己的資料中心中的完全相同的服務。

“這類似于VMware在 2016 年秋季放棄雲,與亞馬遜合作建構 VMware Cloud on AWS的嘗試”,nextplatform說。

但無論如何,在其他競争對手還在掙紮的時候,英偉達似乎已經正式複蘇并邁入了新時代。

繼續閱讀