天天看點

NVIDIA創始人兼首席執行官黃仁勳:NVIDIA将AI引入各行各業

作者:中關村線上

ChatGPT僅是一個起點。

正如NVIDIA創始人兼首席執行官黃仁勳所說,計算正在以“光速”發展。黃仁勳宣布與谷歌、微軟、Oracle等一衆領軍企業開展廣泛的合作,為各行各業帶來新的AI、模拟和協作能力。

NVIDIA創始人兼首席執行官黃仁勳:NVIDIA将AI引入各行各業

NVIDIA創始人兼首席執行官黃仁勳

黃仁勳在NVIDIA GTC大會主題演講中表示:“如果把加速計算比作曲速引擎,那麼AI就是動力來源。生成式 AI 的非凡能力,使得公司産生了緊迫感,他們需要重新構思産品和商業模式。

作為這場為期四天活動的主題演講,黃仁勳在長達78分鐘的演講中概述了NVIDIA及其合作夥伴如何提供訓練和部署尖端AI服務所需的各種技術。他釋出了全新的半導體和軟體庫以推動行業新突破,以及一套完整的系統和服務,幫助各類初創公司及企業将這些創新在全球發揮作用。

黃仁勳在演講中用生動的例子說明了該生态系統的作用。他宣布NVIDIA和微軟将把數億Microsoft 365和Azure使用者連接配接到一個用于建構和操作超現實虛拟世界的平台,并介紹了亞馬遜如何使用複雜的模拟能力訓練新的自主倉庫機器人。他還談到ChatGPT等最近大火的新一代生成式AI服務的興起。

在強調NVIDIA創新成果的基礎作用時,黃仁勳詳細介紹了NVIDIA在計算光刻技術領域所取得的突破,以及與ASML、TSMC和Synopsis的合作,這些将為制造高效、強大的新一代2納米半導體奠定基礎。

黃仁勳表示,加速計算和AI的出現恰逢其時。摩爾定律正在放緩,各個行業正在應對可持續發展,生成式AI以及數字化等強大的動态挑戰。“各個行業的企業正在競相進行數字化轉型,希望成為軟體驅動的技術公司,成為行業颠覆者而不是被颠覆者。”

加速計算可助力企業應對這些挑戰。黃仁勳表示:“加速是重獲優勢、實作可持續發展,以及達到淨零排放的最佳途徑。”

GTC:行業領先的AI大會

進入到第14個年頭的GTC已成為全球最重要的AI大會之一。本次大會有超過650場會議,演講嘉賓包括來自DeepMind、Adobe、Netflix、蘇黎世聯邦理工學院等企業和機構的行業上司者,此外,本屆大會還有一場黃仁勳和OpenAI聯合創始人Ilya Sutskever的爐邊談話,ChatGPT正是OpenAI的産品。

超過25萬名注冊使用者将深入參與GTC各個主題的會議,其中涵蓋如何修複2000年前失傳的羅馬馬賽克、建造未來工廠、用新一代大型望遠鏡探索宇宙、通過重新排列分子加速藥物研發、以及70多場關于生成式AI的講座等。

AI的iPhone時刻

NVIDIA技術是AI的基礎,黃仁勳講述了NVIDIA如何在生成式AI變革初期就已參與進來。早在2016年,他就向OpenAI親手傳遞了第一台NVIDIA DGX AI超級計算機——支援ChatGPT的大型語言模型突破背後的引擎。去年年底推出的ChatGPT幾乎在一夜之間爆火,吸引了超過1億使用者,成為有史以來增長最快的應用。黃仁勳認為 “我們正處于AI的iPhone時刻 ”。

黃仁勳表示,最初作為AI研究儀器使用的NVIDIA DGX超級計算機現已在世界各地的企業中全天候運作,用于完善資料和處理AI。《财富》100強企業中有一半都安裝了DGX AI超級計算機。

“DGX超級計算機是現代AI工廠”。

用于資料中心的NVIDIA H100、Grace Hopper和Grace

黃仁勳表示,類似ChatGPT大型語言模型(LLM)的部署是一個重要的全新推理工作負載。為了支援像ChatGPT這樣的大型語言模型推理,黃仁勳釋出了一款新的GPU——帶有雙GPU NVLink的H100 NVL。

基于NVIDIA Hopper架構的H100配有一個Transformer引擎,旨在處理驅動ChatGPT的類似GPT模型。與用于GPT-3處理的HGX A100相比,配備四對H100與雙GPU NVLink的标準伺服器的速度最高可達10倍。

黃仁勳表示:“H100可以将大型語言模型的處理成本降低一個數量級。”

在過去十年中,雲計算每年增長20%并已發展成為一個萬億美元的産業。NVIDIA為這個AI和雲優先的世界設計了Grace CPU,其中AI工作負載由GPU加速。Grace正在進行樣品調測。

通過900GB/s高速晶片對晶片的接口,NVIDIA Grace Hopper超級晶片可連接配接Grace CPU和Hopper GPU。黃仁勳解釋說,“ Grace Hopper是處理超大型資料集的理想選擇,比如用于推薦系統的AI資料庫和大型語言模型。”

“客戶希望建構規模大幾個數量級的AI資料庫,那麼Grace Hopper是最理想的引擎。”

DGX是建構AI基礎設施的藍圖

最新版本的DGX搭載8個NVIDIA H100 GPU,它們連接配接成為一個巨大的GPU。黃仁勳表示:“NVIDIA DGX H100是全球客戶建構AI基礎設施的藍圖”,現已全面投入生産。

H100 AI超級計算機現已開始上線。Oracle Cloud Infrastructure宣布配備H100 GPU的新OCI Compute裸機GPU執行個體在一定條件可用。

此外,亞馬遜雲科技釋出了即将推出的P5執行個體EC2 UltraClusters,其規模可擴充到2萬個互連的H100 GPU。

上周,微軟Azure釋出了其H100虛拟機ND H100 v5的私人預覽版。

Meta現已為其内部的AI生産和研究團隊部署了由H100驅動的Grand Teton AI超級計算機。

OpenAI将在其Azure超級計算機上使用H100來支援其持續進行的AI研究。

提供H100的其他合作夥伴包括Cirrascale和CoreWeave,這兩家公司今天都宣布全面上市。此外,Google Cloud、Lambda、Paperspace 和 Vult 都計劃提供 H100。

DGX Cloud:随時随地将AI帶給每家公司

為了加快把DGX能力帶給初創企業和其他各類企業,以助力其快速打造新産品和制定AI戰略,黃仁勳釋出了NVIDIA DGX Cloud。通過與微軟Azure、Google Cloud和Oracle Cloud Infrastructure合作,“從浏覽器上” 即可實作将NVIDIA DGX AI超級計算機 “帶給每家公司”。

DGX Cloud經過優化可以運作NVIDIA AI Enterprise,這款全球領先的加速軟體套件将推動AI端到端開發和部署。黃仁勳表示:“DGX Cloud為客戶提供NVIDIA AI和世界領先雲服務提供商的出色服務。”

NVIDIA正與領先的雲服務提供商一起托管DGX Cloud基礎設施,Oracle Cloud Infrastructure是最早合作的雲服務提供商。微軟Azure預計将在下個季度開始托管DGX Cloud,該服務将很快擴充到Google Cloud等。

黃仁勳表示,此次合作将NVIDIA的生态系統帶給雲服務提供商,同時擴大了NVIDIA的規模和影響力。企業将能夠按月租用DGX Cloud叢集以便快速、輕松地擴充大型多節點訓練工作負載的開發。

賦能生成式AI

為了加速企業使用生成式AI的工作,黃仁勳釋出了NVIDIA AI Foundations雲服務系列,為需要建構、完善和運作自定義大型語言模型及生成式AI的客戶提供服務,他們通常使用專有資料進行訓練并完成特定領域的任務。

AI Foundations服務包括NVIDIA NeMo,用于建構自定義語言文本-文本轉換生成模型;Picasso視覺語言模型制作服務,适用于想要建構使用授權或專有内容訓練而成的自定義模型的客戶;以及BioNeMo,助力2萬億美元規模的藥物研發行業的研究人員。

Adobe正與NVIDIA一起建構一整套用于未來創作工作的新一代AI。

Getty Images正在與NVIDIA一起訓練負責任的生成式文本-圖像,以及文本-視訊轉換基礎模型。

Shutterstock正在與NVIDIA一起訓練一個生成式文本-3D轉換基礎模型,以簡化詳細3D資産的建立。

推動醫療的進步

NVIDIA宣布,Amgen正在使用BioNeMo加速其藥物研發服務。其他BioNemo的搶先體驗客戶包括Alchemab Therapeutics、AstraZeneca、Evozyne、Innophore和Insilico。

黃仁勳解釋說,BioNeMo幫助研究人員使用他們的專有資料建立、微調和提供自定義模型。

此外,黃仁勳宣布,NVIDIA和全球最大的醫療技術提供商Medtronic正在一起為軟體定義醫療裝置建構一個AI平台。此次合作将為Medtronic系統建立一個涵蓋手術導引和機器人輔助手術的通用平台。

Medtronic宣布,其GI Genius系統使用AI實作了結腸癌早期檢測。該系統建立在用于實時傳感器處理系統的軟體庫NVIDIAHoloscan之上,并将于今年年底左右出貨。

黃仁勳表示:“全球2500億美元的醫療儀器市場正在轉型。”

加快生成式AI應用的部署

為了幫助企業部署處于快速發展的生成式AI模型,黃仁勳釋出了用于AI視訊、圖像生成、大型語言模型部署和推薦器推理的推理平台。這些平台将NVIDIA的全套推理軟體與最新的NVIDIA Ada、Hopper和Grace Hopper處理器相結合,包括同時在今天推出的NVIDIA L4 Tensor Core GPU和NVIDIA H100 NVL GPU。

· 用于AI視訊的NVIDIA L4可提供比CPU高出120倍的由AI支援的視訊性能,同時提高99%的能效。

· 用于圖像生成的NVIDIA L40針對圖形以及AI賦能的2D、視訊和3D圖像生成進行了優化。

· 用于大型語言模型部署的NVIDIA H100 NVL是規模化部署ChatGPT等大型語言模型的理想選擇。

· 用于推薦模型的NVIDIA Grace Hopper是圖形推薦模型、矢量資料庫和圖形神經網絡的理想選擇。

Google Cloud是首家向客戶提供L4的雲服務提供商。該公司已推出新的G2虛拟機并在今日提供私人預覽版。谷歌還将L4內建到其Vertex AI模型商店中。

微軟與NVIDIA一起将Omniverse帶給數億使用者

黃仁勳宣布,NVIDIA正在與微軟合作,将 NVIDIA Omniverse Cloud 這一完全托管的雲服務引入全球各行各業,并推出又一項雲服務以加速企業實作前所未有的模拟和協作能力。

黃仁勳表示:“微軟和NVIDIA将為數億Microsoft 365和Azure使用者提供Omniverse” 。他同時還釋出了最新NVIDIA OVX伺服器、搭載NVIDIA RTX Ada Generation GPU的新一代工作站,以及英特爾為NVIDIA Omniverse優化的最新CPU。

為了展示為3D設計協作及數字孿生模拟而建構的開放平台NVIDIA Omniverse的強大功能,黃仁勳分享了一段視訊,展示了NVIDIA IsaacSim如何通過完全保真的數字孿生幫助亞馬遜節省時間和金錢。NVIDIA Isaac Sim是在Omniverse基礎上建構的機器人模拟和合成生成平台。

該視訊展示了亞馬遜如何為其第一個完全自主的倉庫機器人Proteus編排動作,使其能夠在亞馬遜的巨大倉庫中與人類和其他機器人一起搬運裝有産品的箱子。

助力3萬億美元規模汽車産業的數字化

為了展示Omniverse的能力,黃仁勳深入介紹了Omniverse在3萬億美元汽車産業數字化中的作用。黃仁勳表示,到2030年,汽車制造商将建立300家工廠,生産2億輛電動汽車,而電池制造商正在建設100家巨型工廠。他表示:“數字化将提高該行業的效率、生産力和速度。”

談到Omniverse在整個行業的應用,黃仁勳表示,Lotus正在使用Omniverse以虛拟方式組裝焊接站。梅賽德斯-奔馳使用Omniverse為新車型建立、優化和規劃裝配線。Rimac和Lucid Motors在Omniverse上使用真實設計資料建立數字商店,以實作對汽車逼真的描繪。

寶馬與Idealworks合作,使用Omniverse中的Isaac Sim生成訓練工廠機器人的合成資料和場景。黃仁勳表示,寶馬正在使用Omniverse規劃全球工廠的營運,在實際工廠開業兩年之前,他們會在Omniverse中完整建造一間新的電動汽車工廠。

NVIDIA還宣布全球領先的新能源汽車制造商比亞迪将在其更廣泛的車型中擴充對NVIDIA DRIVE Orin集中式計算平台的使用。

加速半導體行業的突破

黃仁勳宣布,随着目前生産工藝接近實體學的極限,NVIDIA cuLitho将助力ASML、TSMC和Synopsis等半導體上司者加速新一代晶片的設計和制造。這項突破将加速計算引入到計算光刻領域。

全球領先的代工廠TSMC,以及電子設計自動化領域的上司者Synopsys正在将全新的NVIDIA cuLitho計算光刻技術軟體庫整合到最新一代NVIDIA Hopper架構GPU的軟體、制造技術和系統中。

裝置制造商ASML正在GPU和cuLitho方面與NVIDIA展開合作,并計劃在其所有計算光刻軟體産品中加入對GPU的支援。黃仁勳表示,光刻技術已臨近實體極限,NVIDIA推出的cuLitho可為行業的2納米及更高工藝奠定基礎。

他表示:“晶片産業幾乎是每一個行業的基礎。”

加速全球大型企業的發展

衆多知名的全球企業均支援黃仁勳的願景。

電信巨頭AT&T采用NVIDIA AI,以實作更高效地資料處理。同時,他們正在測試Omniverse ACE和Tokkio AI虛拟化身工作流為客服部門及其員工幫助台建立、定制和部署虛拟助手。

美國運通、美國郵政署、Microsoft Office和Teams以及亞馬遜等4萬家客戶都在使用高性能的NVIDIA TensorRT推理優化器和運作時,以及多架構資料中心推理服務軟體NVIDIA Triton。

Uber使用Triton實作每秒為數十萬車輛預測到達時間。

擁有超過6000萬日活使用者的Roblox使用Triton提供遊戲推薦模型、建構頭像、稽核内容和市場廣告。

微軟、騰訊和百度都在使用NVIDIA CV-CUDA實作AI計算機視覺。這項目前處于公測階段的技術可優化前處理和後處理,節省4倍成本和能耗。

助力完成不可能的任務

在演講尾聲,黃仁勳向NVIDIA的系統、雲和軟體合作夥伴以及研究人員、科學家和員工緻謝。

黃仁勳宣布,NVIDIA已更新了100個加速庫,包括用于量子計算的cuQuantum和新開源的CUDA Quantum、用于組合優化的cuOpt以及用于計算光刻的cuLitho。

黃仁勳表示,全球NVIDIA生态目前已有400萬名開發者、4萬家公司和NVIDIA初創加速計劃中的1.4萬家初創企業。

“我們正在助力全球完成不可能的任務。”

(8143789)

繼續閱讀