天天看點

英偉達正在“壟斷”AI産業,國内廠商準備好了嗎?

“為了計算和人類的未來,我捐出世界上第一台 DGX-1 。 ”

2016 年 8 月,英偉達創始人黃仁勳,帶着一台裝載了 8 塊 P100 晶片的超級計算機 DGX-1 ,來到了 OpenAI 的辦公大樓。

在現場人員到齊後,老黃拿出記号筆,在 DGX-1 的機箱上寫下這句話。

英偉達正在“壟斷”AI産業,國内廠商準備好了嗎?

與其一同前往的還有特斯拉和 OpenAI 的創始人,埃隆馬斯克。

這次 OpenAI 之行,老黃不為别的,就是為了把這台剛出爐的超算送給 OpenAI ,給他們的人工智能項目研究加一波速。

這台 DGX-1 價值超過百萬,是英偉達超過 3000 名員工,花費三年時間打造。

這台 DGX-1 ,能把 OpenAI 一年的訓練時間,壓縮到短短一個月。而這,是他對人工智能未來的豪賭,加的一波注。七年之後,在前不久的 GTC 大會上,老黃穿着皮衣,拿着晶片,整個宣講不離 AI 。

似乎是在告訴各位, AI 的時代,我英偉達,就要稱王了,當年的豪賭,他赢了!

這麼說吧,在去年經曆一波礦難之後,不少人都以為曾靠着礦潮狂賺一筆的英偉達,會在礦難之下市值暴跌,一蹶不振。

但實際情況卻有點微妙。。。英偉達的股價在跌了大半年之後,從十月份開始,一路上漲,到現在,整個英偉達市值已經漲回到了 6500 億美元,是 AMD 的 4 倍,英特爾的 6 倍。

瞧瞧,這還是當年那個求着各位買顯示卡的老黃嘛?

而讓英偉達的股價瘋漲的,那便是他們從十多年前就開始押注的 AI 計算。

給大家一個資料,從 15 年後,英偉達的 GPU 在超算中心的市場佔有率就一路上漲,這幾年穩居 90% 左右。

在獨立 GPU 市場上,英偉達的市場占有率也一度超過 80% 。

另外,包括 YouTube 、Cat Finder 、 AlphaGo 、 GPT-3 、 GPT-4 在内, AI 曆史上那些叫得出名的玩意,幾乎都是在英偉達的硬體上整出來的。

英偉達的硬體,仿佛就是新時代的内燃機,載着 AI 時代不斷前進。

差友們可能會有點疑問,為什麼在 AI 爆發的時代,好像就隻有老黃有好處,其它的顯示卡生産商們的顯示卡不能訓練 AI 嘛?能訓練,但隻能訓練一點點。

為啥?這就不得不提到英偉達從 2006 年就開始着手開發一個東西—— CUDA ( 統一計算裝置架構 )。

差評君簡單解釋一下它是幹嘛的,當你想要計算一些比較龐大的運算問題時,通過 CUDA 程式設計,你就能充分利用 GPU 的并行處理能力,進而大幅提升計算性能。

差評君說一個聽來的比喻。

CPU 就好比是個數學教授, GPU 就是 100 個國小生,放一道高數題下來那 100 個國小生可能會懵逼;但是放 100 道四則口算題下來,那 100 個國小生同時做肯定比數學教授快多了。

深度學習就是上面的例子中那 100 道口算題,那個讓 GPU 處理器并行運算的 “ 工具 ” 就叫 CUDA 。

一般來說,使用 CUDA 和不使用 CUDA ,兩者在計算速度上往往有數倍到數十倍的差距。

既然 CUDA 這麼有用,為什麼其它的 GPU 廠商不去搞個競品呢?不是不去搞啊,而是他們真的沒想到!

在早期, GPU 的作用隻是為了加速圖形渲染,各大廠商們認為它就是一個圖形專用計算晶片,并沒有想到把 GPU 用在其它通用計算方面。至于拿來做深度學習?以那個年代的 AI 能力,一是沒有太大的必要,二是也沒有人覺得它有用。

英偉達深度學習團隊的布萊恩在聊到 CUDA 時這麼說道:

“ 在 CUDA 推出十年以來,整個華爾街一直在問英偉達,為什麼你們做了這項投入,卻沒有人使用它?他們對我們的市值估值為 0 美元。 ”

不過說沒人用也是過于嚴重了。

其實早在 2012 年,多倫多大學的 Alex Krizhevsky 就在 ImageNet 計算機視覺挑戰賽中,利用 GPU 驅動的深度學習擊敗了其它對手,當時他們使用的顯示卡是 GTX580 。

在這之後又經過了 4 年,那些搞深度學習的人才突然意識到, GPU 的這種設計結構方式,在訓練 AI 的速度上,真的是 CPU 不能比的。而擁有了 CUDA 原生支援的英偉達 GPU ,更是首要之選。

到現在,資本們已經看到了 AI 的重要之處,為什麼大家都還在卷 AI 模型,而不去卷老黃的市場呢?

原因在于,它們已經很難再拿到 AI 加速晶片的入場券了。在人工智能産業上,整個深度學習的架構已經是老黃的形狀了。

AI 發展的數十年間,英偉達通過對 CUDA 開發和社群的持續投入, CUDA 和各類 AI 架構深度綁定。

當今使用排行靠前的各類 AI 架構,就沒有不支援 CUDA 的,也就是說你想要讓你的深度學習跑的快?買張支援 CUDA 的高性能卡是最好的選擇,說人話就是——買 N 卡吧。

當然,在 CUDA 大力發展期間,也有其它公司在嘗試着打破英偉達這種接近壟斷的局面。

2008 蘋果就提過出 OpenCL 規範,這是一個統一的開放 API ,旨在為各種不同的 GPU 型号提供一個規範,用以開發類似 CUDA 的通用計算軟體架構。

但是,通用就意味着不一定好用。

因為各大廠商 GPU 的型号繁而複雜,為了适應各種硬體,驅動版本也多如牛毛,品質參差不齊。而且缺少對應的廠商進行針對性的優化,是以,無論是哪一個版本的 OpenCL ,在同等算力下,都比不過使用 CUDA 的速度。

而且恰恰是因為 OpenCL 的通用性,想要開發支援 OpenCL 的架構,要比開發CUDA 的複雜不少。原因還是同一個,缺少官方的支援,看看英偉達對CUDA開發的工具支援吧,CUDA Toolkit,NVIDIA GPU Computing SDK以及NSight等等。

OpenCL這邊,就略顯寒酸了。。。

這就導緻如今能支援 OpenCL 的深度學習架構寥寥無幾。

舉個很簡單的例子,當下最火的架構 PyTorch ,就連官方都沒有專門對OpenCL進行支援,還得靠着第三方開源項目才能用。

那同為顯示卡供應商的 AMD ,在面對老黃如日中天的 CUDA 時,除了 OpenCL ,有沒有自己的解決辦法呢?

方法确實是有,但效果也确實不咋的。2016 年 AMD 釋出了全新的開放計算平台—— ROCm ,對标的就是英偉達的 CUDA ,最關鍵的一點是,它還在源碼級别上對 CUDA 程式進行支援。

你看,就算是老黃的死對頭 AMD ,想的也不是另起爐竈,而是降低自己适配 CUDA 的門檻。。。

但是,時至今日, ROCm 依然還是隻支援 Linux 平台,可能也是用的人太少了,有點擺爛的味道,畢竟,既然你支援 CUDA ,那我為什麼要費盡心力去給你的 ROCm 專門編寫一套支援架構呢?

同年,谷歌也有了行動,但畢竟不是晶片制造商,谷歌隻是推出了自己的 TPU 平台,專門針對自家的 TensorFlow 架構進行優化,當然原生支援的最好的也隻有 TensorFlow 了。

至于英特爾那邊,也推出了一個 OneAPI ,對标老黃的 CUDA ,不過由于起步較晚,現在還處于發展生态的環節,未來會怎樣還不太好說。

是以靠着先發優勢還有原生支援,導緻現在的深度學習,基本上離不開英偉達的 GPU 和他的 CUDA 。

最近大火的 ChatGPT ,就用了老黃的 HGX 主機闆和 A100 晶片,而老黃對此也是很有自信的說道:

“ 現在唯一可以實際處理 ChatGPT 的 GPU ,那就隻有我們家的 HGX A100 。 ”

沒錯,沒有其它可用的了,這就是老黃的有恃無恐。

而随着 OpenAI 對大模型 AI 的成功驗證,各家巨頭對大模型 AI 的紛紛入局,英偉達的卡已經立馬成了搶手貨。

是以如今的 AI 創業公司,出現了一件很有意思的現象,在他們的項目報告上,往往會搭上一句我們擁有多少塊英偉達的 A100 。

當大家在 AI 行業紛紛投資淘金時,英偉達就這樣靠着給大家賣水——提供 AI 加速卡,大賺特賺,關鍵還在于,隻有它賣的水能解渴。

因為它的硬體以及工具集,已經能影響到整個 AI 産業的戰局和發展速度了。

更可怕的是,英偉達的優勢已經形成了一種壁壘,這壁壘厚到就連全球第二大 GPU 廠商 AMD 都沒有辦法擊穿。

是以在 AI 大浪滔天的現在,能整出屬于自己的 AI 大模型固然重要,但差評君卻覺得,啥時候能有自己的英偉達和 CUDA 也同樣不可小觑。

當然,這條路也更難。

最後,差評君覺得在未來,我們需要抓緊突破的,絕對不隻是對人工智能大模型相關的研究,更為重要的是整個計算晶片的設計,制造,以及 AI 生态的建設。

新的工業革命已經到來, AI 技術的發展不僅加速了人類生産力的發展,也加速了那些落後産能的淘汰,現在各行各業都處在變革的前夕。

強者越強,弱者無用。雖然這句話很殘酷,但在AI 領域,如果不奮力追上,可能真的已經不需要 “ 弱者 ” 了。

繼續閱讀