天天看點

“燒光”70000億美元,OpenAI與英偉達、台積電為敵

“燒光”70000億美元,OpenAI與英偉達、台積電為敵

騰訊科技

2024-05-17 09:20釋出于河北騰訊新聞科技頻道官方賬号

“燒光”70000億美元,OpenAI與英偉達、台積電為敵

“芯事重重”半導體産業研究策劃,本期聚焦山姆·奧特曼7萬億美元建廠的可行性分析,獨家釋出騰訊新聞,未經授權,請勿轉載。

文/ 前台積電建廠專家 Leslie Wu(公衆号:梓豪談芯)

有朋友問:Leslie,你是專業建廠出身,之前傳出山姆奧特曼要投資7萬億造芯,雖然本人不明确回應,但大媒體傳出來,一定不是空穴來風。如果有7萬億,造劃算,還是買劃算,如果造,可能要考慮哪些方面的投入及因素?

奧特曼的“7萬億”傳聞的确是石破天驚,構想很有意思,回答這個問題得具備豐富的半導體建廠,工藝,營運等一系列知識,我們可以嘗試推算一下,如果手握7萬億美元,如何将這筆錢“合理地”花出去?

“燒光”70000億美元,OpenAI與英偉達、台積電為敵

每萬片晶圓,建廠投資150億美元

首先,第一步必然是生産GPU邏輯晶片,這樣一來需要先蓋一座邏輯晶圓廠。我們以台積電最先進的2nm工廠為例,看看每萬片晶圓的資本投入情況。

按投資額劃分,晶圓廠各項投入比例大緻為:制程裝置:77%,土地與建築物:4%,潔淨室:5%,水電氣化學品等供應系統設施:14%。

光刻機是晶圓廠最大的制程裝置投資項之一,占比在20%左右,而且2nm需要用到EUV光刻機(負責其中25層的光刻),成本相對更高,占比預計會提升至24%左右。

目前台積電的2nm還是采用低數值孔徑的EUV,對應ASML最新款的NXE:3800E,其每小時産出晶圓(WPH,Wafer per hour)大緻在190-200片的區間,單台裝置每月産能預計2400片左右(具體計算見下表注釋),這意味着每萬片晶圓的産能,需要4台ASML的NXE:3800 EUV光刻機,而除了EUV負責的25層外,其餘層還需要3台每小時産出晶圓295片的NXT:2100,以及一台KrF DUV光刻機。

“燒光”70000億美元,OpenAI與英偉達、台積電為敵

*單台裝置月産能=每小時産出晶圓數*運作時長*% customer efficiency(效率)*% doseage headwind(vs.30mJ)*EUV層數*30天

按照ASML提供的資料,NXE:3800E售價2億美元左右,NXT:2100i約7500萬美元,KrF DUV約1500萬美元,這意味着2nm工藝的晶圓廠,每萬片晶圓産能,光刻機(含維修以及備件)的投入預計在13億美元左右。

按照光刻機的投入占全部制程裝置24%的比例倒推,制程裝置的總投入為54億美元,而制程裝置占晶圓廠全部投資額的77%,以此倒推,2nm節點,每萬片晶圓産能,晶圓廠總投資額大緻為71億美元。

“燒光”70000億美元,OpenAI與英偉達、台積電為敵

每萬片晶圓産能,晶圓廠總投資額劃分,機關:美元

建完GPU邏輯晶片廠之後,還要考慮生産HBM的DRAM廠的建設。

我們以最先進的1gamma制程為例,盡管DRAM的EUV光刻層有所減少,但每萬片晶圓需要的裝置數量卻不降反增,尤其是刻蝕裝置,整體估算下來,1gamma制程的DRAM廠投資額大概在邏輯晶片晶圓廠的總投資額的85%,即60億美元左右。

補充說一下,DUV時代,DRAM廠的投資額大概為同級别的邏輯晶圓廠110%-120%,直到7nm節點,邏輯廠開始大量使用EUV光刻機,每萬片晶圓産能的投資額開始反超DRAM廠。

解決前段的GPU邏輯晶片和DRAM存儲晶片之後,還要解決後段的封裝問題,包括CoWoS先進封裝、HBM封裝兩部分。

目前,最先進的AI晶片采用的事SoIC+CoWoS封裝技術,HBM4将會采用混合鍵合(Hybrid Bonding),每萬片晶圓的投資額将大幅提高至10億美元(含裝置廠房)。另外,先進封裝涉及到的中介層,也還需利用DUV建構配套的65/45nm的前段晶圓廠,投資額為每萬片晶圓8億美元。也就是說,封裝部分,每萬片晶圓的整體投資額預計在18億美元左右。

“燒光”70000億美元,OpenAI與英偉達、台積電為敵

每萬片晶圓産能,不同晶圓廠機關投資額,機關:美元

這個花錢的活涉及到的資料比較多,幫大家做一個小總結,每萬片晶圓産能,或者說機關投資額,對應2nm制程的邏輯晶圓廠、1gamma制程的DRAM廠、封裝廠(先進封裝+中介層,10億美元+8億美元)方面的投資合計在150億美元左右。

“燒光”70000億美元,OpenAI與英偉達、台積電為敵

年産600萬顆GPU,硬體成本500億美元

但是,GPU邏輯晶片、HBM記憶體以及中介層,對應的比例不是1:1:1的關系,所有總投資額還要在機關投資額的基礎上,按照系數增加,這個系數大緻可以從一顆GPU,所需要的CPU、HBM記憶體、中介層的數量來推算。

以英偉達最新的Blackwell架構GPUB200的Die size(814mm²)為例,每片晶圓可以切80顆晶片,按照台積電最好的工藝,良率大緻在65%左右,即每片晶圓可以切50顆Good Die。

附帶說一下,由于GPU邏輯晶片是大晶片,為了提高光刻的曝光清晰面積,物鏡成像的景深就需要控制在相對較大水準,這會導緻分辨率降低,是缺陷變多,良率下降的重要原因。

英偉達的B200搭配了Grace CPU,2顆GPU搭配1顆Grace CPU,那麼50顆GPU,需要搭配25顆CPU。按照3nm制程計算,以CPU的Die Size和良率預估,一片晶圓可以切300顆左右的CPU晶片,這意味着一片GPU晶圓,需要搭配0.08片CPU晶圓。

目前3nm節點,每萬片晶圓的投資是2nm節點的70%,大緻50億美元,也就是說投入71億美元生産10000片GPU晶圓的同時,還要對應投資71億美元×70%×0.08,即4億美元,用于CPU晶圓的生産。

AI晶片的另一個重頭戲即HBM,英偉達的H100、H200标配6顆,到Blackwell架構的B200,則采用了8顆HBM3e記憶體。按照台積電最新的路線圖,2026年,一顆GPU可以搭配12顆HBM記憶體,屆時HBM的規格還将從12層堆疊的HBM3e,更新至16層堆疊的HBM4/4e。

如前文所述,2nm晶圓可以切出50顆GPU邏輯晶片,按照B200的标準,每片晶圓需要搭配400顆HBM3e記憶體。目前,1gamma制程的DRAM晶片,每片晶圓大概可以出1200顆DRAM顆粒,而按照85%的良率計算,最終可以得到1000顆DRAM顆粒,之後要将這些DRAM顆粒封裝成12層堆疊的HBM3e記憶體。目前,封裝的良率大概在80%左右,即一片DRAM晶圓可以出1000÷12*80%,約等于70顆左右12層堆疊的HBM3e記憶體。

也就是說,一片GPU晶圓,除了需要0.08片CPU晶圓,還需要5.7片DRAM晶圓。未來随着GPU邏輯晶片搭配HBM顆粒數進一步增加,尤其是堆疊數量從12層提升到16層,GPU:DRAM晶圓1:5.7的比例,還會進一步擴大。

按現有先進封裝的中介層尺寸,一片晶圓可以完成15顆GPU邏輯晶片的封裝,對應一片GPU邏輯晶片的晶圓,需要3.3片晶圓的先進封裝。

“燒光”70000億美元,OpenAI與英偉達、台積電為敵

每萬片晶圓産能,不同晶圓廠的建廠投資總額,機關:美元

一句話總結:每10000片GPU晶圓,需要800片CPU晶圓,5.7萬片DRAM晶圓,3.3萬片中介層晶圓,3.3萬片SoIC+CoWoS先進封裝,5.7萬片HBM封裝,對應的投資額,即1*71+0.08*50+5.7*60+3.3*10+3.3*8+5.7*10≈476億美元。

每10000片GPU晶圓所有配套晶片的生産工廠需要耗費476億美元,加上其他雜七雜八費用直接算整數為500億美元,換算成GPU晶片數量,為每月50萬顆,一年600萬顆。

“燒光”70000億美元,OpenAI與英偉達、台積電為敵

8年半可以燒完7萬億美元

投資500億美元,一年生産600萬顆GPU,這是個什麼概念?可以根據台積電CoWoS産能,來推算全世界的AI GPU的量,然後再進行對比。

2024年,台積電CoWoS總共31萬片的産能,其中95%都是給AI GPU,隻有一萬多片是給Xilinx的FPGA,剩下的近30萬片被英偉達、AMD以及全球網際網路大廠諸如Google,AWS,Meta,Mircosoft的自研ASIC晶片瓜分。

也就是說,台積電CoWoS産能代表全世界AI晶片産能,2024年80%的GPU還是隻使用2.5D CoWoS,英偉達的H100大約是每片29顆,其他自研ASIC則都高于這個标準,有的還超過40顆,目前隻有AMD的MI300使用SoIC封裝,每片約為15顆。

綜合下來,今年台積電30萬片CoWoS産能,對應大約是1000萬顆GPU,這也就是2024年全球AI GPU的大緻總量。前面提到,投入500億美元,每年可生産600萬顆GPU,也就是說,在2024年,想要生産滿足全世界需求的1000萬顆AI GPU,總投入需要830億美元。這個水準相當于台積電2-3年的資本支出,也大概是台積電Fab20A,一座月産12萬片的2nm晶片工廠的總投資額。

投入830億美元,就能生産出2024年全世界所需要的AI晶片,想要把奧特曼的7萬億美元花完,還有很多工作要做,畢竟830億美元也僅僅是建設晶片工廠的費用。

晶片廠、DRAM廠、封裝廠都蓋完之後,就要考慮生産伺服器的工廠建設,還得蓋許多座類似工業富聯的這樣的工廠,不過這類伺服器組裝工廠與晶片工廠相比來說,隻是小巫見大巫,把AI伺服器所有産業鍊上的工廠全部建設起來,包含伺服器,光子產品,液冷,銅線材,各式各樣的模具廠,年産1000萬顆GPU,按單個伺服器8顆GPU算,即120萬台伺服器,所有下遊工廠的總投資額大緻為170億美元。加上上遊晶片工廠的830億美元,1000億美元則是2024年全球所有AI 晶片+伺服器出貨量所需的工廠建設總成本。

上下遊工廠建設隻是開端,工藝還需要持續的研發投入,包括設計、制造相關的研發費用,覆寫GPU、CPU、HBM、先進封裝等等環節,這部分可以打包算一下英偉達、AMD、台積電、SK海力士的研發總額,大緻300億美元。再加上伺服器硬體研發、比如光子產品、也冷等等,研發部分的費用滿打滿算可以達到500億美元。

而對于OpenAI,在推進AGI的路上,也需要持續的進行模型研發投入,每年在這上面的費用至少200億美元。

晶片部分的研發+AI部分的研發,每年的總投入至少在700億美元,如果要更快入的推進,加大研發投入是必然,所有推進AGI終極目标的研發投入,每年估算需加大投入到1000億美元。

以上的研發費用還不包括訓練費用,且訓練需要大量的水電資源消耗,這部分基礎設施同樣需要自建。

歐美地區目前建設1KW核電機組的成本大約4000美元,每百萬千瓦的核電機組一年發電量約為8.6億度電,根據IEA(國際能源協會)計算,2027年全球人工智能将耗費1340億度電,是以要建設155組百萬千瓦的核能機組,這需要6000億美元左右。

根據加州大學河濱分校的研究,2027年人工智能将耗費66億立方米的清潔淡水,大約是全英國一半的用水量,主要場景來自于伺服器的冷卻,發電以及晶片制造這三大耗水環節,建設相應的水處理廠費用大約為1000億美元。

相比前面的投資,制造環節的人力成本規模相對較小,重頭戲主要在晶片的設計,包括模型研發部分。

前段晶圓廠把人力配置拉滿 , 每萬片約需要1000人,後段約1500人,2000萬顆GPU年産能的所有前段工廠(含DRAM,中介層等)大約需要2萬人,人均年芯為15萬美元,後段封裝需要3萬人,人均年薪約為7萬美元,加上5000名各類晶片制造研發人員,人均20萬美元,每年晶片制造的人員薪資費用總共60億美元。

晶片設計以及大語言模型的人力成本方面,按照英偉達+OpenAI+微軟伺服器部門的1.5倍計算,約為5萬人,人均年薪30萬美元,共150億美元涉及伺服器所有硬體制造的工廠人數為15萬人,電力以及用水保障設施人員15萬人,共30萬人,人均年薪8萬美元,總共為240億美元。

以上所有環節,人力薪資成本為每年60億+150億+240億共450億美元。

物料成本方面,GPU及相關晶片,再加上所有伺服器硬體的成本為2000美元/顆,年2000萬顆,即400億美元。伺服器的營運費用方面,人工420億美元+物料成本400億美元+其他雜費180億美元,取整數1000億美元。

“燒光”70000億美元,OpenAI與英偉達、台積電為敵

OpenAI年産2000萬顆GPU的投資額及各項費用推算,機關:美元

以上即奧特曼親自下場造芯涉及到的主要環節的費用的拆解,如果替奧特曼花這筆錢,理想的方案是:2000億美元建設年産2000萬顆GPU(2024年全球約1000萬顆)以及涉及所有伺服器硬體的制造工廠,然後為了推進AGI的終極目标每年投入1000億美元的研發投入,相關設計、研發、制造總人力成本1000億美元,投資7000億建設能源以及用水的基礎設施,同時編列2000億美元現金應付稅費以及各種雜費或者沒有計算到的費用,最後保留4000億美元作為可能漏算的預備金,如此一來,大約需要1.7萬億美元,就可以覆寫2000萬顆AI GPU所有制造工廠的啟動資金。

營運資金方面,要保持每年1000億美元的晶片以及硬體新産能投入,并持續推進摩爾定律,提升半導體密度。每年新增2000億美元的新電力及新用水投入,再加上人工以及物料等每年約1000億美元,這樣的話,每年的極限是新增7000億美元的營運費用。

如此一來,不到2萬億美元即可覆寫2024年全球AI晶片需求量兩倍的所有相關制造,能源基礎設施和營運費用,每年新增控制在7000億美元的水準,這筆預算大緻可以再燒7.5年。

怒砸2萬億美元,擁有全世界AI GPU兩倍産能 ,奧特曼也無法壟斷全球人工智能——OpenAI的模型領先全球,建立在以台積電為代表的全球最先進的晶片制造,以及以英偉達為代表的GPU晶片設計的基礎之上,如果奧特曼另起爐竈,全方位生産AI晶片,幾乎是得罪了目前全球的晶片企業。

作為“舊勢力”,台積電、英偉達以及衆多晶片設計公司,有可能會扶持OpenAI的所有競争對手,包括矽谷乃至于全球的大大小小做大模型以及AI應用的企業,諸如老對手DeepMind加上谷歌,AWS,Mircosoft等巨頭,以及Stability、OpenAI前創始人成立的Anthropic等創企。

即便OpenAI的晶片設計與制造能力與台積電、英偉達相當,面對全球所有大小模型與算法的一衆企業,本身就不一定有絕對優勢,更何況帶着7萬億下場造晶片,站在英偉達、台積電的對立面。

客觀地說,如果不考慮生态,GPU設計公司倒不是那麼無可替代。在GPU設計上,沒有英偉達還有AMD,甚至還有Cerebras這類設計整片晶圓面積遠遠超過傳統GPU的AI晶片設計公司,但在晶片制造上,目前台積電呈現一騎絕塵的态勢。

以2024年為例,台積電可生産每平方毫米高達2.84億半導體密度的N3P工藝,排名第二的英特爾還隻能生産每平方毫米1.8億半導體的Intel 4,第一跟第二之間已經出現了代差,如果在最高性能的晶片上不使用台積電工藝,在基礎上就落後競争對手一個世代。

晶片制造無法用錢堆砌,更需要技術積累的行業,往死裡砸錢砸人,最快也要三年才能建設好晶片工廠并生産出晶片,對OpenAI來說,假設“7萬億”真實存在,面對“舊勢力”的反撲,也至少要撐過這三年。

檢視原圖 58K

  • “燒光”70000億美元,OpenAI與英偉達、台積電為敵
  • “燒光”70000億美元,OpenAI與英偉達、台積電為敵
  • “燒光”70000億美元,OpenAI與英偉達、台積電為敵
  • “燒光”70000億美元,OpenAI與英偉達、台積電為敵
  • “燒光”70000億美元,OpenAI與英偉達、台積電為敵
  • “燒光”70000億美元,OpenAI與英偉達、台積電為敵
  • “燒光”70000億美元,OpenAI與英偉達、台積電為敵
  • “燒光”70000億美元,OpenAI與英偉達、台積電為敵
  • “燒光”70000億美元,OpenAI與英偉達、台積電為敵

繼續閱讀