其中,英偉達新發(fā)布的H200芯片,堪稱“地表最強”AI芯片,性能相較前一代的H100提升約60%到90%。
時間再往前推移,在9月的2023英特爾On技術創(chuàng)新峰會上,英特爾首次公開了三代AI芯片路線圖,按照規(guī)劃,明年將推出采用5nm制程的Gaudi 3。
AMD的蘇媽則在6月重磅發(fā)布了最新AI芯片GPU MI300X,其更大的內存和帶寬直接叫板英偉達的H100。
半導體行業(yè)冷風直吹,AI賽道芯片巨頭卻打得火熱。隨著生成式人工智能成為最明確的前進方向,AI芯片市場早已成為芯片巨頭的必爭之地。
01、開搶
11月13日晚,英偉達在全球超算大會(SC2023)上推出新一代GPU,也是H100的升級版——NVIDIA HGX H200。
這個時間點,AMD最新一代AI芯片GPU MI300X正量產(chǎn)。原本MI300有望成為AMD銷售額最快破10億美元的產(chǎn)品。如今,H200的突然發(fā)布有可能打亂這一節(jié)奏。英偉達稱H200將在2024年第二季度開始交付,這意味著留給AMD搶占市場的時間并不多。股市上也給出了直接的反應:在H200發(fā)布會結束后,AMD收盤股價下跌1.52%。
在性能上,英偉達這次不卷頻率,而是卷起了內存。過往GPU升級,英偉達都主要在架構上下功夫,但此次H200依舊采用了Hopper架構。在同架構之下,H200的浮點運算速率基本上和H100相同。升級點主要在內存容量和帶寬上,H200擁有141GB的HBM3e內存,相較H100提升了80%;內存帶寬為4.8TB/s,提升了40%。
這升級幅度,可以說英偉達是在“擠牙膏”,但同時又不得不佩服老黃的“精準刀法”。要知道,AMD在6月對標H100發(fā)布的最新一代AI芯片GPU MI300X,其最大亮點就是更大的內存和內存帶寬。而H200此次的升級剛好就是在內存和內存帶寬上做文章。
MI300X擁有192GB的HBM3內存,是H100的2.4倍;內存帶寬為5.2TB/s,是H100的1.6倍。更大的內存容量,令MI300X在運行生成式人工智能上獨具優(yōu)勢,相較H100,MI300X可以直接在內存中運行更大的模型。此外,更大的內存帶寬,意味著MI300X能實現(xiàn)更快的數(shù)據(jù)傳輸。
誠如蘇媽反復強調那般,這確實是一款具有重要戰(zhàn)略意義的芯片。因為這幾乎是全球范圍內,第一款能夠直接對標英偉達H100的產(chǎn)品。雖然MI300X尚不能取代H100在大模型訓練芯片領域的霸主地位,但在H100產(chǎn)能緊張的情況下,搶收部分的算力市場,MI300X還是游刃有余的。
這個搶收的窗口期有多長呢?原本至少有6個月。根據(jù)英偉達的規(guī)劃,下一代升級框架的GPU芯片B100最早將于明年Q2發(fā)布。而MI300X定于今年第三季度開始向客戶提供樣品,第四季度進行批量生產(chǎn)。
如今,H200的突然發(fā)布有可能打亂MI300X的市場搶收節(jié)奏。畢竟,升級了內存和帶寬之后的H200,在大模型推理表現(xiàn)上提升極其明顯。H200在700億參數(shù)的Llama2大模型上的推理速度比H100快了一倍,且能耗降低一半,是當之無愧的“地表最強”AI芯片,截胡了AMD的MI300X。
這廂英偉達和AMD正打得火熱,那廂老牌芯片巨頭英特爾,也不想將如此龐大的市場“拱手于人”。根據(jù)Precedence Research數(shù)據(jù),2022年全球AI芯片市場規(guī)模為168.6億美元,2032年有望增長至2274.8億美元,年均復合增速約29.72%。
9月,在美國圣何塞舉辦的英特爾On技術創(chuàng)新大會上,英特爾首次亮出三代AI芯片路線圖。其CEO基辛格宣布采用5nm制程的AI 芯片Gaudi 3將于明年推出,其算力將會是前一代Gaudi 2的兩倍,網(wǎng)絡帶寬、HBM容量則會是Gaudi 2的1.5倍。
“我們正在獲得動力,市場開始意識到,AI 芯片行業(yè)領導者中還有另一個機會。”基辛格表示。言語間無不彰顯英特爾在AI芯片領域的雄心。
02、無法割舍的中國市場
作為“史上最強”AI芯片,H200很大程度與中國客戶無緣。11月14日,英偉達在郵件中向鈦媒體App確認:如果沒有獲得出口許可證,H200將無法在中國市場銷售。同樣據(jù)鈦媒體App報道,英偉達將推出三款針對中國市場的AI芯片,以應對美國最新的芯片出口管制。
根據(jù)10月17日美國最新的芯片出口管制條款,只要芯片總算力大于或等于4800TOPS,或者芯片總算力低于4800 TOPS但性能密度達到一定閾值,都將受到管制。此前英偉達針對中國市場推出的A800和H800皆落在管制范圍之內。
不過,盡管新一輪芯片限制措施出現(xiàn),英偉達并沒有放棄中國AI芯片市場的打算。黃仁勛曾在多個不同場合強調過中國市場的重要性。
據(jù)TrendForce發(fā)布的數(shù)據(jù),2022年全球AI芯片市場規(guī)模為300億美元,其中,中國市場規(guī)模超過100億美元,是全球最大的AI芯片市場之一。
單從體量上來看,中國超過百億美元的巨大市場是芯片巨頭們不愿錯過的。更深一層的原因則是,芯片巨頭們擔心此刻一旦錯過了中國市場,可能就永遠錯過了中國市場。“如果(中國)不能從美國購買,他們就會自己制造。美國必須小心,中國是非常重要的技術產(chǎn)業(yè)市場?!秉S仁勛曾指出。
規(guī)格文件中顯示,英偉達即將向中國客戶推出三款新產(chǎn)品HGX H20、L20 PCle、L2 PCle。其中HGX H20就是“縮水版”的H100。再一次,老黃施展了他的“精準刀法”。
參數(shù)上,H20依舊擁有96GB的HBM3內存,但是計算密度被大幅削弱以符合出口新規(guī)。據(jù)悉,H20整體算力比英偉達H100 GPU芯片下降80%左右【1】。
不過,H20配置了4.0TB/s的內存帶寬,比H100還高,卡間、服務器間帶寬NVlink速度與H100持平,為900GB/s。老黃的算盤打得精巧,這意味著中國客戶可以通過多買幾張H20,堆疊起來以彌補單卡算力不足的問題。據(jù)粗略計算,2.5張H20約等效于一張A100【2】。
如果H20售價合理,算力堆疊再加上堅不可摧的CUDA生態(tài),對于國內云廠商們來說,H20依舊會是誘人的選擇項。對此,已有國內第三方云計算服務商表示,會考慮采購英偉達改良版AI芯片,待廠商提供芯片后,根據(jù)適配效果來考量。
據(jù)悉,英偉達針對中國市場推出的這三款新品最快將于11月16日公布,產(chǎn)品送樣時間在今年11月至12月,量產(chǎn)時間為今年12月至明年1月。
針對中國市場推出特供版的產(chǎn)品,早已成為芯片巨頭們在地緣政治和商業(yè)利益之間取得平衡的重要舉措。
今年7月11日,英特爾就針對中國市場推出了定制版的AI訓練處理器Gaudi2,可以在合規(guī)的同時,為中國用戶提供加速AI訓練及推理的新選擇。
今年8月,AMD在財報會議中透露,正考慮效仿英偉達的做法,調整其相關AI芯片的參數(shù)規(guī)格,以在“合規(guī)”的情況下向中國市場出貨?!拔覀兿嘈?,我們有機會為正在尋找人工智能解決方案的中國客戶開發(fā)產(chǎn)品,我們將繼續(xù)朝著這個方向努力?!碧K媽表示。
目前來看,10月17日發(fā)布的新出口管制規(guī)定,可能會打亂英特爾和AMD原先的計劃。但是,可以肯定的是,英特爾和AMD絕不甘心缺席中國的AI芯片市場。
03、寫在最后
再一次,英偉達刷新了“地表最強”AI芯片的參數(shù)。過去十年,英偉達將單個GPU的AI推理性能提高了1000倍,這一規(guī)律也被稱為“黃氏定律”。未來,為了匹配大語言模型的飛速發(fā)展,英偉達必定會致力于“黃氏定律”的延續(xù)。對于中國的AI芯片企業(yè)來說,如果不奮力追趕,與最先進技術的差距將可能被進一步拉大。
美國芯片新規(guī)出臺后,不少業(yè)內人士將此看做倒逼國內AI芯片企業(yè)發(fā)展的契機。但同時需要正視的是,在中國市場,國內企業(yè)依舊會面臨海外巨頭激烈的正面競爭。以英偉達的H20為例,即便性能大幅縮水,不過由于易用性,還是會成為眾多國內云服務商的重要選擇甚至首選。因此,接下來國內AI芯片企業(yè),仍將面臨一場市場惡戰(zhàn)。
對國內云服務器廠商而言,短期來看,特供版產(chǎn)品可以解一時之渴;長期來看,特供版產(chǎn)品令產(chǎn)業(yè)發(fā)展始終受制于人。
發(fā)展自主可控的AI芯片產(chǎn)業(yè)鏈才能在未來掌握主動權。除了提供政策和資金支持之外,促進AI產(chǎn)業(yè)上下游建立培養(yǎng)國產(chǎn)AI芯的共識,也相當重要。
參考資料:
【1】英偉達阻擊國產(chǎn)AI芯片,“中國特供版”已成“縮水版”,
【2】最強AI芯片H200?黃仁勛又在擠牙膏了