NVIDIA Hopper平臺(tái)H100于今年第一季短缺情形逐漸紓解,屬同平臺(tái)的新品H200于第二季后逐漸放量,第三季新平臺(tái)Blackwell將進(jìn)入市場(chǎng),第四季擴(kuò)展到數(shù)據(jù)中心客戶。但今年應(yīng)仍以Hopper平臺(tái)為主,包含H100、H200等產(chǎn)品線;根據(jù)供應(yīng)鏈導(dǎo)入Blackwell平臺(tái)進(jìn)度,預(yù)計(jì)今年第四季才會(huì)開(kāi)始放量,占整體高階GPU比例將低于10%。
TrendForce集邦咨詢(xún)表示,屬Blackwell平臺(tái)的B100等,其裸晶尺寸(die size)是既有H100翻倍,估計(jì)臺(tái)積電(TSMC)2024年CoWos總產(chǎn)能年增來(lái)到150%,隨著2025年成為主流后,CoWos產(chǎn)能年增率將達(dá)7成,其中NVIDIA需求占比近半。HBM方面,隨著NVIDIA GPU平臺(tái)推進(jìn),H100主搭載80GB的HBM3,至2025年的B200將達(dá)搭載288GB的HBM3e,單顆搭載容量將近3~4倍成長(zhǎng)。而據(jù)三大原廠目前擴(kuò)展規(guī)劃,2025年HBM生產(chǎn)量預(yù)期也將翻倍。
Microsoft、Meta、AWS將首波采用GB200
據(jù)TrendForce集邦咨詢(xún)研究,以云端服務(wù)業(yè)者(CSP)導(dǎo)入現(xiàn)況來(lái)看,以Microsoft、Meta、AWS較為積極,預(yù)期2025年GB200方案合計(jì)出貨量有機(jī)會(huì)達(dá)逾30,000柜,Google則可能傾向優(yōu)先擴(kuò)大自家TPU AI基礎(chǔ)設(shè)施。Blackwell平臺(tái)之所以備受市場(chǎng)期待,主要是有別于HGX或MGX單臺(tái)AI服務(wù)器,改推整柜式型態(tài),整合自家CPU、GPU、NVLink及InfiniBand等高速網(wǎng)通技術(shù)。其中,GB200又分為NVL36及NVL72,每柜分別搭載達(dá)36及72顆GPU,而NVL72將為NVIDIA主推組態(tài),但因其設(shè)計(jì)較為復(fù)雜,估計(jì)2024年底將以NVL36先導(dǎo)入前期試練,以求快速進(jìn)入市場(chǎng)(Time to Market)。
2024年AI服務(wù)器需求持續(xù)擴(kuò)大
據(jù)NVIDIA FY1Q25資料來(lái)看,企業(yè)客戶、Tier-2數(shù)據(jù)中心客群需求明顯提升。TrendForce集邦咨詢(xún)表示,受限于2023年CoWoS及HBM供應(yīng)不及,如NVIDIA優(yōu)先將其高階GPU提供給大型云端服務(wù)業(yè)者(Hyper CSP),以全球高階AI server整體市場(chǎng)來(lái)看,2023年CSP合計(jì)對(duì)AI服務(wù)器的需求量占比約65%。
自2024年上半年隨GPU供貨短缺獲緩解后,今年來(lái)自服務(wù)器品牌商如Dell、HPE的需求占比將擴(kuò)大至19%;其他包含各地區(qū)Tier-2數(shù)據(jù)中心如CoreWeave、Tesla等,或各國(guó)超算中心項(xiàng)目等,合計(jì)需求占比將提高至31%,主因AI訓(xùn)練或應(yīng)用過(guò)程中,可能涉及數(shù)據(jù)隱私安全等議題,預(yù)期未來(lái)此塊市場(chǎng)也將扮演驅(qū)動(dòng)AI服務(wù)器出貨成長(zhǎng)的關(guān)鍵。