據(jù)NVIDIA最新財(cái)報(bào)數(shù)據(jù)(FY2Q24)顯示,其數(shù)據(jù)中心業(yè)務(wù)達(dá)103.2億美元,季成長(zhǎng)率141%,年成長(zhǎng)率更高達(dá)171%,且NVIDIA看好后續(xù)成長(zhǎng)力道。TrendForce集邦咨詢認(rèn)為,主要NVIDIA高營(yíng)收成長(zhǎng)動(dòng)力來(lái)自于其數(shù)據(jù)中心AI服務(wù)器相關(guān)解決方案業(yè)務(wù),主力產(chǎn)品包含AI加速芯片GPU、AI服務(wù)器參考架構(gòu)HGX等,作為大型數(shù)據(jù)中心的AI 基礎(chǔ)設(shè)施。
同時(shí),TrendForce集邦咨詢預(yù)期,NVIDIA將進(jìn)一步整合其軟硬件資源,并更細(xì)致地將其高端及中低端GPU AI加速芯片,與各ODM或OEM綁定合作軟硬件系統(tǒng)認(rèn)證模式。除了加速在CSP云端AI服務(wù)器基礎(chǔ)設(shè)施布建之外,也和VMware等合作Private AI Foundation等方案,將其觸角延伸至邊緣Enterprises AI服務(wù)器市場(chǎng),以支撐其今、明兩年數(shù)據(jù)中心業(yè)務(wù)穩(wěn)定成長(zhǎng)。
Cloud AI強(qiáng)勁需求驅(qū)動(dòng),NVIDIA數(shù)據(jù)中心業(yè)務(wù)占比超越76%
NVIDIA近年積極布局?jǐn)?shù)據(jù)中心業(yè)務(wù),F(xiàn)Y4Q22當(dāng)時(shí)數(shù)據(jù)中心業(yè)務(wù)營(yíng)收約占42.7%,尚落后于Gaming業(yè)務(wù)營(yíng)收約2個(gè)百分點(diǎn),于FY1Q23后正式超越Gaming業(yè)務(wù)營(yíng)收,占比逾45%。自2023年起,各大CSP大舉投入ChatBOT及公有云各種AI服務(wù)基礎(chǔ)設(shè)施后,NVIDIA更直接受惠,F(xiàn)Y2Q24數(shù)據(jù)中心業(yè)務(wù)營(yíng)收占比一舉突破76%。 NVIDIA將分攻Cloud及Edge Data Center AI應(yīng)用市場(chǎng) TrendForce集邦咨詢觀察,預(yù)估NVIDIA在高端GPU產(chǎn)品銷售策略上,將于2023下半年后有所轉(zhuǎn)變,原高端AI服務(wù)器以搭載A100及H100為主,在市場(chǎng)需求大好的預(yù)期下,將改主攻售價(jià)更高的H100,才能有效刺激數(shù)據(jù)中心相關(guān)業(yè)務(wù)營(yíng)收向上。
中端GPU方面,以近期主推的L40s為主打方案,其中有幾個(gè)主要策略意義。首先,高端H100系列受限于目前CoWoS、HBM等產(chǎn)能瓶頸,而L40s則主要搭配GDDR存儲(chǔ)器,因不須CoWoS封裝,可加速導(dǎo)入中端AI服務(wù)器市場(chǎng),補(bǔ)足原A100 PCIe接口對(duì)Enterprises客戶需求缺口。
其次,L40s也同時(shí)主攻如Enterprises客戶,不需使用如ChatGPT數(shù)量龐大的參數(shù)模型,而是主攻較小型化(約數(shù)十billion~百billion參數(shù)量以下)各專業(yè)領(lǐng)域的AI Training應(yīng)用,亦或針對(duì)邊緣AI Inference或影像分析等使用。最后,低階GPU系列,則以L4或T4系列為主打,主打邊緣AI服務(wù)器實(shí)時(shí)AI推論或影像分析使用,并更強(qiáng)調(diào)較低價(jià),其高C/P值的產(chǎn)品特性。
HGX及MGX等AI服務(wù)器參考架構(gòu)將是NVIDIA下半年后主攻AI方案的利器
TrendForce集邦咨詢觀察,近期NVIDIA除針對(duì)其核心AI芯片GPU進(jìn)行更細(xì)致化的產(chǎn)品定位外,也積極主推其HGX及MGX等方案,而這并不是服務(wù)器產(chǎn)業(yè)鏈首見(jiàn)做法,但NVIDIA有機(jī)會(huì)在此策略上穩(wěn)固領(lǐng)先利基。主要是NVIDIA藉由高度整合其GPU加上CUDA建立完整AI生態(tài)系下處絕對(duì)領(lǐng)先位置,故對(duì)既有的服務(wù)器供應(yīng)鏈有較強(qiáng)議價(jià)能力,藉此要求ODM如Inventec、Quanta、FII、Wistron、Wiwynn等,或品牌業(yè)者如Dell、Supermicro、Gigabyte等,依據(jù)NVIDIA的HGX或MGX參考設(shè)計(jì),且需經(jīng)過(guò)NVIDIA于該AI 服務(wù)器參考架構(gòu)的軟硬件認(rèn)證過(guò)程。NVIDIA藉此可整合兜售其Arm CPU Grace及NPU或AI Cloud Foundation等軟硬件解決方案。
值得注意的是,對(duì)ODM或OEM而言,由于預(yù)期NVIDIA于2023~2024年在云端服務(wù)業(yè)者的AI服務(wù)器主力市場(chǎng)將大有斬獲,有利于拉抬整體AI服務(wù)器出貨量及營(yíng)收成長(zhǎng),但隨著NVIDIA策略性導(dǎo)入HGX或MGX等標(biāo)準(zhǔn)化AI服務(wù)器架構(gòu),也使未來(lái)ODM等業(yè)者將因AI server核心產(chǎn)品架構(gòu)較趨于同質(zhì)化而使彼此爭(zhēng)取CSPs等訂單之競(jìng)爭(zhēng)態(tài)勢(shì)更趨于白熱化。此外,觀察大型CSPs如Google、AWS未來(lái)有擴(kuò)大導(dǎo)入自研ASIC AI加速芯片趨勢(shì),亦可能侵蝕部分NVIDIA GPU市場(chǎng),估此亦為NVIDIA持續(xù)推展不同定位GPU產(chǎn)品及整體方案,欲進(jìn)一步將AI業(yè)務(wù)積極拓展至Tier-2數(shù)據(jù)中心如CoreWeave等及邊緣Enterprises客戶的主因之一。