人工智能/機器學習、高性能計算、數據中心等應用市場興起,催生高帶寬內存HBM(High Bandwidth Memory)并推動著其向前走更新迭代。如今,HBM來到第四代,盡管固態(tài)存儲協(xié)會(JEDEC)尚未發(fā)布推出HBM3的相關規(guī)范,產業(yè)鏈各廠商已早早布局。
1、內存/IP廠商布局HBM3
10月20日,SK海力士宣布業(yè)界首次成功開發(fā)現有最佳規(guī)格的HBM3 DRAM。這是SK海力士去年7月開始批量生產HBM2E DRAM后,時隔僅1年零3個月開發(fā)了HBM3。
據了解,SK海力士研發(fā)的HBM3可每秒處理819GB的數據,相當于可在一秒內傳輸163部全高清(Full-HD)電影(每部5GB),與上一代HBM2E相比,速度提高了約78%;內置ECC校檢(On Die-Error Correction Code),可自身修復DRAM單元的數據的錯誤,產品可靠性大幅提高。
圖片來源:SK海力士官網
SK海力士HBM3將以16GB和24GB兩種容量上市。據悉,24GB是目前業(yè)界最大的容量,為了實現24GB,SK海力士技術團隊將單品DRAM芯片的高度磨削到約30微米(μm, 10-6m),相當于A4紙厚度的1/3,然后使用TSV技術(Through Silicon Via,硅通孔技術)垂直連接12個芯片。
隨著SK海力士成功開發(fā)HBM3,HBM開始挺進3.0時代,IP廠商亦已先行布局HBM3。
10月7日,Synopsys宣布推出業(yè)界首個完整的HBM3 IP解決方案,包括用于2.5D多芯片封裝系統(tǒng)的控制器、PHY和驗證IP。據了解,Synopsys的DesignWare HBM3控制器與PHY IP基于經芯片驗證過的HBM2E IP打造,而HBM3 PHY IP基于5nm制程打造,每個引腳的速率可達7200 Mbps,內存帶寬最高可提升至921GB/s。
值得一提的是,在Synopsys的新聞稿中,SK海力士、三星電子、美光等內存廠商均表示將致力于開發(fā)HBM3內存。
除了Synopsys,今年8月美國內存IP核供應商Rambus宣布推出其支持HBM3的內存接口子系統(tǒng),內含完全集成的PHY和數字控制器,數據傳輸速率達8.4 Gbps,可提供超過1TB/s的帶寬,是HBM2E內存子系統(tǒng)的兩倍以上。Rambus預計,其HBM3內存將于2022年末或2023年初流片,實際應用于數據中心、AI、HPC等領域。
圖片來源:Rambus
而更早些時候,中國臺灣地區(qū)的創(chuàng)意電子于6月發(fā)布基于臺積電CoWoS技術的AI/HPC/網絡平臺,搭載7.2Gbps HBM3控制器。
2、三星電子另辟蹊徑?
三星電子雖然目前尚未發(fā)布HBM3,但從披露的信息來看,其在HBM方面亦正持續(xù)發(fā)力。
今年2月,三星電子發(fā)布其集成AI處理器新一代芯片HBM-PIM(processing-in-memory),可提供最高達1.2 TFLOPS的嵌入式計算能力,從而使內存芯片本身能夠執(zhí)行通常由CPU、GPU、ASIC或FPGA處理的工作。在這款HBM-PIM芯片中,三星電子利用PIM技術,將AI處理器搭載于HBM2 Aquabolt中,可提升兩倍性能,同時將功耗降低70%以上。
據介紹,HBM-PIM芯片將AI引擎引入每個存儲庫,從而將處理操作轉移到HBM本身。這種新型內存的設計是為了減輕內存與一般處理器之間轉移數據的負擔,因為實際應用中,這種負擔無論在功耗還是時間上,往往比真正的計算操作消耗更大。三星還表示,使用這種新內存不需要任何軟件或硬件變化(包括內存控制器),從而可以被市場更快地采用。
圖片來源:三星電子
對于HBM而言,三星電子的HBM-PIM提供了另一種方式,不過按照三星電子在Synopsys的新聞稿中所表達的態(tài)度,三星電子也將繼續(xù)推進開發(fā)HBM3。
此外,三星電子5月宣布開發(fā)出能將邏輯芯片(Logic Chip)和4顆HBM封裝在一起的新一代2.5D封裝技術“I-Cube4”,該技術可用于高性能計算(HPC)、AI、5G、云、數據中心等各種領域。據悉,三星目前也正在開發(fā)更先進、更復雜的I-Cube6,可同時封裝6顆HBM以及更復雜的2.5D/3D混合封裝技術。
3、從GPU到CPU全面擁抱?
在內存/IP廠商在HBM領域的升級競賽持續(xù)進行的同時,HBM正在得到更多應用,主要廠商包括如AMD、英偉達、英特爾等。
AMD和英偉達兩大顯卡廠商曾多次在其產品上采用HBM。據了解,AMD當初攜手SK海力士研發(fā)HBM,并在其Fury顯卡采用全球首款HBM;2017年AMD旗下Vega顯卡使用HBM 2;2019年AMD Radeon VII顯卡搭載的亦為HBM2。
英偉達方面,其2016年發(fā)布的首個采用帕斯卡架構的顯卡Tesla P100就搭載了HBM2,包括后面的Tesla V100也采用了HBM2;2017年初,英偉達發(fā)布的Quadro系列專業(yè)卡中的旗艦GP100亦采用了HBM2;2020年5月,英偉達推出的Tesla A100計算卡也搭載了容量40GB HBM2;今年6月,英偉達升級了A100 PCIe GPU加速器,配備80GB HBM2e顯存。
而英特爾更是將在其兩款新品中用到HBM。
今年8月,英特爾在其架構日上介紹基于Xe HPC微架構的全新數據中心GPU架構Ponte Vecchio。Ponte Vecchio芯片由幾個以單元顯示的復雜設計構成,包括計算單元、Rambo單元、Xe鏈路單元以及包含高速HBM內存的基礎單元?;A單元是所有復雜的I/O和高帶寬組件與SoC基礎設施——PCIe Gen5、HBM2e內存、連接不同單元MDFI鏈路和EMIB橋接。
英特爾也將HBM用在其下一代服務器CPU Sapphire Rapids上。據英特爾介紹,在內存方面,Sapphire Rapids除了支持DDR5和英特爾@傲騰™內存技術,還提供了一個產品版本,該版本在封裝中集成了HBM技術,可在HPC、AI、機器學習和內存數據分析工作負載中普遍存在的密集并行計算中實現高性能。
近期外媒消息稱,一名工程師曝光了英特爾Sapphire Rapids的照片,曝光的照片顯示,Sapphire Rapids封裝了四顆CCD核心,每顆核心旁均配備兩片長方形的HBM內存芯片。爆料者表示這可能是HBM2E,每顆處理器核心將具備兩條1024位內存總線。
值得一提的是,今年7月外媒消息稱,AMD正在研發(fā)代號為Genoa的下一代EPYC霄龍服務器處理器,采用Zen 4架構。這一處理器將首次配備HBM內存,目的是與英特爾下一代服務器CPU Sapphire Rapids競爭。
若消息屬實,那英特爾和AMD均將在CPU上采用HBM,這也意味著HBM的應用不再局限于顯卡,其在服務器領域的應用將有望更加廣泛。
4、未來仍有很長的路要走
HBM主要是通過TSV技術進行芯片堆疊,以增加吞吐量并克服單一封裝內帶寬的限制,將數個DRAM裸片像摩天大廈中的樓層一樣垂直堆疊,裸片之間用TVS技術連接。
憑借TSV方式,HBM大幅提高了容量和數據傳輸速率,與傳統(tǒng)內存技術相比,HBM具有更高帶寬、更多I/O數量、更低功耗、更小尺寸,可應用于高性能計算(HPC)、超級計算機、大型數據中心、人工智能/深度學習、云計算等領域。
回顧HBM性能的歷史演進,第一代HBM數據傳輸速率大概可達1Gbps;2016年推出的第二代產品HBM2,最高數據傳輸速率可達2Gbps;2018年,第三代產品HBM2E的最高數據傳輸速率已經可達3.6Gbps。如今,SK海力士已研發(fā)出第四代產品HBM3,此后HBM3預計仍將持續(xù)發(fā)力,在數據傳輸速率上有更大的提升。
從性能來看,HBM無疑是非常出色的,其在數據傳輸的速率、帶寬以及密度上都有著巨大的優(yōu)勢。不過,目前HBM仍主要應用于數據中心等應用領域,主要在于服務器市場,其最大的限制條件在于成本,對成本比較敏感的應用領域如消費級市場而言,HBM的使用門檻仍較高。據了解,HBM所采用2.5封裝/3D堆疊技術是其成本偏高的重要原因。
盡管HBM已更迭到第四代,但正如Rambus IP核產品營銷高級總監(jiān)Frank Ferro此前在接受采訪時所言,HBM現在依舊處于相對早期的階段,其未來還有很長的一段路要走。而可預見的是,隨著越來越多的廠商在人工智能/機器學習等領域不斷發(fā)力,內存產品設計的復雜性正在快速上升,并對帶寬提出了更高的要求,不斷上升的寬帶需求將持續(xù)驅動HBM發(fā)展。
2021年,芯片產能緊缺席卷全球,半導體產業(yè)迎來結構性轉變,存儲行業(yè)亦面臨著巨大的機遇和挑戰(zhàn)。面對發(fā)展良機與各種不確定性因素,國內外存儲企業(yè)該如何把握機遇實現突圍?存儲技術演進又將迎來哪些新趨勢?