T客邦 February 27, 2024
相比於前一代的HBM2E,HBM3E的頻寬提升了50%,達到每秒1.8TB,而功耗則降低了30%。Cc933bef2fab26b22d570f14d7c8edea

美國半導體大廠美光科技(Micron Technology)近日宣布,已開始量產其最新的高頻寬記憶體(HBM)半導體,這種記憶體將用於晶片大廠輝達(Nvidia)的下一代人工智慧(AI)晶片,提供更高的效能和能源效率。美光的這項動作,不僅讓其股價創下近兩年新高,也為AI市場帶來新的商機。

8層堆疊24GB HBM3E解決方案正式量產

美光科技是全球記憶體和儲存解決方案的領導廠商,其HBM產品是美光利潤最高的產品之一,也是技術最先進的產品之一。美光科技在2月27日宣布,其8層堆疊24GB HBM3E解決方案已正式量產,這是業界首款量產的HBM3E產品。

HBM3E是HBM的第三代產品,相比於前一代的HBM2E,HBM3E的頻寬提升了50%,達到每秒1.8TB,而功耗則降低了30%。美光表示,HBM3E的這些優勢,將有助於滿足生成式AI應用的需求,例如自然語言處理、電腦視覺、推薦系統等。

HBM3E解決方案未來將提供給輝達的H200 Tensor Core繪圖處理器(GPU)採用,這是輝達的最新AI晶片,預計將於2024年第二季開始發貨,並取代當前的H100晶片。輝達的H200 GPU將採用7奈米製程,擁有超過1000億個電晶體,並支持多達128個HBM3E記憶體。輝達表示,H200 GPU將是世界上最強大的AI晶片,可以提供超過10萬億次的運算能力。

美光科技的執行副總裁兼商務長薩達納(Sumit Sadana)在聲明中說,美光科技憑藉HBM3E這個里程碑,實現了三項成就,包括領先一步的上市時間、業內一流的性能,以及差異化的能效配置。他還說,AI任務高度仰賴記憶體頻寬和容量,而美光科技非常重視這一點,通過其領先業界的HBM3E和HBM4,以及應用於AI的DRAM和NAND解決方案,美光科技已做好準備。

美光科技的HBM3E量產的消息,也引起了市場的關注,美光科技的股價在2月26日上漲了4.02%,收報89.46美元,創下2022年3月2日以來的收盤新高。分析師認為,美光科技將迎來龐大的商機,因為AI應用將讓HBM晶片的需求不斷增加,而美光科技作為另一個市場供應來源,將有助於超微、英特爾、輝達等製造商擴大GPU產能。此外,美光科技還表示,將在3月18日至21日舉辦的輝達GTC 2024大會上,發表更多記憶體產品。

美光科技先前曾預估,2024財年HBM營收將達到數億美元,並在2025年繼續成長。HBM是美光科技的重點產品之一,也是其技術創新的展現。美光科技表示,將繼續投資於HBM的研發,並推出更高性能的HBM4產品,以滿足AI和高效能計算的未來需求。

美光HBM高寬頻記憶體的下一步

HBM3E 和 HBM4 都是高頻寬記憶體(HBM)的新一代產品,主要用於高性能計算(HPC)和人工智慧(AI)的應用。HBM3E 是 HBM3 的擴展版本,相比於 HBM2E,HBM3E 的頻寬提升了 50%,達到每秒 1.8TB,而功耗則降低了 30%。

美光未來預計在2026年推出 HBM4 將採用 12 奈米製程的 Logic die,並支持更高的堆疊層數,達到 16 層。HBM4 也將有更多的客製化選項,例如堆疊在 SoC 主晶片上,以提供更高的效能和效率。

 

 

 

加入T客邦Facebook粉絲團 固定链接 '美光宣佈開始量產HBM3E(高頻寬記憶體3E),將用於NVIDIA H200 AI晶片' 提交: February 27, 2024, 11:45pm CST