美光正式送樣業界最高容量 SOCAMM2 模組,滿足 AI 資 料中心對低功耗資 DRAM 的需求

關鍵字 :MicronSOCAMM2LPDDR5X

192GB SOCAMM2 搭載  LPDDR5X,進一步鞏固美光在 AI 基礎架構節能解決方案領域的領導地位

 

2025 年 10 月 23 日,愛達荷州博伊西 — 在 AI 創新與發展持續加速的時空背景下,資料中心生態系統正加速朝更節能的基礎架構轉型,以實現及驅動永續成長。隨著記憶體在 AI 生態系統中佔據日益關鍵的地位,低功耗的記憶體解決方案已然成為這項轉型的核心。美光科技今日宣布其 192GB SOCAMM2 (small outline compression attached memory modules,小型壓縮附加記憶體模組),以積極拓展低功耗記憶體在 AI 資料中心內的應用版圖。SOCAMM2 進一步強化光科技已發表的首款 LPDRAM SOCAMM 記憶體模組設計之功能,在相同的規格尺寸中提供高出 50% 的容量。因為容量擴增,此模組能將即時推論工作負載中首個token生成的時間(TTFT)大幅縮減逾 80%。這款 192GB SOCAMM2 搭載美光最先進的 1γ (1-gamma) DRAM 製程技術,使能源效率提升 20% 以上,進一步實現大型資料中心叢集的電源設計最佳化。在全機櫃式 AI 部署環境中,由於可配置超過 50 TB 的 CPU 直連低功耗 DRAM 主記憶體,因此,此節能優勢將會格外顯著。SOCAMM2 的模組化設計提高了維修便利性,並為未來的容量擴展奠定基礎。

 

SOCAMM2 將 LPDDR5X 極低功耗和高頻寬的既有優勢帶入 AI 系統的主記憶體,不僅提供 AI 工作負載所需的高資料傳輸量,同時實現全新層次的能源效率,為 AI 訓練與推論系統樹立新標竿。

這些優勢的結合將使 SOCAMM2 成為未來幾年尖端 AI 平台的關鍵記憶體解決方案。

 

美光表示:「隨著AI工作負載日益複雜且需求更嚴苛,資料中心伺服器必須提高效率,在每瓦功耗下產出更多tokens。憑藉在低功耗 DRAM 領域公認的領導地位,美光能確保 SOCAMM2 模組具備卓越的資料傳輸量、能源效率、大容量,同時保有資料中心所需的頂尖品質。對於驅動次世代 AI 資料中心伺服器來說,這些優勢至關重要。」

 

相較於同等級的 RDIMM,SOCAMM2 的能源效率提升逾三分之二;同時將高效能濃縮於體積僅三分之一的模組中,有效提升資料中心的空間利用率,並最大化容量與頻寬。SOCAMM 採用模組化設計與創新堆疊技術,提高系統維修便利性,有助於液冷伺服器的設計。

 

美光積極參與 JEDEC SOCAMM2 規範制定,並與業界夥伴密切合作,推動相關標準以加速低功耗技術在 AI 資料中心的應用,從而提升整體產業的能源效率。

SOCAMM2 單一模組容量高達 192GB,傳輸速度達 9.6 Gbps。後續量產作業將配合客戶的產品推出時程規劃。

 

參考來源美光官網:

https://investors.micron.com/news-releases/news-release-details/meiguangzhengshisongyangyejiezuigaorongliang-socamm2-mozumanzu

 

參考來源

https://tw.micron.com/

★博文內容參考自 網站,與平台無關,如有違法或侵權,請與網站管理員聯繫。

★博文作者未開放評論功能

參考來源

Micron: https://tw.micron.com/