美超微推出機櫃級隨插即用液冷AI SuperCluster 支援NVIDIA Blackwell和NVIDIA HGX H100H200
記者 / 孟圓琦
日前在台北國際電腦展(COMPUTEX 2024)上,知名 IT 解決方案製造商美超微 (Supermicro) 即展示針對 NVIDIA Blackwell GPU 最佳化的系統。包括基於NVIDIA HGX B200的10U氣冷系統和4U液冷系統,以及基於NVIDIA HGX B200的10U氣冷系統和 4U液冷系統,驚豔全場。
延伸閱讀:美超微CEO梁見後Computex 2024推動DLC直接液冷 黃仁勳驚喜登台助陣
此外,Supermicro也將提供8U氣冷型NVIDIA HGX B100系統、NVIDIA GB200 NVL72機櫃(具有72個透過NVIDIA NVLink 交換器互連的GPU)與新型 NVIDIA MGX™系統(支援NVIDIA H200 NVL PCIe GPU與最新發表的NVIDIA GB200 NVL2架構)。
專為雲端原生解決方案設計而生的資料中心,透過SuperCluster加速各界企業對生成式AI的運用,並針對NVIDIA AI Enterprise軟體平台最佳化,適用於生成式AI的開發與部署。結合Supermicro的4U液冷技術,NVIDIA近期推出的Blackwell GPU能在單一 GPU 上充分發揮20 PetaFLOPS的AI效能,且與較早的 GPU 相比,能提供4倍的AI訓練效能與30倍的推論效能,並節省額外成本。
Supermicro總裁暨執行長梁見後也點出,資料中心的液冷配置設計可幾近免費,並透過能持續降低用電量的優勢為客戶提供額外價值。「我們的解決方案針對NVIDIA AI Enterprise軟體最佳化,並提供世界規模級效率的全球製造產能。因此我們得以縮短交付時間,更快提供搭配NVIDIA HGX H100和H200,以及即將推出的B100、B200和GB200解決方案的可立即使用型液冷或氣冷運算叢集。從液冷板到CDU乃至冷卻塔,我們的機櫃級全方位液冷解決方案最大可以降低資料中心40%的持續用電量。」
Supermicro雲端原生 AI SuperCluster 使即時存取的雲端便利性和可攜性之間得以連結,並透過 NVIDIA AI Enterprise 讓任何規模的 AI 專案,從評估測試階段順暢地進行到實際作業階段。這提供了能在任何地方運行並安全管理資料的靈活性,包括自架系統或地端大型資料中心。
託管服務涉及基礎架構的選擇、資料共享和生成式AI策略控管。NVIDIA NIM微服務作為 NVIDIA AI Enterprise的一部分,可在無缺陷情況下提供託管生成式AI和開源部署優勢。其多功能推論運行環境透過微服務,可加速從開源模型到NVIDIA基礎模型等各類型生成式AI的部署。此外,NVIDIA NeMoTM可實現透過資料應用、進階自訂和檢索增強生成(Retrieval-Augmented Generation,RAG)的客製模型開發,以實現企業級解決方案。與搭配NVIDIA AI Enterprise的Supermicro SuperCluster整合後,NVIDIA NIM能為可擴展、加速型生成式AI作業的部署提供最快途徑。
瀏覽 642 次