|
日前,英偉達 CEO 黃仁勳在計算機圖形學頂會 SIGGRAPH 2023 上發布了專爲生成式 AI 打造的下壹代 GH200 Grace Hopper 平台,並推出了 OVX 服務器、AI Workbench 等壹系列重磅更新。
「這就是世界數據中心迅速轉向加速計算的原因,」在今年的 SIGGRAPH 大會,黃仁勳重申:「The more you buy, the more you save.」
英偉達的 Grace Hopper 超級芯片 NVIDIA GH200 結合了 72 核 Grace CPU 和 Hopper GPU,並已在 5 月全面投入生産。
現在,黃任勳又宣布 Grace Hopper 超級芯片將配備 HBM3e 高帶寬內存(HBM3e 比當前的 HBM3 快 50%),下壹代 GH200 Grace Hopper 平台將大幅提升生成式 AI 的計算速度。
全新的 GH200 內存容量將增加至原有的 3.5 倍,帶寬增加至 3 倍,包含壹台具有 144 個 Arm Neoverse 核心、282GB HBM3e 內存的服務器,提供 8 petaflops 的 AI 算力。
爲了提升大模型的實際應用效率,生成式 AI 模型的工作負載通常涵蓋大型語言模型、推薦系統和向量數據庫。GH200 平台旨在全面處理這些工作負載,並提供多種配置。
英偉達表示,這款名爲 GH200 的超級芯片將于 2024 年第二季度投産。
|
|