AMD 造出最大芯片 Instinct MI300 加速卡,包含 128GB HBM3 显存和 1460 亿晶体管

感谢网友 OC_Formula 的线索投递!

1 月 8 日消息,在 CES 2023 展会上,AMD 披露了面向下一代数据中心的 APU 加速卡产品 Instinct MI300。这颗芯片将 CPU、GPU 和内存全部封装为一体,从而大幅缩短了 DDR 内存行程和 CPU-GPU PCIe 行程,从而大幅提高了其性能和效率。

这款加速卡采用 Chiplet 设计,拥有 13 个小芯片,基于 3D 堆叠,包括 24 个 Zen4 CPU 内核,同时融合了 CDNA 3 和 8 个 HBM3 显存堆栈,集成了 5nm 和 6nm IP,总共包含 128GB HBM3 显存和 1460 亿晶体管,将于 2023 年下半年上市。

目前来看,AMD Instinct MI300 的晶体管数量已经超过了英特尔 1000 亿晶体管的 Ponte Vecchio,是 AMD 投产的最大芯片。从苏姿丰女士手举 Instinct MI300 的照片中我们也可以看到,它的大小已经超越半个人手,看起来相当夸张。

AMD 表示,它拥有 9 个基于 3D 堆叠的 5nm 小芯片(按照此前规律应该有 3 个是 CPU、6 个是 GPU),还有 4 个基于 6nm 的小芯片,周围一圈是封装的 HBM 显存芯片,总共拥有 1460 亿个晶体管部分。AMD 表示,这款加速卡的 AI 性能比上一代(MI250X)要高得多。

目前 AMD 只公布了这些信息,量产版芯片将于 2023 年下半年推出,届时可能还会有 NVIDIA Grace 和 Hopper GPU 等竞品,不过应该会比英特尔的 Falcon Shores 更早一些。

从 AMD 代表展示的 MI300 样品来看,这 9 颗小芯片采用有源设计,不仅可以在 I / O 瓦片之间实现通信,还可以实现与 HBM3 堆栈接口的内存控制器之间的通信,从而带来令人难以置信的数据吞吐量,同时还允许 CPU 和 GPU 同时处理内存中的相同数据(零拷贝),从而节省功耗、提高性能并简化流程。

获悉,AMD 声称 Instinct MI300 可带来 MI250 加速卡 8 倍的 AI 性能和 5 倍的每瓦性能提升(基于稀疏性 FP8 基准测试),它可以将 ChatGPT 和 DALL-E 等超大型 AI 模型的训练时间从几个月减少到几周,从而节省数百万美元的电费。

值得一提的是,Instinct MI300 将应用于美国即将推出的新一代 200 亿亿次的 El Capitan 超算,这也代表 El Capitan 在 2023 年完成部署时将成为世界上最快的超级计算机。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注