2023 年 12 月 6 日太平洋标准时间上午 10:00,AMD 举办了一场名为“推进 AI”的活动,期间他们推出了专为数据中心量身定制的全新 Instinct MI300 系列计算卡。AMD宣布,这款新产品拥有业界领先的生成式AI内存带宽,在大型语言模型(LLM)的训练和推理方面提供卓越的性能。该产品结合了最新的 CDNA 3 和 Zen 4 架构,为 HPC 和 AI 工作负载提供突破性的性能。

首款 Instinct MI300 系列推出了两种型号:Instinct MI300A(CPU+GPU)和 Instinct MI300X(仅限 GPU)。
Instinct MI300X 采用紧凑的芯片设计,采用 5nm 和 6nm 工艺,晶体管总数为 1530 亿个。它采用第四代 Infinity Fabric 解决方案,包括 28 个小芯片,包括 8 个 HBM 和 4 个计算芯片。每个计算芯片包含两个基于 CDNA 3 架构的 GCD,总共 80 个计算单元,相当于 320 个计算单元和 20,480 个流处理器。考虑到良率,AMD 减少了一些计算单元,导致实际计数为 304 个计算单元和 19,456 个流处理器。此外,HBM3 容量达到 192GB,提供 5.3TB/s 的内存带宽和 896GB/s 的 Infinity Fabric 带宽。
在本次发布会上,AMD还宣布,本能MI300A已进入量产阶段。该型号采用 APU 设计,具有基于 Zen 4 架构的 24 个内核,计算芯片数量减少 1 个,计算单元数量减少到 228 个,相当于 14,592 个流处理器。
据悉,Instinct MI300系列明年的预期出货量在30万至40万台之间,其中谷歌和Microsoft是最大的客户。
相关文章
U盘装系统(http://www.upzxt.net) 版权所有 (网站邮箱:78435178@qq.com)
本站资源均收集与互联网,其著作权归原作者所有,如侵犯到您的权益的资源,请来信告知,我们及时撤销相应资源