加速卡有什么用(加速卡)

时间:2024-04-17 22:27:34 来源:网友投稿 编辑:凉话刺骨

AMD展示Instinct MI300 APU加速卡,配备128GB HBM3显存

IT之家 1 月 8 日消息,在 CES 2023 展会上,AMD 披露了面向下一代数据中心的 APU 加速卡产品 Instinct MI300。这颗芯片将 CPU、GPU 和内存全部封装为一体,从而大幅缩短了 DDR 内存行程和 CPU-GPU PCIe 行程,从而大幅提高了其性能和效率。

这款加速卡采用 Chiplet 设计,拥有 13 个小芯片,基于 3D 堆叠,包括 24 个 Zen4 CPU 内核,同时融合了 CDNA 3 和 8 个 HBM3 显存堆栈,集成了 5nm 和 6nm IP,总共包含 128GB HBM3 显存和 1460 亿晶体管,将于 2023 年下半年上市。

目前来看,AMD Instinct MI300 的晶体管数量已经超过了英特尔 1000 亿晶体管的 Ponte Vecchio,是 AMD 投产的最大芯片。从苏姿丰女士手举 Instinct MI300 的照片中我们也可以看到,它的大小已经超越半个人手,看起来相当夸张。

AMD 表示,它拥有 9 个基于 3D 堆叠的 5nm 小芯片(按照此前规律应该有 3 个是 CPU、6 个是 GPU),还有 4 个基于 6nm 的小芯片,周围一圈是封装的 HBM 显存芯片,总共拥有 1460 亿个晶体管部分。AMD 表示,这款加速卡的 AI 性能比上一代(MI250X)要高得多。

目前 AMD 只公布了这些信息,量产版芯片将于 2023 年下半年推出,届时可能还会有 NVIDIA Grace 和 Hopper GPU 等竞品,不过应该会比英特尔的 Falcon Shores 更早一些。

从 AMD 代表展示的 MI300 样品来看,这 9 颗小芯片采用有源设计,不仅可以在 I / O 瓦片之间实现通信,还可以实现与 HBM3 堆栈接口的内存控制器之间的通信,从而带来令人难以置信的数据吞吐量,同时还允许 CPU 和 GPU 同时处理内存中的相同数据(零拷贝),从而节省功耗、提高性能并简化流程。

IT之家获悉,AMD 声称 Instinct MI300 可带来 MI250 加速卡 8 倍的 AI 性能和 5 倍的每瓦性能提升(基于稀疏性 FP8 基准测试),它可以将 ChatGPT 和 DALL-E 等超大型 AI 模型的训练时间从几个月减少到几周,从而节省数百万美元的电费。

值得一提的是,Instinct MI300 将应用于美国即将推出的新一代 200 亿亿次的 El Capitan 超算,这也代表 El Capitan 在 2023 年完成部署时将成为世界上最快的超级计算机。

AMD展示Instinct MI300 APU加速卡,配备128GB HBM3显存

IT之家 1 月 8 日消息,在 CES 2023 展会上,AMD 披露了面向下一代数据中心的 APU 加速卡产品 Instinct MI300。这颗芯片将 CPU、GPU 和内存全部封装为一体,从而大幅缩短了 DDR 内存行程和 CPU-GPU PCIe 行程,从而大幅提高了其性能和效率。

这款加速卡采用 Chiplet 设计,拥有 13 个小芯片,基于 3D 堆叠,包括 24 个 Zen4 CPU 内核,同时融合了 CDNA 3 和 8 个 HBM3 显存堆栈,集成了 5nm 和 6nm IP,总共包含 128GB HBM3 显存和 1460 亿晶体管,将于 2023 年下半年上市。

目前来看,AMD Instinct MI300 的晶体管数量已经超过了英特尔 1000 亿晶体管的 Ponte Vecchio,是 AMD 投产的最大芯片。从苏姿丰女士手举 Instinct MI300 的照片中我们也可以看到,它的大小已经超越半个人手,看起来相当夸张。

AMD 表示,它拥有 9 个基于 3D 堆叠的 5nm 小芯片(按照此前规律应该有 3 个是 CPU、6 个是 GPU),还有 4 个基于 6nm 的小芯片,周围一圈是封装的 HBM 显存芯片,总共拥有 1460 亿个晶体管部分。AMD 表示,这款加速卡的 AI 性能比上一代(MI250X)要高得多。

目前 AMD 只公布了这些信息,量产版芯片将于 2023 年下半年推出,届时可能还会有 NVIDIA Grace 和 Hopper GPU 等竞品,不过应该会比英特尔的 Falcon Shores 更早一些。

从 AMD 代表展示的 MI300 样品来看,这 9 颗小芯片采用有源设计,不仅可以在 I / O 瓦片之间实现通信,还可以实现与 HBM3 堆栈接口的内存控制器之间的通信,从而带来令人难以置信的数据吞吐量,同时还允许 CPU 和 GPU 同时处理内存中的相同数据(零拷贝),从而节省功耗、提高性能并简化流程。

IT之家获悉,AMD 声称 Instinct MI300 可带来 MI250 加速卡 8 倍的 AI 性能和 5 倍的每瓦性能提升(基于稀疏性 FP8 基准测试),它可以将 ChatGPT 和 DALL-E 等超大型 AI 模型的训练时间从几个月减少到几周,从而节省数百万美元的电费。

值得一提的是,Instinct MI300 将应用于美国即将推出的新一代 200 亿亿次的 El Capitan 超算,这也代表 El Capitan 在 2023 年完成部署时将成为世界上最快的超级计算机。

英伟达正准备推出具有94GB和64GB显存的H100 Hopper加速卡

根据最新的 PCI 设备 ID 列表变动,有迹象表明 NVIDIA 很可能在近期推出新的 H100 Hopper 数据中心加速卡。这款新卡基于 SXM5 规格正在开发中,分为 94GB 和 64GB 存储容量两个版本。这暗示着英伟达可能考虑使用 HBM3 高带宽内存设计。

据可靠消息来源称,这并不是首款搭载 94GB 显存的 H100 卡,英伟达之前已经发布了 H100 NVL(专为大型语言模型而设计的卡)。然而,NVIDIA并没有解释如何实现 94GB 显存,但可能是因为 HBM 的生产和良率问题而屏蔽了一部分模块。至于 64GB 型号,可能采用了四个或更多 16GB HBM 芯片。有传言称 H100 还有一款更高容量的 120GB 型号,但目前尚未得到官方确认,也没有驱动程序的PCI ID泄露来证实这一版本。

(8231350)

声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送至邮件举报,一经查实,本站将立刻删除。转载务必注明出处:http://www.hixs.net/article/20240417/1696257955102108.html