AMD Ryzen 7000 系列(内部称为 Phoenix)将赛灵思 AI 加速器单元(作为 XDNA 销售)引入消费类系列处理器。自首次亮相以来已经过去了一年多,并且升级到芯片,Hawk Point 版本拥有更快的 NPU,直到最近发布 Ryzen AI 300 系列,AMD 才公布了专为该单元设计的开源 LLVM 编译器。

AMD 锐龙 AI 处理器:
• 锐龙 7000“凤凰”:XDNA 高达 10 TOPS
• 锐龙 8000“Hawk Point:XDNA 高达 16 TOPS
• 锐龙AI 300“Strix Point”:XDNA2 高达 50 TOPS
内置 NPU 单元的重要性将继续增长,AMD、英特尔和即将推出的高通都将参与一场新的竞赛,以在其设备上实现最快的 AI 加速。这些新的机器学习专用单元将被即将推出的 Windows 技术所利用,并作为第三方工具(如本地运行的大型语言模型 (LLM))的加速器。
“我代表AMD很高兴地宣布,为AMD/Xilinx AI引擎处理器开源LLVM后端。这些处理器存在于许多设备中,包括 RyzenAI SoC。该存储库目前专注于支持由XDNA加速器在“Phoenix”和“Hawk Point”设备中实现的AIE2架构。
…
请注意,这些加速器包括一组处理器,而 LLVM 后端仅支持单个处理器。基于MLIR的开源工具中提供了对整个设备的支持。
— Stephen Neuendorffer,AMD/Xilinx
Peano 项目可能会启动编写 AMD NPU 原生应用程序的普及,这些应用程序可以利用这些新的处理单元来构建大型语言模型。AMD正在积极展示如何将Ryzen和Radeon驱动的系统与LM Studio等工具一起使用,LM Studio是一款具有直观GUI的简单应用程序,目前只能使用集成和独立的GPU,而不是NPU。AMD 在这里提供了几个如何使用 Ryzen AI NPU 进行软件开发的示例,尽管这并不适用于最终用户。
正如 Phoronix 所指出的那样,英特尔在发布其 NPU 软件方面速度更快。他们的 Meteor Lake NPU Linux 内核甚至在新架构发布之前就已经上游了,英特尔已经为其 OpenVINO 平台开源了一个 NPU 插件。由于两家公司都为最终用户提供编译器和开源软件,开发人员可以提供跨供应商解决方案,轻松从每种架构中受益。不过,有一点很清楚,我们并没有听到太多关于骁龙X系列的此类发展的消息。
相关文章
U盘装系统(http://www.upzxt.net) 版权所有 (网站邮箱:78435178@qq.com)
本站资源均收集与互联网,其著作权归原作者所有,如侵犯到您的权益的资源,请来信告知,我们及时撤销相应资源