AMD 通过其 XDNA 引擎,正在引领大规模 AI 计算进入消费级设备。其最新的 APU 产品,如 Strix Point 和 Strix Halo 系列,提供了领先的 AI 性能。最新的 Adrenalin Edition 25.8.1 驱动程序现已支持 128B 参数的 LLM 模型,允许消费级设备运行 Meta 的 Llama 4 Scout 等大型模型,这在目前是独一无二的。通过 AMD 的可变显存 (VGM) 技术,iGPU 可获得高达 96 GB 显存,支持大型模型本地运行。虽然目前搭载 Strix Halo 平台的设备价格较高且不易获得,但 AMD 在 AI 计算方面的进步,正逐步实现“AI 力量”的普及。
🚀 AMD 在消费级设备上率先引入大规模 AI 计算,通过 XDNA 引擎和 APU 产品(如 Strix Point 和 Strix Halo)提供业界领先的 AI 性能。
💡 最新 Adrenalin Edition 25.8.1 驱动程序支持 128B 参数 LLM 模型,使消费级设备能运行 Meta Llama 4 Scout 等先进模型,实现本地化大型语言模型运行。
💾 AMD 的可变显存 (VGM) 技术为 iGPU 提供高达 96 GB 显存,支持大型 AI 模型在本地高效运行,即使是基于 MoE 的 Llama 模型也能以较低参数量提供良好性能。
📈 AMD 在模型上下文大小方面取得重大突破,将行业标准 4096 个词元提升至 256000 个词元,显著增强了工作流程控制和性能表现。
💰 尽管目前搭载先进平台的设备(如 Strix Halo)价格较高且不易购买,但 AMD 在 AI 计算领域的持续进步,正在为消费者带来更强大的 AI 能力。
AMD 是通过其 XDNA 引擎将大规模 AI 计算引入消费级设备的先行者之一。AMD 的 APU 产品(例如 Strix Point 和 Strix Halo 系列中的产品)提供了业内最高的 AI 性能,而现在,AMD 已将边缘 AI 提升到了一个新的水平。该公司最新的 Adrenalin Edition 25.8.1 驱动程序引入了对 128B 参数 LLM 模型的支持,这将使消费级设备能够支持 Meta 的 Llama 4 Scout 等模型,这是目前独一无二的成就。

通过 AMD 的可变显存 (VGM),消费者可以为 iGPU 提供高达 96 GB 的显存,从而支持大型模型在本地运行。由于上述 Llama 模型是基于 MoE 的实现,因此它在运行时仅使用 170 亿个参数,但尽管如此仍然可以获得不错的 TPS 数据,从而使 LLM 可以用作功能强大的 AI 助手。

更重要的是,AMD 在模型上下文大小方面取得了巨大的进步。虽然消费级处理器的行业标准大约是 4096 个词元,但 AMD 成功将其提升了数倍,达到了 256000 个词元,从而可以更好地控制工作流程,并且无需担心性能问题。
目前,搭载 Strix Halo 平台的设备有限,而且不太容易买到,有些设备的价格甚至超过了 2000 美元。然而,AMD 在 AI 计算方面的进步确实令人欣喜,它让每个人都能拥有“AI 力量”,尽管你需要花费不菲的钱才能买到目前市面上的设备。