IT之家 01月30日
微软宣布为 Win11 用户优化 DeepSeek-R1 模型,让 Copilot+ PC 实现本地化 AI 推理
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

微软推出针对NPU优化的DeepSeek-R1,首批面向搭载高通骁龙X芯片的Copilot+PC,还将推出多种版本。该模型开启新范式,可实现高效推理,且影响电池续航和PC资源消耗最小。用户可通过多种方式进行体验。

💻微软推出针对NPU优化的DeepSeek-R1,已在Azure AI Foundry和GitHub提供

🎯首批面向搭载高通骁龙X芯片的Copilot+PC,后续还有其他平台

🚀该模型开启新范式,支持半连续运行服务,实现高效推理

📱用户可通过多种方式下载和体验模型

IT之家 1 月 30 日消息,人工智能正加速向着边缘计算领域发展,Copilot+ PC 在其中扮演着重要角色。随着 DeepSeek R1 出现,微软也意识到了这一模型可能会带来了一系列变革。

微软今日发文,宣布推出针对 NPU 优化的 DeepSeek-R1(IT之家注:已在 Azure AI Foundry 和 GitHub 上提供),首批将面向搭载高通骁龙 X 芯片的 Copilot+ PC 推出,随后是英特尔酷睿 Ultra 200V 等平台。

微软表示,首个版本 DeepSeek-R1-Distill-Qwen-1.5B 将在 AI Toolkit 中提供,7B 和 14B 版本也将很快推出,从而帮助开发者充分利用 Copilot+ PC 中强大的 NPU 配置。

微软表示,Copilot+ PC 上的 NPU 开启了一种新的范式。在这种范式下,生成式 AI 不仅可以在被调用时执行,还可以支持半连续运行的服务。这使开发者能够利用 AI 推理引擎来构建主动和持续的体验。微软表示:

通过我们在 Phi Silica 上的工作,我们实现了高效的推理 —— 在首次生成 token 的时间和吞吐率方面表现出色,同时对电池续航和 PC 资源消耗的影响降至最低。针对 NPU 优化的 DeepSeek 模型借鉴了该项目的多项关键经验和技术,包括如何分离模型的各个部分以实现性能与效率的最佳平衡、低比特率量化以及将 Transformer 映射到 NPU。此外,我们还利用 Windows Copilot Runtime(WCR)通过 ONNX QDQ 格式在多样化的 Windows 生态系统中实现扩展。

微软表示,要想在 Copilot+ PC 上体验 DeepSeek 只需下载 AI Toolkit VS Code 扩展即可;以 ONNX QDQ 格式优化的 DeepSeek 模型将很快出现在 AI Toolkit 的模型目录中(直接从 Azure AI Foundry 中拉取)。

用户可以通过点击“下载”按钮将其下载到本地。下载完成后,只需打开 Playground 加载“deepseek_r1_1_5”模型,并给出提示词即可开始实验。

除了为 Copilot+ PC 优化的 ONNX 模型外,您还可以通过点击“DeepSeek R1”下的“Try in Playground”按钮,在 Azure Foundry 中尝试云托管的源模型。

如下图所示,微软还展示了原始模型和量化模型的示例,以展现两者之间微小但确实存在的差异:

▲ 相同提示下原始模型(左)与 NPU 优化模型(右)的响应示例,包括模型的推理能力

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek-R1 微软 NPU Copilot+PC
相关文章