IT之家 03月04日
微软拥抱 DeepSeek,Copilot+ PC 本地运行 7B 和 14B 模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

微软通过Azure AI Foundry接入DeepSeek-R1模型,为Copilot+ PC提供本地运行能力。该模型从搭载高通骁龙X处理器的设备开始上线,随后扩展到其他设备。模型运行在NPU上,可减少对PC电池和散热影响,微软还在优化模型标记速度,开发者可通过扩展下载运行。

🥳微软宣布通过Azure AI Foundry接入DeepSeek-R1模型,为Copilot+PC提供本地运行能力

🚀模型从搭载高通骁龙X处理器的Copilot+PC开始上线,后扩展到英特尔酷睿Ultra 200V和AMD锐龙设备

💪模型运行在NPU上,减少对PC电池续航和散热性能影响,CPU和GPU可执行其他任务

😔模型标记速度较低,微软正在进一步优化提高速度

IT之家 3 月 4 日消息,微软今日宣布,通过 Azure AI Foundry 接入 DeepSeek-R1 7B 和 14B 蒸馏模型,为 Copilot+ PC 提供本地运行 7B 和 14B 模型的能力

早在今年 1 月,微软就宣布计划将 DeepSeek-R1 模型的 NPU 优化版本直接带到搭载高通骁龙 X 处理器的 Copilot+ PC 上。如今,这个承诺终于兑现。

IT之家从微软官方博客获悉,模型将从搭载高通骁龙 X 处理器的 Copilot+ PC 开始上线,随后是英特尔酷睿 Ultra 200V 和 AMD 锐龙的设备。

由于模型运行在 NPU 上,因此可以减少对 PC 电池续航和散热性能影响的同时,持续获得 AI 计算能力,CPU 和 GPU 将可用于执行其他任务。

微软强调,它使用了 Aqua 内部自动量化工具,将所有 DeepSeek 模型变体量化为 int4 权重。不幸的是,模型标记速度相当低。微软报告称,14B 模型的标记速度仅为 8 tok / 秒,而 1.5B 模型的标记速度接近 40 tok / 秒。微软提到,该公司正在进一步优化提高速度。

开发者可以通过 AI Toolkit VS Code 扩展在 Copilot+ PC 上下载和运行 DeepSeek 模型的 1.5B、7B 和 14B 版本。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

微软 Copilot+PC DeepSeek-R1模型 NPU 模型标记速度
相关文章