Cnbeta 02月12日
AMD锐龙AI处理器轻松本地跑DeepSeek:最高支持70B参数
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

由于DeepSeek服务器压力大,本地部署成为更优选择。AMD锐龙AI处理器凭借强大的NPU算力,成为本地体验DeepSeek的上佳之选。通过LM Studio,用户可以轻松在锐龙AI笔记本或台式机上部署DeepSeek R1精简版推理模型。文章详细介绍了具体操作步骤,包括安装显卡驱动、下载LM Studio、选择合适的DeepSeek R1 Distill版本、配置参数等。同时,根据不同的锐龙AI处理器型号和内存大小,给出了推荐支持的DeepSeek R1 Distill参数规模,旨在帮助用户获得最佳的本地体验。

💻AMD锐龙AI处理器拥有强大的NPU算力,是本地部署DeepSeek R1精简版推理模型的理想选择,尤其是在DeepSeek服务器压力过大的情况下。

🛠️通过LM Studio,用户可以轻松在本地部署DeepSeek。具体步骤包括:安装AMD显卡驱动,下载LM Studio,选择DeepSeek R1 Distill版本,勾选“Q4 K M”量化模式,并进行模型加载等操作。

⚙️不同参数规模的大模型对硬件要求不同。顶级的锐龙AI MAX+ 395处理器搭配大内存可以支持DeepSeek-R1-Distill-Llama-70B,而锐龙7040/8040系列则推荐搭配32GB内存支持DeepSeek-R1-Distill-Qwen-14B。AMD RX 7000系列显卡也支持本地部署,不同型号显卡支持不同规模的模型。

DeepSeek持续火爆,大家都在体验,但因为服务器承受能力有限,经常会遇到无响应,因此本地部署体验就成了更好的选择,具体规模取决于硬件配置。AMD是最早在x86处理器领域引入AI能力的,锐龙7040系列就率先集成了独立的NPU AI引擎,此后的锐龙8040系列、锐龙AI 300系列、锐龙AI MAX 300系列都越发强大。

AMD锐龙AI处理器拥有目前行业最强的NPU,算力高达50 TOPS(每秒50万亿次计算),自然是体验DeepSeek的上佳选择。

如果你有一台锐龙AI笔记本,现在就可以通过LM Studio,轻松在本地部署、体验DeepSeek R1精简版推理模型。

具体操作方式如下:

1、安装AMD Adrenalin 25.1.1或更新版显卡驱动。

2、打开lmstudio.ai/ryzenai,并下载LM Studio 0.3.8或更新版本。

3、安装启动LM Studio,可以直接跳过引导屏幕。

4、点击“发现”(discover)标签页。

5、选择适合自己的DeepSeek R1 Distill。具体如何选择见后。

6、在软件页面右侧,勾选“Q4 K M”量化模式,然后点击“下载”。

7、下载完成后,返回聊天选项页,从下拉菜单中选择DeepSeek R1 distill,并确保勾选“手动选择参数”(manually select parameters)选项。

8、在“GPU卸载”(GPU offload)中,将滑块移到最大值。

9、点击“模型加载”(model load)。

10、好了,可以在本地体验DeepSeek R1推理模型了!

不同参数规模的大模型,决定了其性能和体积,因此不同的硬件设备需要选择最适合自己的参数量。

如果是顶级的锐龙AI MAX+ 395处理器,搭配64GB、128GB内存,最高可以支持DeepSeek-R1-Distill-Llama-70B,注意64GB内存的话需要将可变显存设置为高。

搭配32GB内存,可变显存自定义为24GB,则能支持到DeepSeek-R1-Distill-Qwen-32B。

如果是锐龙AI HX 370、AI 365处理器,搭配24GB、32GB内存,可以支持DeepSeek-R1-Distill-Qwen-14B。

如果是锐龙7040/8040系列,需要搭配32GB内存,才能支持到DeepSeek-R1-Distill-Qwen-14B。

另外,AMD推荐将所有Distill运行在Q4 K M量化模式。

如果你使用的是台式机,AMD RX 7000系列显卡也都已支持本地部署DeepSeek R1。

其中,RX 7900 XTX旗舰显卡最高支持DeepSeek-R1-Distill-Qwen-32B,RX 7900 XT、7900 GRE、7800 XT、7700 XT、7600 XT均可以支持到DeepSeek-R1-Distill-Qwen-14B,RX 7600以及新发布的RX 7650 GRE则适合到DeepSeek-R1-Distill-Llama-8B。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek AMD锐龙AI 本地部署 LM Studio NPU
相关文章