小众软件 02月22日
听说,一张 4090 显卡就能运行 DeepSeek-R1 671B 了?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

文章讲述了自部署大语言模型对硬件的极高要求,需要24GB显存的4090D显卡和382GB内存。由于硬件门槛过高,个人自部署大模型在现阶段几乎不可能实现。作者还提到之前尝试部署画图模型也因质量问题而放弃,最终感慨目前自建模型不如使用各厂商提供的服务,并对AI未来是否会成为特权、失去普惠性表示担忧。同时,作者推荐了免费满血版的DeepSeek-R1,称其速度快且能画图。

🤯**硬件配置要求极高**: 自部署大语言模型需要24GB显存的4090D显卡和382GB内存,对于个人用户来说,硬件成本过高,难以承担。

🎨**自部署模型效果不佳**: 作者之前尝试部署画图模型,但发现生成质量太差,最终放弃,表明目前自建模型在效果上与商业模型存在差距。

🤔**AI可能成为特权**: 作者担忧AI技术未来可能不再普惠,而是成为少数人的特权,进而影响人类社会的发展方向。

🚀**推荐DeepSeek-R1**: 作者推荐了目前可用的免费满血版DeepSeek-R1,赞赏其速度快且具备画图功能。

2025-02-22 16:35 四川

就…很离谱,先说结论,你需要一张 24GB显存的 4090D 显卡,再配上 382GB 内存,就可以了。

https://github.com/kvcache-ai/ktransformers/

是的,382GB 内存。

这个项目在我这放了好几天了,一直想试试,苦于没有这么大内存,就放弃了 

实际上 4090 我也没有 

我又去搜了下「382GB 内存需要什么主板才能支持」:要支持382GB的内存,你需要一块专业服务器级。目前,许多主板通常支持最高128GB或192GB的DDR5内存…

问的真是多余...

--

所以现阶段自部署大语言模型,似乎...是一件不可能完成的任务了?

之前,我还折腾部署过画图模型,也是玩了两下发现质量太差,放弃了 

反正目前阶段就是...你自己折腾完全不如用各厂提供的。

我有个想法不知道当讲不当讲,就是未来的AI会不会成为特权,失去了普惠的特征,人类...的未来会是什么样呢?

另外昨天推荐那个现在就能用,免费满血版 DeepSeek-R1,就是快,还能画图。今天好像上传文件出了问题,一直提示失败。

不过对 R1 的直接提问倒是依旧很快,问题不大。

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

自部署大模型 硬件需求 AI普惠 DeepSeek-R1
相关文章