掘金 人工智能 05月30日 17:38
【自爆】搭建AI环境学习需要花费多少成本?——为了学习Deepseek,我搞了个大家伙~~~
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文讲述了作者作为一名高龄程序员,为了学习AI技术,自掏腰包组装一台能够运行DeepSeek大模型的电脑的经历。文章详细记录了硬件选择、环境搭建、聊天界面配置以及使用私有数据训练的全过程。从最初的念头到最终的实践,作者分享了在隐私、成本和延迟方面的考量,以及选择RTX 4090显卡和Ollama工具的理由。同时,也总结了搭建过程中的经验教训,并对未来升级和应用方向进行了展望。这是一次个人对AI技术的探索,也是对自身职业生涯的挑战。

🖥️硬件配置:为了运行DeepSeek等大模型,作者选择了RTX 4090显卡,至少64GB内存,以及SSD硬盘。由于预算限制,选择了相对经济的方案,但也足以流畅运行7B版本模型。

🛠️环境搭建:作者在Windows 2019系统上,通过Ollama工具简化了大型语言模型的下载、运行和管理。通过命令行操作,成功下载并运行了DeepSeek-r1:32b模型。

💬聊天界面:通过配置Chatboxai,作者搭建了本地DeepSeek的聊天界面,实现了与AI模型的交互。

📚私有数据训练:利用Anything LLM 官网提供的工具,作者成功上传并利用私有数据对模型进行训练,实现了针对特定内容的问答功能。

    📢欢迎点赞 :👍 收藏 ⭐留言 📝 如有错误敬请指正,赐人玫瑰,手留余香!📢本文作者:由webmote 原创📢作者格言:新的征程,用爱发电,去丈量人心,是否能达到人机合一?

序言

在亚马逊雨林的深处,一只蝴蝶🦋轻轻扇动翅膀,可能引发数千公里外的风暴。

而我想从头开始学习AI,进军AI技术的念头,也始于一个多年认识的朋友,他的一句话,你知道Deepseek吗,超级火!

是的,在这个风云骤变的岁月,高龄程序员是个危险的职业,要么在奔跑中被诛杀,要么在沉寂中被淘汰。既然风起于青萍之末,浪成于微澜之间,那么跌谷底也要开花,沉海底也要望月,与其抱怨于黑暗,不如提灯向前行。

一阵小小的涟漪震荡,似乎某个齿轮开始转动。这个想法像蝴蝶效应一样,最终让我掏空钱包,组装了一台能跑 DeepSeek 的怪兽级电脑。今天,就让我们盘点下这其中的奥秘。

1.硬件的抉择

“我怎么学习AI,它需要怎么训练数据?” 这个看似简单的想法,背后却需要显卡的支持,大家都知道,中国的XXX原因,导致很多显卡都无法入手,而国产的又不是那么熟悉,虽然,云端也可以跑下一些开源小模型,体验AI生成文本的乐趣,但终归限制重重。
我自己的感受:

经过网上搜索对比,看到需要如下配置,可运行Deepseek。DeepSeek 这类大模型对硬件的要求极高,尤其是:

    GPU:决定模型能否跑起来(NVIDIA 显卡是刚需)。内存:至少 64GB,否则加载模型都困难。存储:模型文件动辄 50GB+,SSD 是必须的。

好了,既然CUDA是首选,那么看看这配置吧

由于预算有限,兜比脸干净,我最终选择了 RTX 4090,虽然它跑不动 67B 大模型,但至少能流畅运行 7B 版本。 哎,早一年趁黑神话火爆的时候买,至少节省1万成本。


2.环境搭建

系统就用windows 2019吧,反正是自己玩,搞个linux操作也麻烦,直接windows环境,上来就干。

24G的GPU看着很皮实,其实一点也不抗造。
第一次用i9,心理的感觉要快好多,不知道各位小伙伴觉得咋样?

本来觉得部署Deepseek还需要费一番手脚,完全没想到,在商家的技术支持下,三下五除二搞定。
简要描述下,各位会的直接跳过即可。

    下载安装Ollama

Ollama 是一个 开源工具,旨在简化大型语言模型(LLM)在本地计算机上的 下载、运行和管理。它支持多种开源模型(如 LLaMA、Mistral、DeepSeek 等),并提供类似 Docker 的简单命令行操作,让用户无需复杂配置即可在本地运行 AI 大模型。

这里是下载地址, 不过如果你下载的时候出现不可描述的事情,那么请安装三脚架,人字梯,扶好扶手即可

一路Next,安装完毕后,先退出,整体程序大约5个G。

也可以输入命令查看ollama -v

    下载 DeepSeek 模型

打开Ollama官网,点击顶部的Models链接,此时我们就会看到deepseek-r1模型排在第一位,如下图所示。

厂家建议我选择32B,这应该是这个卡的天花板了。

随后我们复制下拉框后面的命令ollama run deepseek-r1:32b,粘贴到新打开的CMD窗口中回车执行(耐心等待下载完成),如下图所示:

经老手提示,下载过程中,最开始下载速度可能要快一些,下载到后面可能就几百KB了,此时我们可以按Ctrl+C停止下载,然后再重新复制命令执行下载,此时的下载速度又恢复到了几MB了(此操作可能会遇到重新下载的情况,但是几率很小),如此往复操作即可

都下载到100%,即表示完成。

3.聊天界面

常用的聊天界面,可以配置下载 chatboxai

安装完毕后,进行简单配置。

保存后,就可以愉快的使用本地DeepSeek了。

4.使用私有数据训练

1.进入 Anything LLM 官网,下载 Windows 客户端,点此进入下载

2,下载好后,双击程序进行安装。
3,安装好后,打开软件,点击【开始】按钮进入使用界面。
4,进入后可以先建立一个工作区,然后点击全局配置按钮,进行配置,如下:

在主题内可以设置界面语言,看自己喜好设置即可。

通过上传按钮,传递需要保存的私有数据,可以是文本、md文件或者pdf等。

通过上传自己的私有文件,可以再次提问私有文件内相关的内容,查看是否能理解,当然按照上述配置,一切都应该没问题的。

总结

这次搭建只是开始,未来计划:

硬件总费用:34000左右(后期又增加了2块大硬盘)。
这场AI风暴,始于一个简单的念头,最终让我踏入 大模型私有化部署 的深坑。虽然成本高昂,但掌握核心技术的成就感无可替代。

如果你也想尝试:
✅ 先云后本地:用 云GPU 体验,再决定是否买硬件。
✅ 明确需求:32B模型适合对话,67B需要专业设备。
✅ 量力而行:AI是深坑,入坑前先看看钱包!

—— 风已起,你是否准备好迎接这场AI革命? 🌪️🚀

你学废了吗?

👓都看到这了,还在乎点个赞吗?

👓都点赞了,还在乎一个收藏吗?

👓都收藏了,还在乎一个评论吗?

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek AI 硬件 Ollama 私有化部署
相关文章