掘金 人工智能 前天 14:04
快速在高通芯片手机&平板本地部署大模型DeepSeek
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文详细介绍了如何在配备高通芯片的手机或平板上部署大模型,以deepseek-r1:7b为例,利用AidLux和Ollama进行配置。文章涵盖了硬件准备、AidLux的安装与远程登录、Ollama的下载与配置,以及deepseek模型的下载、运行和提问。通过该教程,用户可以在移动设备上体验大模型的强大功能。

📱 硬件准备:建议使用骁龙8以上芯片的手机或平板,内存大于16GB,并根据模型大小预留足够的存储空间。

⚙️ AidLux部署:首先,从端侧AI开发者社区下载并安装AidLux,注册后避免闪退。通过Cloud_ip应用查看IP地址,在浏览器中输入该IP进行远程登录,默认账号和密码均为aidlux。

📦 Ollama配置:在AidLux终端中,使用curl命令下载并安装Ollama。安装完成后,使用ollama serve &命令让Ollama服务在后台运行,并通过ollama -v命令验证安装,确保Ollama版本正常显示。

⬇️ 模型下载与运行:使用ollama pull deepseek-r1:7b命令下载deepseek-r1:7b模型,下载完成后使用ollama list命令查看已下载的模型。随后,使用ollama run deepseek-r1:7b命令运行模型,出现>>>提示符后,即可开始提问。

一、硬件准备

设备:高通芯片的手机或者平板(建议选用骁龙8以上芯片)

内存:大于16G(方便运行更大参数的大模型)

存储:根据不同大小的模型预留足够即可


二、部署教程

说明:本教程使用的设备是8GEN2芯片的手机,部署的模型为deepseek-r1:7b

步骤

1.下载并安装AidLux

在端侧AI开发者社区处(forum.aidlux.com/t/topic/719…) 点击下载AidLux软件,安装后注册使用避免闪退,如果想常驻后台可以在社区搜索相关文章。

2.远程登录AidLux进行配置

打开AidLux点击桌面的Cloud_ip应用(云朵形状icon),查看ip地址,并且在浏览器中输入该ip地址。(Tips:手机或平板要与你的电脑连接同一个wifi)

连接成功后出现登陆页面,默认账号:aidlux ;默认密码:aidlux

登录后打开终端:

进入命令行界面:

现在准备工作已经做好了,接下来下载大模型。

3、下载ollama进行配置

下载ollama,默认sudo密码aidlux;
命令行依次输入下面命令:

curl -fsSL https://ollama.com/install.sh | shollama  serve &#让ollama服务在后台运行ollama -v#安装完毕可以查看ollama版本进行验证,出现版本号之后就可以使用ollama

下载过程:

4、下载并运行deepseek模型

输入命令:

ollama pull deepseek-r1:7bollama list

下载完成后可以查看已下载模型

Tips:可根据手机/平板配置,自行选择下载3b/7b等参数模型。

运行模型

输入命令:

ollama run deepseek-r1:7b

出现>>>即可开始提问了

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AidLux Ollama 大模型 deepseek 移动端AI
相关文章