原创 昆仑万维 2025-02-19 21:21 北京
2月17日,Opera团队在Opera Developer中接入了DeepSeek R1系列模型。
2024年,Opera率先将内置本地大语言模型(LLM)引入到Web浏览器中,为用户提供了超过50种LLM的访问权限。Opera Developer 利用 Ollama 框架(由 llama.cpp 实现),现已支持DeepSeek R1系列模型部署,这意味着用户可以在本地运行该模型,。
如果想在本地设备上运行 DeepSeek R1,借助Opera Developer,用户只需点击几步,即可在自己的机器上安全地运行R1。
如何在Opera Developer中访问DeepSeek R1模型:
01
Step1
要访问各种DeepSeek R1模型,用户首先需要下载Opera Developer,如果已经安装了它,请更新到最新版本。安装完成后,打开浏览器并点击左侧边栏中的Aria标识。进入Aria界面后,点击左上角的徽标以展开聊天历史记录:
02
Step2
进入设置菜单,点击“本地AI模型”选项:
03
Step3
在搜索框中输入“deepseek”,并选择其中一个模型进行下载。
点击下载按钮,一切就绪!现在只需打开一个与Aria的新聊天窗口,并选择刚刚下载的模型即可使用。
Opera提供多种DeepSeek R1模型供用户选择,这样用户能够选择适合个人设备运行的模型。一般来说,我们建议用户尝试较小的模型,例如deepseek-r1:14b(8.4GB)。如果用户不确定计算机的本地AI能力,我们开发了一个基准测试工具帮助大家评估其能力
基准测评工具:
https://blogs.opera.com/news/2024/06/opera-device-benchmark-tool-for-ai/
链接
Opera Developer官方地址:
https://www.opera.com/zh-cn/opera/developer
Opera提供工具进行测试个人设备的本地AI性能:
往期推荐
01
02
03
04
05