少数派-AI 2024年07月07日
三分钟离线运行开源大模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文介绍了如何使用LM Studio在本地电脑上离线运行开源大模型,并提供了详细的步骤和使用示例。与网页版大模型相比,离线运行开源大模型具有无需网络、无审查、可自定义、无隐私泄漏等优势。作者以Qwen 1.5-7B为例,展示了使用LM Studio下载、运行、自定义、生成API接口等操作,并与GPT 4 Turbo的提取结果进行对比。

😁 使用LM Studio,你可以轻松地在本地电脑上离线运行开源大模型,无需网络连接,也不受审查限制。

😎 你可以自由地自定义模型,例如进行微调,将模型调整为你的偏好,并享受无隐私泄漏的优势。

🤩 LM Studio支持多种开源大模型,例如Qwen 1.5-7B、LLama等,你可以根据需要选择合适的大模型。

🥳 LM Studio提供了一个便捷的API接口,你可以通过编写Python代码来调用模型,并开发更多基于大模型的功能。

🤯 LM Studio的运行效率很高,即使在Macbook Pro M1等设备上也能流畅运行,并提供GPU加速功能。

🤩 LM Studio的界面友好,操作简单易懂,即使是新手也能轻松上手。

🥳 LM Studio支持多种操作系统,包括Windows、Linux和macOS,可以满足不同用户的需求。

经过一年多的发展,各种开源大模型现在已经相当不错了。国产的Qwen 1.5的生成效果已经能满足一些日常使用。

有一些同学可能之前一直在用网页版的ChatGPT、Kimi Chat、文心一言或者通义千问,那么你可能会遇到如下一些问题:

    网络问题。例如ChatGPT需要特殊的网络才能访问。审查问题。国产大模型会大量屏蔽关键字,有一些你觉得完全没有任何问题的回答,它会告诉你不符合法律规范,不能回答。不能自定义模型,网页版的这些大模型,你没有办法做微调,难以自定义内容。当你花了大量时间设计了一个高级Prompt,把模型洗脑成了猫娘,结果第二天它又不能用了。隐私泄漏问题,担心大模型的开发商把你问的问题和上传的信息挪作他用。

当你被这些问题困扰,那么你可以考虑离线运行开源大模型。完全不需要网络,因此不存在隐私泄漏的问题。你可以随意对模型进行微调,想弄成猫娘还是伪娘都随你的想法。没有任何审查,想怎么问怎么答都可以调整。

在2023年早期,要离线运行开源大模型是一件非常困难的事情。首先是显卡,4090显卡非常昂贵。其次是环境,搭建起来非常麻烦,各种报错会浪费你大量的时间。

但这些问题现在都不是问题了。使用LM Studio,你只需要3分钟就能在自己电脑上运行开源大模型。并且能自动开启兼容openai库的API.要运行大模型的门槛也大大降低,只需要满足:

    苹果芯片(M1/M2/M3)的Mac,操作系统大于等于13.6Windows/Linux系统,只要处理器支持AVX2。最近3年的电脑基本上都支持。16GB以上的内存最好,但8GB也能跑Windows/Linux使用的显卡不是太差即可。

要使用LM Studio非常简单,首先在官网下载安装包进行安装。安装完成以后如下图所示:

接下来,需要下载开源大模型。这是整个步骤里面,唯一需要联网的地方。由于它会从Huggingface上面下载大模型,但这个网站已经被墙了,因此你需要自己想办法绕过。这里我以Qwen 1.5-7B为例。虽然这个模型只有7B,但是经过我测试,它已经相当不错了。

当你第一次运行LM Studio时,上图箭头指向的地方应该是一个绿色的Download按钮,点击就可以下载。5.53GB,很快就下载完成了。如果你想下载其他的模型,可以直接在第一张图的搜索框进行搜索并选择合适的大小下载。

下载完成以后,我们进入LM Studio的聊天页面,如下图所示。

在顶部选择你刚刚下载的大模型,就可以开始对话了。下面这个视频,是我使用macbook Pro M1的运行效果,可以看到速度还是很不错的。

这里有一个视频,由于少数派不支持直接上传视频,因此请点击:查看视频

在右侧的设置中,还可以定制System Prompt,调整最大允许的Token长度,或者勾选mac是否使用GPU加速等等。

LM Studio最强大的功能,是可以直接基于你选定的大模型生成一个API接口,这样一来你就可以写Python代码来调用了。

在最左侧点击左右箭头的按钮,打开Local Server功能,如下图所示:

你基本上不需要做任何修改,直接点击Start Server按钮,就可以启动接口。然后从它给出的示例代码中复制Python代码。

我们以《一日一技:自动提取任意信息的通用爬虫》这篇文章中讲到的使用GPT从Linkedin源代码中提取招聘信息的例子来演示。但把GPT 4换成了Qwen 1.5-7B.代码如下:

提取出来的结果如下:

{   "title": "Data Analyst, Data Operations",   "full_time": "Full-time",   "employee_num": "10,001+ employees",   "level": "Entry level",   "skill": [      "Data Analytics",      "数据工程",      "Python",      "SQL",      "ETL pipeline",      "Linux command",      "数据分析",      "问题解决"   ],   "desc": "We are seeking a Data Analyst to join the Data Operations team for Autonomous Vehicles software development. The role involves building metrics, tools, and driving efficiency in data-driven decision-making.",   "company": {      "name": "NVIDIA",      "location": "Shanghai, Shanghai, China",      "size": 10001+,      "description": "A leader in accelerated computing, NVIDIA is a full-stack company reshaping industries with data-center-scale offerings.",      "commitments": [         {            "area": "Diversity, equity, and inclusion",            "description": "The company has an allyship program and strives for pay parity"         },         {            "area": "Career growth and learning",            "description": "NVIDIA supports career development with various opportunities for learning and skill enhancement"         }      ]   },   "do": [      "Build metrics, track data loop operations, propose data mining strategies, develop automation tools, and analyze opportunities for improvement"   ],   "requirement": [      "BS or MS in STEM or related field, 4+ years of experience in data engineering/data analytics",      "Proficient in Python, SQL, and ETL pipeline",      "Excellent analytical and problem-solving skills"   ],   "goodpoint": "Experience in autonomous vehicles domain or startup environment is a plus"}

这个提取结果跟GPT 4 Turbo的提取结果比起来,几乎是一样的。虽然有一些小小的瑕疵(company字段被擅自增加了嵌套字段),但这只是一个小小的7B模型,并且运行在一台小小的笔记本上面而已。而且完全免费。这样的瑕疵是完全可以接受的,并且可以通过一些工程手段来修复。如果你的显卡更高级,你可以试一试使用Qwen 1.5-14B甚至Qwen 1.5-72B,效果肯定会更好。

需要注意的是,Qwen 1.5-7B毕竟是国产大模型,针对中文做了大量的优化。因此如果你希望结果保留英文,就尽量使用英文的Prompt。否则它会擅自把提取结果翻译成中文。如果你需要处理的内容包含大量英文,你可以考虑使用LLama的最新大模型,而不是国产大模型。

总结一下,使用LM Studio,你可以立刻拥有一个完全属于你自己的大模型。运行在你自己的电脑上,没有隐私问题,没有网络问题,可以自由定制,而且完全免费。还能一键开启API,兼容openai库,从而自己写代码开发更多基于大模型的功能。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

LM Studio 开源大模型 离线运行 Qwen 1.5 LLama
相关文章