原创 云中江树 2025-01-28 21:29 江西
DeepSeek 杀疯了,
除夕日这家国产AI登顶了各大国家的应用榜第一
连美国总统特朗普都惊动了
万万没想到,GPT-4 发布之后不到2年,
中国在AI领域就实现了追赶甚至反超!
下面的图里,
蓝色就是 deepseek 的 R1 模型的指标,
和最强的o1(灰色)比也不相上下!
目前最好用的AI,没有之一
为什么说它是最好用的AI?
✅ 完全免费,不用充值200刀
✅ 不用翻墙,国内直接用
✅ 中国用户可注册,不会封号
✅ 智能理解需求,不用写复杂提示词
✅ 不限量使用
✅ 代码和写作能力顶尖
回答效果不输 o1
歪果仁用了都说好!
Hacker News 上的老哥盛赞:
比 ChatGPT,Claude, Gemini 都好用!
怎么用?
访问官网:https://chat.deepseek.com/或直接搜索下载 DeepSeek APP
使用要点:
记得开启深度思考模式
直接用自然语言表达需求
告别繁琐的提示词工程
提示词怎么写?
直接聊!
o1 出来的时候感觉不怎么要写提示词了,
但是一个月一千多的订阅费是真的贵啊!
DeepSeek 直接,免费用!免费用!
这回是真的把提示词工程干死了!
如果你对 DeepSeek 和 GPT O1 这类推理模型的原理感兴趣,
推荐你看下面我在 AIGCLink 开发者大会上关于 o1 的分享。
2024 年度总结:提示工程的终结和新生
这是我在中国AIGC开发者大会上的分享 PPT 和逐字稿,
希望这是我最后一次关于提示工程的分享。
我是云中江树,
非常荣幸能与大家相聚在AIGC开发者大会,
共同探讨一个热点话题: 提示工程。
我今天的分享主题是:
“提示工程的终结与新生:从过程到目标”。
过去 1 年,
我们见证了AI技术的飞速发展,
尤其是以 GPT-o1 为代表的大语言模型,
揭开了大模型发展和应用的崭新一页。
今天,我将从
“提示词的变化”、
“o1 带来的提示范式转移”、
“复刻o1”
“智能体的四个层次”
等四个方面,与各位分享我的思考。
第一部分:提示词变化
近期,我们见证了提示工程领域的深刻变化:
提示词变得越来越简单,但效果却越来越好。
这背后反映了提示工程领域的巨大进步,
特别是 GPT o1 推理模型带来的范式转移。
之前的提示工程,像编写程序一样繁琐:
需要详细步骤、固定格式、反复调试,
甚至大量的人工干预。
但如今,随着模型能力的跃升,
提示词越写越简单,却越来越有效。
例如,
GPT-o1只需一句话就能生成“咪蒙味”文章,
而GPT-4o要复杂的提示词生成咪蒙风标题。
如果要总结一下提示工程的原则,
我觉得李继刚提的乔哈里视窗总结的很好:
人知道,AI知道:“简单说”;
人知道,AI不知道:“喂模式”;
人不知道,AI知道:“提问题”;
人不知道,AI不知道:“开放聊”;
通过平面直角坐标系来建模有几个问题:
各区域的大小关系体现不准确
各区域的变化关系不准确
因此,我更喜欢用韦恩图来说明各个部分。
有一点很重要的是
如今,以GPT-o1为代表的模型,
正快速填补“人已知而AI未知”的空白区域,
让协作效率成倍提升。
对个人来说,
个人已知而AI未知的区域正在萎缩,
人未知而 AI 已知的区域正在快速扩大。
也就是说:AI 正在变得比专家还要聪明
原来的 AI 不如专家,需要人工拆解任务
现在的 AI 比专家还厉害,只需要提需求
传统的人工拆解任务的“过程导向”正转变为
只需清晰描述结果的“目标导向”。
面向过程的提示法已变成面向目标的提示法
这种面向目标的提示方法的公式是:
必要信息 + 清晰目标 = 高质量输出。
举个例子:
若需一份市场分析报告,
只需提供销售数据、竞品信息,并明确
“趋势分析”“客户特征”“差异化建议”三大目标,
AI便能自主规划路径,生成专业内容。
第二部分:GPT-o1 提示词四大原则
根据 GPT O1 的官方资料,
GPT-O1的提示词有四大核心原则:
原则1:简单直接
第一个原则是"简单直接"。
现在的提示词不需要复杂冗长,
我们只需编写简洁明了的提示语,
直接告诉模型我们想要什么,
它就能产出最佳结果。
原则2:无需显式思维链
与早期模型不同,
O1模型具备强大的推理能力。
我们不必手把手告诉它每一个思考步骤,
它能够自主进行推理并执行任务,
这大大简化了我们的工作。
原则3:结构化表达
这里我们推荐使用markdown、
XML标签等结构化格式来组织提示词。
为什么要这样做呢?因为结构化的格式
不仅能提高模型理解的准确性,
还方便我们后期进行故障排查。
原则4:“展示”而非“指导”
这是一个很有意思的原则:
我们不需要事无巨细地指导模型,
而是通过提供相关的上下文示例,
帮助模型理解任务的广泛领域。
这就像是我们在教学生一样,
给他们看例子比直接告诉他们答案更有效。
来看一个具体的例子。
这里我们展示了三个版本的五言诗创作过程。
左边是GPT-4o在描述不详细时的结果 - 可以看到,结果并不理想。
中间是GPT-4o在详细描述后的结果,虽然正确但显得过于复杂。
而右边是GPT-01的表现 - 只需一个简单的描述"写一首五言诗,主题:开发者大会真棒",就产出了优质的结果。
这个例子完美诠释了我们刚才讲的第一个原则:"指明任务,简单直接的表述即可"。
过于详细的描述反而会干扰模型发挥。
再来看第二个例子,
这次是关于字符统计的任务。
这个例子很好地展示了"无需思维链"的原则。
我们可以看到,当让GPT-4o直接回答"strawberry中有几个r"时,没有思维链指导的结果是错误的。
但是GPT-01即使没有思维链指导,也能得出正确答案。
而GPT-4o在有了思维链指导后,虽然也能得到正确答案,但过程显得繁琐。
新一代的语言模型已经具备了强大的自主思考能力,我们无需再使用"Think step by step"这样的表述,也不需要指明完成任务的具体步骤。
模型会自行思考如何最优实现任务目标。
第三部分:复刻 o1
让我们深入了解O1模型的工作流程。
O1的工作方式与传统模型有根本的不同。
首先,
O1模型采用"先思考,后回答"的工作模式。
这意味着它不会立即给出答案,
而是会先进行推理分析。
我们看右边这张图,
每个Turn中都包含了Reasoning(推理)
和Output(输出)两个关键步骤。
具体的工作流程可以分为六个步骤:
问题分析: 模型首先理解与重构用户的问题
任务分解: 复杂问题拆分成可管理的子任务
系统执行: 按照步骤化的方式解决问题
方案优化: 探索最优的解决方案
自我评估: 验证结果的准确性
自我纠正: 必要时进行错误修正
这个流程保证了输出结果的质量和可靠性。
右边的示意图展示了模型
如何在128k tokens的上下文窗口中,
通过多轮交互来逐步完善答案。
它们能够自动拆解任务,逐步解决问题,最终生成高质量的结果。
我们来看看如何用开源AI模拟O1。
这对我们理解和应用O1模型非常重要。
首先看左边的系统提示词。
它明确规定了几个关键要求:
你是专业的AI助手
需要逐步解释推理过程
使用JSON格式回应
包含title(标题)、content(内容)和next_action(下一步行动)三个关键字段
右边是一段模拟O1工作流的伪代码,
它展示了完整的思考过程:
问题分解: 将复杂问题拆解为子任务
方法选择: 确定最适合的解决方案
推理过程: 执行详细的思考步骤
结果验证: 验证推理结果的准确性
替代方案: 探索其他可能的解决路径
这个思考框架确保了每个步骤都是透明的、
可追踪的,
而且包含了明确的推理过程和决策依据。
第四部分:思考与展望
从更宏观的角度来看,
我们正在经历一个范式转移:
从"面向过程"到"面向目标"。
以大模型为基础的应用可以分为五个部分,
除去底层的模型,
用广义的智能体定义来看
可以将智能体划分为四个层次:
提示词工程(Prompt)
链式调用/工作流(Chain/Flow)
AI智能体(AI Agent)
多智能体系统(Multi-Agent)
未来的工作范式
将从“人为中心”转向“AI为中心”,
系统架构将从“面向过程”转向“面向目标”
提示工程的“终结”,并非消失,
而是蜕变为更自然的交互方式。
当AI能理解意图、自主规划时,
我们的角色将从“程序员”转变为“目标指挥官”。
最后,我想用一句话总结今天的分享:
“最好的提示词,是让AI忘记提示词的存在。”
如需进一步交流,
欢迎通过微信公众号“云中江树”与我联系。
感谢大家的聆听!
最后
2025年,我们正站在AI发展的新起点。
愿我们既能拥抱技术变革,
也始终保持探索的热情,
在这场AI革命中找到属于自己的位置。
新年快乐!