原创 李继刚 2025-05-03 09:00 北京
盲人摸象,持续接近真相。
输入
即刻
品牌之品,乃人品、作品、产品。三品由一词贯穿,乃品牌之牌。
@ChatV
成长看得见:育儿的 10 个量化指标
想提高什么就衡量什么,想衡量就要有可量化的指标。
有量化,提没提高就清清楚楚;无量化,一切都是模模糊糊。
在育儿这件事上,可以量化什么?
上面这段总结,始于最近一件事。我家娃从小就喜欢写字、画画,连出去旅游也要带上纸笔,从 1 岁到 5 岁,每个月至少要写 500 张 A4 纸。但我们也没觉得他画画厉害。
前段时间,幼儿园搞活动,班级老师让他画几张画布置教室,然后又被其他几个班老师轮流请去帮忙画。我这才发觉,每天不起眼的积累,在这一刻看出不一样了。
育儿没有奇迹。量变引起质变,没有一定的数量积累,质变也无从谈起。事情做没做,是因;成绩好不好,是果。作为家长,我用心引导孩子去做,但对结果不强求。因上努力,果上随缘。日拱一卒,功不唐捐。
@ChatV
为什么写真正精确的提示词如此之难?
我们来看一个问题—— “中国历史上有多少个皇帝?”
这个问题够明确了吧!
但你这样去问 AI,再强大的 AI 也不可能给你一个确切的数字。
原因在于——
……..
当以上问题都不明确时,中国历史上的皇帝数量在 200+到 500+这个落差极大的范围类飘忽不定。
而归根结底在于——问题中看似非常明确的“中国”、“历史”、“皇帝”这三个词都是一个模糊的概念。
它们各自在大模型的语义向量空间中是发散的,而非收敛的。
所以,提示词的精确永远是一个相对的概念,这是由自然语言本身的特点决定的。
从这个意义上,写提示词的艺术并非追求绝对的精确,而是在注定的灰度中寻找足够清晰的边界。
我个人的一个强烈体会是:AI 给的答案往往不一定能符合预期,但它经常能提醒我更深刻地思考我提的问题本身。
@卫夕
出路
做培训,最重要的一件事是为学员想清楚“出路”。
有出路,学员学了,要么在职场上赚到钱,要么在市场上赚到钱。
对于教练来说,学员有出路,意味着三点:学员有钱买高客单的产品,学员愿意转介绍,有成功案例拿来宣传。
这样,不仅培训可以持续,还可以推出高客单产品。
如果没有出路,一直学,但是没有成事,也没有赚到钱,教练也没有成功案例宣传,培训就越做越难,可能做个几期就停了。
为学员想清楚出路,既是对学员负责,也是为自己持续做下去着想。
普通人的出路从哪里来?
中国人多,但凡可以赚钱的地方,你跑过去一看,都有一堆人在做,而且往往有几个巨头。越是成熟的行业,越容易被垄断,普通人的机会越少。
这些行业,培训针对的大多是职场技能,因为大多数人都在职场上班,单干赚钱的机会少。
中国改开这 40 多年,走过了西方一两百年的发展过程,这就意味着加速,意味着变化。在这种情况下,不断有新事物出现,或来自国外创新启发,或来自本土市场竞争,或来自央地政策推动。
每一个新事物出现,就有一个热点,此时,这里混沌初开,一片空白,才有普通人抓住红利,逆袭改命的机会。每一个热点出来,就有一片钻进去淘金的,也有在周围卖水卖铲子的。
为什么赚钱培训,往往都盯着热点?因为热点意味着普通人的出路。不管是以前的蓝翔挖掘机、新东方厨师、北大青鸟计算机,还是现在的私域、小红书、AI,之所以火,因为它们都是普通人的一条条出路。
@ChatV
强烈的个人风格其实不只需要聪明还需要勇气。
@julian.
宇宙的运行规则之一
——收益就是你创造的东西对世界影响力的占比
@Aretha.
为什么 AI 生成的 PPT 永远给你一种“正确的废话”的感觉?
因为当前 AI 只能重组现有知识,即“有中生有”。最终往往是数据集里各种结论的“平均数”。
人能跳过二手资料,直接分析原始数据,结合自己数十年的经验,产出新的知识,即“无中生有”。
当然,写 PPT、写文章、写视频脚本,这些任务看似简单,实际非常难。归根结底,我们想看的是“新知识”,而不是现有知识的组合搭配。
@Zero 君聊 AI
关于 MCP 的几个理解误区:
误区 1:MCP 协议需要大模型支持
MCP 全称模型上下文协议,是为了在用户与大模型对话过程中,补充上下文信息给大模型,让大模型更准确的回答用户提问而设计的。
在 MCP 出来之前,有多种方式可以实现上下文信息的补充,比如:
理解了给大模型补充上下文的原理,就可以知道,MCP 的本质,是指导应用层,如何更好的补充上下文信息给大模型。
模型收到回复提问请求时,MCP 工作已经完成了。
结论:MCP 协议不需要大模型支持,哪怕你使用古老的 gpt-2 作为问答模型,依然可以使用 MCP 协议补充上下文信息。
误区 2:只有支持 Function Calling 的模型才支持 MCP 协议
聊 MCP 协议,必须要理解 Function Calling 机制。
基本流程是应用层传递一堆工具给大模型,大模型意图识别,做一次 Pick Tool 操作,返回应该调用的工具名称和调用参数,再由应用层发起 Call Tool 操作,拿到结果重新给到大模型回答。
Function Calling 这套机制下有三个角色:应用、资源方、大模型。
两个核心步骤:Pick Tool 和 Call Tool。
MCP 协议定义了三个角色:主机、客户端、服务器。
跟 Function Calling 机制相比,MCP 协议相当于是把 客户端-服务器 作为一个黑盒。
整体视角看,MCP 协议有四个角色:主机应用、黑盒(客户端-服务器)、资源方、大模型
主机把请求给到客户端,客户端请求服务器,服务器对接资源方,主机最终得到黑盒返回的结果,作为补充上下文给到大模型回答。
Function Calling 是应用直接对接资源,MCP 是应用通过黑盒对接资源,对接更加标准化,资源接入成本更低。
Function Calling 是应用直接定义一堆工具,MCP 是应用从 MCP 服务器获取定义好的工具,应用无需重复编码。
涉及到工具调用的环节,MCP 与 Function Calling 的交互形式一致。都依赖大模型的 Pick Tool 能力。
所谓的大模型支持 Function Calling,是指大模型在 Pick Tool 环节,有更好的理解和推理能力,最终能返回更加准确的 Tool 和参数。
不支持 Function Calling 的模型,依然可以通过提示词工程实现 Pick Tool。只不过准确度不如支持 Function Calling 的模型。
结论:不支持 Function Calling 的模型,依然可以使用 MCP 协议补充上下文信息。
误区 3:大模型原生支持 MCP 协议
所谓的大模型原生支持 MCP 协议,正确的理解应该是大模型内化了 MCP 协议的定义,并且内置集成了大量基于 MCP 协议定义的工具。
当接到用户提问时,应用即使不给大模型传递任何工具,大模型依然可以基于内化的工具列表进行推理,返回应该调用的工具名称和调用参数给应用。
事实上,互联网上的资源是千差万别的,意味着对接资源的 MCP 服务器及其内部的工具是海量的,不可枚举的。
另一个关键点是,某些资源是私有的,需要用户鉴权的,大模型训练时不可能内化用户的鉴权凭证。
从这个角度来讲,大模型内化 MCP 协议下的海量工具,不现实也不可能。
某些模型厂商,也许是为了蹭 MCP 的热度,某些自媒体,也许是对 MCP 协议理解不到位,宣称某大模型原生支持 MCP 协议。
其实要表达的意思,也许只是,在随大模型一起发布的某个 agent 框架里面,加上了对 MCP 协议的支持。
结论:大模型原生支持 MCP 协议,这种说法是不专业的。大模型现阶段不可能原生支持 MCP。
本人认知有限,也许会有理解偏颇之处。欢迎补充交流。🙂
@艾逗笔
书
本周推荐书籍《解析物理的十层之旅》([马来西亚]柯家浚著)。
一本物理科普书。作者对光,物质,能量,原子,做了认知梳理,每个都划分了十个层次的认知。
里面的数学公式以及作者所说的「这个很简单」「显而易见」的物理专业内容,都跳读过去,依然很喜欢这种十个层次,逐渐深入,接近本质的讲解方式。
输出
盯着问题,不要盯着解决方案。
过去几年收益最大的一个习惯:
给自己设定一个问题,用三年时间不断更新自己对它的答案。
希望将来的自己,心可以再定一些,能设定「十年时间」来探索「那一个」问题。
复杂是思想混乱的结果。
复杂是果,不是因。
想清楚了,自然就会呈现出「简单」。
成功是全面的合格,失败是某个环节的不及格。
冲突见人品。
冲突像是背景板,局中人的性情在其中突显。
以前是身体散步,
后来是思想散步,
现在是在 ai 的空间中散步。
雨像乐手。万物皆为乐器。
如果能抛离因雨带来的出行不便之愤闷,认真听雨在拨弄,敲打万物的声音,一场雨,可不就是交响乐吗?
所谓理解,即可做出正确的预测。
我拥有一项〝超能力〞,接近我,会随机掉落一本好书。