最近这几个月,看了不少关于如何使用高级复杂提示词,以及选用大模型的技巧
基本都是完成一个目的:如何在使用者没有认知的情况下,让大模型输出听起来很有认知的语句
也的确有一些人拿到了结果(就算没赚钱,起码流量还是有)
但我还是觉得这个事情不对,功夫用错地方了
实际上,如果你把一篇有认知、有反常识结论、有深度思考的半成品稿子发给 AI
AI 是可以非常轻松地给你补全一个升华结尾的,而且非常有 insight(至少看起来是这样)
不需要 o3、opus 这些模型,就基础的 claude 3.5、gpt 4 都可以实现,也不需要任何提示词技巧
你的稿子本身就是最好的提示词
那么问题就转化为:怎么才能有认知?
我的答案是:把自己没搞清的问题都回答清楚,而且是按层次回答清楚
【第一层:表象问题】
为什么我的内容没有获得预期的流量?
【第二层:认知偏差】
为什么我会误判内容的传播潜力?
【第三层:思维模式】
我的创作动机是自我表达还是服务受众?
【第四层:底层假设】
我是否默认了"深度=价值"这个未经验证的假设?
【第五层:元认知盲区】
为什么我意识不到自己的认知偏差?
【第六层:系统性根因】
我的学习系统是否存在结构性缺陷,导致我总是强化错误的模式?
【最深层:存在性追问】
如果没有外部反馈,我还会坚持创作吗?
------------
实际上,上面这 7 个问题,就是 AI 写的
在我写了半成品文稿之后,让 AI 完成这 7 个问题是毫无压力的
但是如果没有半成品稿子,你要通过提示词技巧去完成这件事,我觉得这是人类使用工具的一段弯路