原创 Ace人生 2025-01-26 13:03 浙江
AI的可信性如何构建?
祝大家新春快乐,蛇年?大吉?!
1.本周大家一定都被DeepSeek的R1刷屏了。在模型端,它提供了与OpenAI o1匹敌的推理能力;在产品端,它通过“深度思考”功能向用户详尽展示了AI的思考过程,非常惊艳:
2.其他AI聊天机器人也快速跟上,比如Kimi快速上线了“Kimi1.5 长思考”版本,功能类似:
3.大模型们争先恐后地卷“长思考”能力,说明:(1)在训练端,模型已经达到了平台期,向上突破的难度大,代价高,投入产出比变低了;因此开始转向,向推理端要增长。(2)大家争先恐后地展示“长思考”能力,旨在show肌肉,构建自家的技术品牌。特别是DeepSeek,在短短一个月内:通过V3的发布,用自己极致的工程能力震了AI界一次;通过R1的发布,用创新的路线再次震了AI界。妥妥“双赢(赢了两次)”,构建了强大的技术品牌。
4.“长思考”能力,准确说是“向用户展现完整思考过程”的功能,我觉得对AI产品意义重大,它给用户释放的核心体验是:信任感,或者说可信性。在此之前,大语言模型对用户来说是一个神秘的黑盒,是一个常常产生幻觉、不可靠的存在。伴随着通用人工智能或者超级人工智能会替代人类、接管人类这类科幻般、充满阴谋论的言论甚嚣尘上,人们对AI充满了质疑。而当AI能将自己的思维过程展示给人类时,这种不信任感会大大降低。就像三体人一样从不骗人,因为他们的心思毫无遮掩,想法无所遁形,对所有人袒露,一切都是阳谋。这对应着人类的“诚实”这个基本的美德:所想和所说一致。
5.在Agent的发展中,“向用户展现完整思考过程”会更加重要。因为Agent不仅要想,要说,还要做:它们会直接通过行为来与现实世界互动。人们此前对它们的安全担忧比单纯的LLM更甚;而随着它们的思维过程对人类的开放,人们可以采集、监控这些想法,并通过其行为和想法的一致性的审计,来确认AI的安全性。
6.另一个增加人们对AI信任感的功能是“联网搜索”,这是Perplexity这样的AI搜索产品的核心。当AI能给出答案的引用来源时,人们会相信它这次回答不是幻觉,就像写论文引经据典会增加观点的可靠性一样 。通过知识的溯源,AI可以展现人类理性的另一个美德:“求真”。从而极大提升了AI的可信性。
7.可以沿着“诚实”“求真”这条人类美德构建信任体系的思路,进一步探索谦逊、责任、同理心等因素在构建可信AI中的作用和技术落地,这是一个有意思的、可以探索的方向。
8.AI思维过程的可视化,还有另一个作用:普通人可以学习AI的思维框架,从而提升自己的思维能力。我在【AI实践】DeepSeek-R1:AI教我如何思考 中尝试采集了一些问题和R1的思考过程数据,然后让R1去分析自己的思考过程,想要从中获得对我自己有启发的思维能力提升点。这个初步的尝试已经非常有收获,让我窥探到了AI思维的大致框架,后续会采集更多的数据,进一步分析。