cnBeta全文版 07月21日 11:47
“开源模型验货官”Perplexity 给Kimi K2盖了个戳
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Perplexity 宣布将 Kimi K2 纳入其模型体系,标志着其在 AI 搜索领域对开源模型的战略性依赖与自研能力的飞跃。Kimi K2 以其卓越的解码速度、低延迟以及原生 Agent 能力,完美契合 Perplexity 对“30分钟自主研究”等核心产品功能的设想。相较于之前的 DeepSeek-R1,K2 在性能和成本上均有优势,且其“模型即 Agent”的理念,通过预训练阶段的百万级合成 Agent 任务训练,能够自主完成复杂的任务编排和工具调用,实现零人工干预的端到端报告生成。Perplexity 从依赖 GPT 模型到拥抱并自研开源模型,如 Mistral-7b、LLaMA 2-70b、Code Llama-34B,再到 DeepSeek-R1 的关键跳跃,以及对 Kimi K2 的最新选择,充分体现了其在成本效益、性能表现和特定产品需求之间寻求最佳平衡的策略,也使其成为开源模型能力的重要评判者。

🌟 Kimi K2 的引入是 Perplexity 模型选型的重要里程碑,其卓越的解码速度(1200 token/秒)和低延迟特性,远超 GPT-4.5,能够满足 Perplexity 对用户体验至关重要的实时响应需求,尤其是在应对十倍峰值请求量时,确保用户等待时间不超过两秒。

🚀 Kimi K2 的原生 Agent 能力是其核心亮点,通过在预训练阶段集成数百万条合成 Agent 任务,模型能够自主拆解、调用工具(如 Python、SQL、浏览器等)并执行代码,实现复杂任务的连续编排(16-20步操作),如演示中通过16次IPython调用完成13万行数据的清洗、建模、绘图及交互报告生成,完美契合 Perplexity 的“30分钟自主研究”产品愿景。

💡 Perplexity 从依赖闭源模型转向拥抱开源模型并进行深度自研,体现了对完整控制权的追求。拥有模型权重使得 Perplexity 能够自由进行 LoRA、RLHF 等优化,解决闭源模型的调用限制、并发上限和隐私合规问题,构建完全私有化的“模型-索引-工具”三层架构。

📈 Perplexity 的模型选型策略是“择优而用”,从 Mistral-7b、LLaMA 2-70b 到 DeepSeek-R1,再到 Kimi K2,每一次选择都基于对成本效益、性能表现以及特定产品需求的综合考量。这种策略不仅推动了自身技术发展,也使其成为衡量开源模型在真实产业环境应用潜力的重要风向标。

💰 Kimi K2 在 vLLM + FP8 实测中,其 MoE 架构仅激活32B参数,在相同硬件下输出速度比 R1 快一倍,且单位成本更低,实现了高并发场景下经济与性能的最佳平衡,这对于需要处理海量用户请求的 AI 搜索平台至关重要。

Perplexity 每一次纳入新模型,都是很强的信号:这一次,亮的是 Kimi K2。7 月 13 日,Perplexity 联合创始人兼 CEO Aravind Srinivas 在 X 上发布消息:“Kimi K2 的内部评测结果非常惊艳,我们很快会启动 post-training。”


Perplexity的站台,让K2在开源社区的热度继续飙升,这种盛况并不陌生——上一次出现类似的轰动效应,正是Perplexity宣布选择纳入DeepSeek-R1的时候。

这背后反映出一个有趣的现象:对于全球开发者来说,Perplexity用不用某个开源模型,实际上已经演变成了一个重要的风向标。它所指向的,不仅仅是技术优劣,更是开源模型能否经受住真实产业环境考验的关键信号。

AI搜索是离“真实世界任务”最近的试炼场,而Perplexity对模型的需求远不止“便宜”这么简单。

Aravind曾在Reddit上解释为什么没有接入GPT-4.5:“GPT-4.5的解码速度只有11个token/秒,相比之下,4o是110个token/秒(快10倍),我们自己的Sonar模型是1200个token/秒(快100倍)。这导致用户体验不佳,因为他们期望快速、准确的答案。”


换句话说,实时响应和低延迟是选型的生死线。Perplexity的峰值请求量可达日常十倍,任何超过两秒的等待都会显著降低用户体验。在vLLM + FP8实测中,K2的MoE架构仅激活32B参数,在相同硬件条件下输出速度比R1快一倍,且单位成本更低,这正是高并发场景下经济与性能的最佳平衡点。

今年4月,Aravind预告了Perplexity的系列新功能,他强调这不是简单的产品改动,而是底层模型的重构:“我们需要重写基础设施才能大规模实现。”

他描述的核心功能是更强大的深度研究代理,能够思考30分钟或更长时间,“包括工具使用、交互式和代码执行功能,就像Manus等最近的原型所展示的那样。”

这本质上是一个纯Agent模式:给定自然语言需求,模型必须自主拆解任务、调用工具、执行代码,最终生成完整报告。这种能力恰好与Kimi K2的“模型即Agent”理念完全对齐——K2不是把Agent能力当作后训练插件,而是在预训练阶段就将原生Agent技能刻入权重。

K2在训练阶段引入了数百万条合成Agent任务,覆盖搜索、浏览器、日历、Python、SQL等17种真实工具调用场景。模型学会在单一会话内连续编排16-20步操作,无需人类编写工作流。官方演示中,K2用16次IPython调用将13万行原始数据完成清洗、建模、绘图并输出交互网页报告,全程零人工干预——这直接对应Perplexity设想的“30分钟自主研究”。

当然,选择开源模型的更深层原因在于完整的控制权。拥有完整权重意味着Perplexity可以任意进行LoRA、RLHF、工具蒸馏,无需担心调用频率、并发上限或隐私合规问题。K2采用MIT改协议,月活低于1亿即可商用,Hugging Face直接提供fp8/fp16全套权重,128K上下文窗口足够一次性处理整份财报。对Perplexity而言,这意味着“模型-索引-工具”三层架构可以完全私有化,不再受任何闭源条款约束。

Perplexity 在其发展过程中,逐步从依赖 OpenAI 的 GPT 模型转向使用开源模型,并在此基础上进行了自研和微调。

2023年下半年,Perplexity 宣布推出两款新的“pplx-7b-online”和“pplx-70b-online”,分别基于开源模型 Mistral-7b 和 LLaMA 2-70b 构建。“我们从LLaMA-2发布之日起就开始使用开源模型,”Aravind Srinivas说道。

从模型特点来看,Mistral-7B以轻量化和高速度成为早期尝试,验证了小模型在特定任务的可行性;Llama-2-70B提供了更广的知识覆盖面;随后,Perplexity还采用了Code Llama-34B,补强了代码相关的垂直能力。

真正的转折点出现在2025年2月,DeepSeek-R1让Perplexity完成了从“使用开源模型”到“基于开源模型自研”的关键跳跃,获得了完整的权重控制能力。而后,Perplexity又继续深度调优Sonar模型,展现了自研能力的成熟,专门针对搜索问答场景进行优化。

如今选择Kimi K2,正是这一战略的最新体现——不仅在速度和成本上优于R1,其原生Agent能力更完美契合了“30分钟自主研究”的产品需求。

综合来看,Perplexity的模型选型必须在高性价比与高性能之间找到平衡,同时满足特定的产品需求。由于目前尚无开源模型能完全达到其标准,Perplexity只能阶段性地选择最优解,这种“择优而用”的策略反而让其成为了开源模型能力评判的重要风向标。

查看评论

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Perplexity Kimi K2 开源模型 AI搜索 Agent
相关文章