虎嗅 04月22日 11:18
Deep Research类产品深度测评:下一个大模型产品跃迁点到来了吗?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文对Google、OpenAI、Perplexity、xAI、Manus五款Deep Research产品进行测评,涵盖在线检索、数据分析、编程、文献分析、路线设计和报告输出等多个维度。结果显示,OpenAI在长尾内容检索和报告输出方面表现出色,Manus在编程能力上具有优势,而其他产品在不同任务中各有优劣。文章总结了Deep Research作为Agent产品初代形态的现状,并展望了其未来的发展方向。

🔍 在线检索能力测评中,OpenAI表现突出,能够准确检索到冷门电影和最新书籍,展现了其强大的信息获取能力,而其他产品在信息检索的准确性上存在不足。

📊 数据分析能力测试中,五款产品均未能成功计算出Tesla财报的因子,显示出在数值计算和数据处理方面的局限性。OpenAI和Manus在计算对象准确性上表现相对较好,但计算结果仍存在偏差。

💻 编程能力方面,Manus是唯一提供了完整项目文件并顺利运行网页的产品,其在功能和美观性上均达到合格线,展现了较强的编程能力。OpenAI次之,而Google、xAI和PPLX在编程任务中表现较差。

✍️ 在指令遵循方面,五款产品在文献分析任务中的表现均有瑕疵,对指令的执行力不一。xAI在字数控制上表现稳定,而OpenAI、Google和Manus在内容逻辑和字数体例方面存在问题。

🗺️ 旅游路线设计任务中,xAI表现不佳,而Google、Manus和OpenAI的方案较为完善,但在交通可行性上仍有不足。OpenAI的方案在购物需求方面考虑更全面。

📈 在报告输出能力方面,OpenAI的分析视角和行文风格最具专业性,而Manus在分析维度和图表意识上具有优势。Google在报告输出方面表现较差,分析观点不明确。

从2024年末问世的Google Deep Research,到2024年2月以来密集发布的OpenAI Deep Research、Perplexity、xAI Deep Search、Manus,Deep Research成为各家Agent产品角逐的白热化赛道。

Deep Research产品可被理解为一个以大模型能力为基础、集合了检索与报告生成的端到端系统,对信息进行迭代搜索和分析,并生成详细报告作为输出。

参考Han Lee的2x2分析框架,目前Deep Research类产品在输出深度、训练程度两大维度呈现分异。输出深度即产品在先前研究成果的基础上进行了多少次迭代循环以收集更多信息,可进一步被理解为Agentic能力的必要基础。低训练程度指代经过人工干预和调整的系统,比如使用人工调整的prompt,高训练程度则是指利用机器学习对系统进行训练。

和传统LLM Search产品相比,Deep Research是迈向Agent产品雏形的一次跃迁,可能也将成为具有阶段代表性的经典产品形态。

Deep Research产品通过系列推理模型嵌入,已生长出了Agent产品必要的推理能力。

更为关键的是,是Deep Research采用多次搜索和异步返回模式,在持续搜索过程中迭代和优化回复,从而输出更符合用户需求的内容,信息推理深度显著提升。这一自主计划、反思、行动的落地,是Agent路线图中必须迈过的一级阶梯。

一、测评对象

为描画当前Deep Research产品版图,厘清主要产品的能力层次,本文选取Google Deep Research、OpenAI Deep Research、Perplexity、xAI Deep Search、Manus五个产品进行测评,主要维度比较如表1所示。

表1测评产品比较(信息截至2025年4月)

从这一比较不难发现,除Google、xAI以外,迄今其他三家产品均支持图片等多模态输出。

考虑到目前公开性能表现有限,包括Hugging Face、JINA等团队自行的开源复现项目,并不在此次测评对象之中。

二、测评任务

本文锚定“Agent能力+产品核心能力”任务框架设计,聚焦Tool Use、Instruction Following、Memory三大维度的Agent能力,以及报告输出能力这一Deep Research的核心性能,对五大Deep Research产品进行评估。

需要指出的是,Memory没有进入到最终的任务域。主要原因在于,经多任务测试,Deep Research的自动联网检索构建了一个“后门机制”,即使向其投喂长文,它也可以通过联网检索获得精炼信息,从而绕过用户给定的长文context。因此,目前难以通过长文prompt有效评估其memory空间。

本文最终的“2+1”任务设计选取遵循“代表性案例”思路,完成各任务的主要能力可被视为Tool Use、Instruction Following等“代理变量”,二者并非严格对应关系。在不同能力维度统摄下,分别设计了任务场景如下。

Tool Use

在线检索能力:小众内容定位

小众内容检索反映出模型处理在线信息“长尾效应”的综合能力,亦是ODR团队访谈中提到的优势任务,如Josh Tobin所言:“当你有一个需要详细描述的问题,而且获得最佳答案需要大量阅读互联网内容时,Deep Research真的特别擅长。如果你提出一个比较宽泛的问题,它会帮你理清楚具体想要什么。但它最出色的表现是在查找特定信息时。”

Task 1冷门电影检索

本文参考IMDb观影全球评论数,选取了一部冷门电影,截取了电影中非关键帧场景,对其进行简要描述,逆向检索电影名称,从而评估Deep Research产品是否能依据有限信息,通过外部网页检索,准确定位到长尾内容。

Task 2最新书籍检索

考虑到测试内容可能在模型训练集中出现,为提升测评信度,本文设计了最新出版书籍的检索任务,选取了于2025年4月刚出版的经济学书籍《Startup Capitalism New Approaches to Innovation Strategies in East Asia》,并使用书中使用的理论框架和案例提供线索,再次检测产品的检索能力。

数据分析能力:基于财报的因子计算

数据分析能力体现了产品对数据进行基础处理以及复杂分析的性能,评估其数值分析的准确性、推理逻辑可靠性的综合表现。

本任务关注Tesla财报信息的因子计算,选取基于财报以及Earnings call的结构化数值数据分析,提供EPS增速跳跃因子这一指标的计算公式,评估产品调用代码进行数值计算的自主性和有效性。

编程能力:智慧城市设计

产品设计规划需要进行目标分析、流程分解、方案比较,并通过coding加以实现,贴合效率、美观等现实目标进行创新,能够评估模型在给定目标下进行自主探索的潜力。

本任务围绕智慧城市大脑的前端产品场景,要求模型通过数据计算、指标构建、模块设计,最终形成一个能够展示的网页解决方案,从而评估模型贯穿美观设计、指标运算、代码落地的全流程能力。

Instruction Following

文献分析能力:多话题科研综述

科研文献综述需要模型围绕特定科学问题进行文献整合与现状梳理,难点一在于专业领域文献的检索源可得性确认,难点二在于分析特定领域研究的纵深性,完成对已有文献的整合分析。

本文基于文献综述这一任务场景,进行分段任务设计,其中每段的综述主题、数据信源、分析逻辑、字数要求、引用格式均有所不同,通过不同维度的差异化要求,考察产品对于“碎片化”需求的instruction following程度。

路线设计能力:旅游方案规划

消费方案推荐要求模型对消费属性以及用户评论进行全方面检索与梳理,并在个体偏好、预算等多重约束条件下,生成最优规划,主要体现在旅行规划和购物推荐两大任务,ODR团队Isa Fulford在访谈中推荐:“我认为购物和旅行推荐是最主要的应用场景。我个人已经使用这个模型好几个月了。”

本文设计了一个上海-韩国旅游规划的场景,考察产品兼顾时间要求、消费预算限制、目的地偏好,最终提供具有一个用户需求贴合性、可行性方案的instruction following能力。

报告输出能力:研报分析

市场研报分析考察模型自主确定关键分析维度、确认数据来源,结合宏观趋势、中观行业、微观企业与用户的多角度整合分析表现,并在报告输出环节保证数据与图表的结构化输出。

本文围绕关注的AI招聘初创公司Mercor,要求产品从市场格局、产品技术、商业模式、竞品公司、团队特征进行调研分析,并强调可通过图表形式可视化。

三、测评结果

Tool use 能力

在线检索:OpenAI“一骑绝尘”

Task 1

根据一幕线索顺藤摸瓜出一部冷门电影,这一任务只有OpenAI成功检索出电影名《布宜诺斯艾利斯100公里(Buenos Aires 100 km)》,其他产品均在“狐疑”中给出了错误答案。

需要指出的是,五家产品均收到了两次机会——在收到第一轮prompt时,均未给出正确回复,而在提示“这部电影好像是在阿根廷拍摄”后,OpenAI结合这一线索成功定位到电影的主要信息。

本文选取测评镜头并非电影关键情节,并且描述极尽简单,OpenAI能够在极其有限信息的情况下,展开多源网页搜索,验证了其主打的“小众内容检索能力”确实一骑绝尘。

图OpenAI的正确电影输出

Manus、Google、xAI三家产品则在回复语气中透露出一丝迟疑和不确定性,在表示需要更多信息继续推理的同时,给出了3-5个错误回复。

图Manus的电影猜测结果

图Google的电影猜测结果

图xAI的电影猜测结果

而PPLX则在输出中坦诚表示,基于给定线索,无法给出任何潜在答案,未生成其他冗余信息。

图PPLX的无结论输出

Task 2

与Task 1结果无异,OpenAI在给出三本潜在书籍结果的同时,仍是唯一成功检索到正确书籍的产品,Google和xAI则提供了一些更为古早、延伸性的书籍和论文,Manus则未输出实质性书籍检索结果。

图OpenAI的正确书籍输出

图Google的书籍猜测结果

图xAI的电影猜测结果

图Manus的书籍猜测结果

数据分析:“全军覆没”

在初始prompt中,产品被要求自行挖掘财报和earings call相关信息,并根据给定公式进行计算。然而,PPLX并未正确爬取各季度的EPS数据、以及同比每股收益增长率(%),可能存在信源偏差问题。

因此,在第二次prompt中直接给定了Tesla在2023年Q1到2024年Q4的EPS growth的数据,要求产品进行计算。

这一计算过程并不算复杂,用普通最小二乘法(OLS)即可完成拟合,然而,五家产品均败下阵来,无一成功计算出正确数值,且“各有各有的问题”。

“中道崩殂”:xAI、Google未完成计算任务

• xAI大篇幅展示了对于计算公式的理解,长篇大论看似严谨,然而【预测2024 Q1(基于2023 Q2-Q4和2024 Q1)】的表述,实则未能正确理解公式。

图xAI展示的计算过程

xAI在给出了计算样例后,仅完成了1/4的计算量,输出了第一个数据点2024Q1的计算值,其对于公式的错误理解导致基准有误,作为唯一输出的-4.19同样与正确答案差之千里。

图xAI未完成的因子计算

• Google对计算口径的理解具有明显偏差,将所需数据点错误推至2025年Q1,基于这一错误逻辑,其同样未完成极端,甚至未输出任何测算结果。

图Google给出的计算示例

“南辕北辙”:PPLX计算对象错位

• PPLX早在输出中重复了prompt中提到的计算方式,在计算公式渲染效果上更胜一筹,但从结果来看,其同样未能正确理解计算逻辑,混淆了2024年Q1-Q4的计算对象,反而输出了2023年Q3-2024年Q2的计算值。

图PPLX展示的计算过程

相较于LLM Search计算的结果,PPLX将计算数值结果与市场分析文本高度杂糅,使得其答案异常隐匿。其输出的4个结果点中,2024年Q1、Q2符合计算需求,但同样并非正确答案。

图PPLX的错误计算数据点

“失之毫厘”:OpenAI、Manus计算结果略有偏差

从计算对象准确性、计算完备度而言,OpenAI和Manus在这一数据分析任务中表现出最高的能力成熟度。二者均正确定位了2024年Q1-Q4的分析目标,且在数值计算的大方向上把握正确,但在数值计算的微观代码实现层面有所偏差。

• OpenAI基于表格直接给出了2023年Q2-2024年Q4的计算结果,尽管输出并非完全准确,但其2024年Q1-Q4在数据整体分布趋势上与正确数据相似。由于并未给出数值计算的完整运行代码,难以排查其计算偏差发生点。

图OpenAI的计算结果

• Manus在明确给出了计算结果的基础上,主动输出折线图、条形图对结果进行可视化,相较于OpenAI的表格更具易读性。

图Manus输出结果与可视化图表

但Manus在回归运算过程中未能正确处理数理逻辑,使用了带有截距的np.polyfit进行计算,导致结果出现偏离。

图Manus的代码运算偏差

编程:Manus领衔,三大梯队分化明显

针对这一结合设计+coding的任务,五家产品的输出呈现出显著分层。

第一梯队:Manus“多快好省”

Manus是唯一提供了完整项目文件,顺利运行网页,且在功能和美观性上均达到合格线的产品。值得注意的是,其不仅完全兑现了“环境洁净指数”等指标可视化展示、舆情分析等各项要求,还增加了【最新城市动态】一栏动态板块,产品意识超前。

图Manus输出的网页设计结果

第二梯队:OpenAI“可以run”但“不美观”

OpenAI给出了HTML、CSS和JavaScript三个文件,保存到本地后形成了一目了然的原始网页,能够发现环境洁净指数等组件,仪表盘和折线图并列一行,勉强实现了数据展示功能。

图OpenAI输出的网页设计结果

第三梯队:Google、xAI、PPLX“run不了”

Google并未给出可执行的前端网页完整方案,而是从“拟真”视角在每个部分象征性提供了一个代码模板。

图Google输出的网页设计代码

xAI以简洁形式分块给出了示例,但内容极度简洁,代码块无法构成可运行网页。

图xAI输出的网页设计代码

PPLX给出了分区运行文件模板,但缺乏相应图表和资源,本地保存后同样无法正常运行网页。

图PPLX输出的网页设计代码

Instruction Following 能力

文献分析:“选择性执行”居多

从三段任务输出总结来看,五家产品均无法完全遵循指令进行文献分析,按照所要求的内容逻辑、引用规范、组织结构、字数体例的执行力不一,在这一任务上体现的指令执行力均有瑕疵。

“选择性执行”组:OpenAI、xAI、PPLX

图OpenAI的末段文献综述输出

OpenAI的首段即无视了字数和主题要求,花了近一半篇幅点出透明和信任的概念,但随后偏移到了论述二者的关系,字数超过500字,未完全满足要求。

图OpenAI的首段输出

xAI是五家产品中唯一严格执行字数要求的“字数警察”,主动在各部分标注了总字数。且首段内容严格围绕概念论述,并无走题情况。

图xAI的首段文献综述输出

然而,可能正是受制于字数的严格执行,其按照要求进行内容分析的表现差强人意,在研究现状总结和未来研判的表现明显劣于前者。

图xAI的末段文献综述输出

PPLX是唯一完全遵循了第二段要求的产品,在第二段输出中明确论述了各个研究的理论基础、假设逻辑,并且在此部分内容“简美”,未超过字数上限。

图PPLX的第二段文献综述输出

但PPLX的首段输出同样并未依照指令进行概念的论述,而是将重点偏离至二者的关系,在指令内容之外“夹带题外话”似乎是贯穿五家产品的通病。

图PPLX的首段文献综述输出

“对牛弹琴”组:Google、Manus

Google在指令遵循方面属于内容逻辑与字数体例叛逆选手,在首段并未按照prompt要求在500字内论述透明、信任的概念,而是洋洋洒洒地从概念谈到二者关系。

图Google的首段文献综述输出

在第二段内容中,Google并未按照要求分析整理2021年以来的高被引文献,并论述其各自理论基础,而是采用一种绕口令的方式重复文章内容。

图Google的第二段文献综述输出

Manus首段的内容逻辑并未严格围绕透明、信任概念,而是天马行空地谈到二者关系的调节因素,实际输出字数完全超过500字要求。

图Manus的首段文献综述输出

Manus输出的第二段内容与第三段指令有所混淆,本应出现在末段的未来方向研判和参考文献同样出现在了第二段。

图Manus的第二段文献综述输出

路线设计:xAI掉队明显

由于旅游路线设计作为一个典型的多目标规划问题,需要满足时间、距离、预算等多重可行性,难以从主观角度进行全面评估,故本文设计了一个六维评估体系,包括旅游目的地丰富度、目的地交通时间、交通方式合理度、预算利用率、购物体验丰富度、咖啡馆体验丰富度六项指标,由Deepseek R1对五家产品给出的旅游方案分别进行打分(每项满分为5分)。

瑕疵明显:xAI走马观花

xAI提供的方案并未观照prompt中的咖啡馆体验需求,未设计主题咖啡馆路线,缺乏专业级咖啡体验(烘焙工坊/杯测活动,同时建议前往南怡岛游览与咖啡和购物主题相关度较低,有走马观花之感。

针对此方案,R1给出的各指标得分如下:

图xAI的旅游方案策划

美中不足:PPLX目的地较同质化

该方案在购物/咖啡的核心需求上实现度超预期,但仅覆盖首尔核心区域(明洞、江南、弘大),并未涉及传统市场等购物体验。

针对此方案,R1给出的各指标得分如下:

图PPLX的旅游方案策划

接近满分:Google、Manus、OpenAI

Google:交通可行性不足

Google方案的1分同样扣在前往釜山的交通时间,跨城交通成本吞噬37%有效游览时长。

第一天:抵达首尔&明洞美妆购物

第二天:景福宫与弘大

第三天:江南时尚与K-Pop体验

第四天:釜山一日游

第五天:特色咖啡馆与艺术街区

第六天:首尔全景

第七天:离境前的最后购物

针对此方案,R1给出的各指标得分如下:

图Google输出的旅游方案

•Manus:交通可行性不足

唯一用html手册格式输出旅游方案的产品,整体来讲,首尔动线完成“美妆-轻奢-潮牌”的完备消费策划,但在交通动线设计上仍有资源错配不足。

针对此方案,R1给出的各指标得分如下:

图Manus输出的旅游规划手册

•OpenAI

OpenAI相较于其他产品方案,真正考虑到了购物需求,但仍在釜山跨城交通上略有损耗。

针对此方案,R1给出的各指标得分如下:

第1天:上海✈首尔–抵达首尔&明洞购物美食

第2天:首尔–古都文化探索&韩屋咖啡体验

第3天:首尔–潮流时尚购物&年轻活力夜生活

第4天:首尔釜山–高铁前往釜山&甘川文化村、南浦洞市场游

第5天:釜山–海滨风光&咖啡休闲体验

第6天:釜山–休闲自由行(可选行程:温泉放松或购物扫货)

第7天:釜山✈上海–返回温馨之家

图Google输出的旅游方案

报告输出能力

基于商业研报场景,从信息准确性、分析完整性、观点创新性、媒介多元性、论证充分性五个维度对五家产品的报告输出能力评估,基于报告整体的可用性,各产品能力排序为:

OpenAI>Manus>PPLX=xAI>>Google

OpenAI:90分,兼顾深度与广度

OpenAI的分析视角和行文风格是五家产品中最具有专业性、拟真性,也是唯一精确锚定三大竞品公司并展开比较分析的产品。

从可用性而言,在OpenAI输出报告基础上稍加语言修缮、添加图表后即可作为一份咨询建议阅读。

图OpenAI对Mercor的竞品分析

Manus:85分,全视角、强图表意识的实习分析师

Manus的优势在于分析维度的高效全面分解,能够在市场趋势、外部竞争的信息中提炼出明确观点;并且相较于其他产品,在对应章节自主绘图意识极强(尽管渲染不完全稳定)。

图Manus对Mercor的竞品分析与矩阵图

在五家产品中,仅有Manus明确提到Mercor存在估值泡沫风险,但在信息准确性、论证充分性方面存在不足。

图Manus对Mercor的潜在风险分析

•PPLX、xAI:70分,基本达标

PPLX与xAI输出报告的尴尬之处在于,整体质量都在及格线以上,但作为投资简报bullet point观点清晰度不足,而作为ground truth进一步拓展分析,创新性又有所欠缺。

图xAI对Mercor的竞品分析

图PPLX对Mercor的竞品分析

二者在分析上专业性上“平分秋色”。xAI受限于输出媒介,无法像PPLX一般输出分析图表。在竞品公司锁定上,xAI相较于PPLX更为精准,而对于潜在风险分析,PPLX的输出则有“套公式”之嫌。

图PPLX对Mercor的潜在风险分析

Google:60分,以总篇幅“见长”

Google输出的报告停留于整合基本事实信息,分析观点并不明确,且在商业分析方法论上存在偏差。对于Mercor的竞品公司,其仅仅与传统招聘平台进行比对,在识别同赛道产品公司有明显缺失。

图Google对Mercor的竞品分析

同时,与其前序任务表现一致,Google在商业命题报告的论证深度有限,而是在模型幻觉之下输出一部“加长版”的扩写作文,信息密度极为有限。

图Google对Mercor的潜在风险分析

四、总结:走向下一级Agent阶梯

回到本文开始的问题,相较于前代LLM Search,陆续问世的Deep Research产品正在打破外部工具调度、需求执行的平均线。

Gemini不拘于任务场景,以报告篇幅取胜,换言之,其模型幻觉仍有待干预。

OpenAI在报告输出、分析、设计任务中综合表现最强,长尾内容检索能力确如其官方所称“行业标杆”,但在数据分析、编程维度的tool use潜力仍未完全实现。

PPLX在各任务中将将达到合格线,但在具体产品能力上“难有姓名”。

xAI的相对优势在于保留了短平快的检索底色,坚持“不说废话”,尤其在涉及字数要求的任务中表现出稳定的instruction following能力,但多目标规划设计能力较为薄弱。

Manus作为衔接了Deep research和其他Agent功能的产品形态,其tool use能力有显著优势,但instruction following仍有行动空白。

但从测评结果来看,Deep Research作为Agent产品的初代形态,无论是Agent的内生能力、亦或是长文本报告输出能力,消除可见的短板障碍,触达天花板仍需要市场的耐心。

在这一浪潮褪去后,Agent产品的下一级阶梯,或许将更快降临。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Deep Research Agent 大模型 产品测评 人工智能
相关文章