📄 在互联网信息检索任务中,即使是很强的LLM,有时也会陷入“信息迷雾”之中,通义实验室最新提出的方案WebSailor通过一整套创新的post-training方法,大幅提升了开源模型在复杂网页推理任务上的表现。💡 WebSailor 的技术方案涵盖从数据到训练的全流程创新:1️⃣ 大规模合成具有高不确定性(uncertainty)的复杂任务数据(称为 SailorFog-QA);2️⃣ 借助开源reasoning model获得多轮工具调用轨迹再重构推理过程,并基于Qwen-2.5-instruct(3B、7B、32B、72B)进行 RFT 冷启动训练;3️⃣ 引入高效的强化学习算法 DUPO 进一步提升模型的决策能力。📈 从实验结果来看:我们采用此方法训练的 WebSailor-72B 模型,其性能显著优于现有的开源 WebAgent,在 BrowseComp-en 上获得了 12 分,在 BrowseComp-zh 上获得了 30.1 分。我们在SimpleQA的子集上评估了泛化性能,WebSailor即使在简单任务上也展现出极强的兼容性和有效性。论文:https://arxiv.org/abs/2507.02592技术主页:https://github.com/Alibaba-NLP/WebAgent