IT之家 2024年08月15日
OpenAI 推出 SWE-bench Verified 基准,更准确评估 AI 模型代码生成表现
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI发布SWE-bench Verified代码生成评估基准,解决此前局限性,更准确评估AI模型在软件工程任务中的表现

🎯SWE-bench是用于评估LLM解决GitHub上真实软件问题能力的基准测试数据集,收集了众多Issue-Pull Request对,测试时LLM需根据代码库和问题描述生成补丁来解决问题

🚧OpenAI指出SWE-bench存在三个主要问题,包括单元测试过于严格、问题描述不明确、开发环境难以设置

🌟SWE-bench Verified使用容器化Docker环境开发新评估工具包,使评估过程更一致可靠,降低环境设置问题发生的可能性,提高了AI模型在软件工程任务中的表现能力

IT之家 8 月 15 日消息,OpenAI 公司于 8 月 13 日发布新闻稿,宣布推出 SWE-bench Verified 代码生成评估基准,解决了此前的局限性问题,能够更准确地评估人工智能模型在软件工程任务中的表现。

SWE-bench

IT之家注:SWE-Bench 是一个用于评估 LLM 解决 GitHub 上真实软件问题能力的基准测试数据集。

它收集了来自 12 个流行的 Python 仓库的 2294 个 Issue-Pull Request 对。在测试时,LLM 会拿到一个代码库和 issue 描述,然后生成一个补丁来解决 issue 描述的问题。

该基准使用两种类型的测试:

SWE-bench 的问题

OpenAI 指出了 SWE-bench 的三个主要问题:

SWE-bench Verified

SWE-bench Verified 的主要改进之一是使用容器化 Docker 环境开发了新的评估工具包。

这一改进旨在使评估过程更加一致和可靠,降低与开发环境设置相关的问题发生的可能性。

例如,GPT-4o 解决了 33.2% 的样本,而表现最佳的开源代理框架 Agentless 的得分翻了一番,达到 16%。

性能的提高表明,SWE-bench Verified 更好地捕捉到了人工智能模型在软件工程任务中的真正能力。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI SWE-bench Verified 软件工程 AI模型评估
相关文章