IT之家 03月27日 09:07
开源逆袭:TAO 方法微调 Llama 模型,FinanceBench 跑分超 GPT-4o
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Databricks 公司推出新型大语言模型微调方法 TAO(Test-time Adaptive Optimization),旨在通过无标注数据和强化学习技术,降低企业成本并提升模型性能。测试结果显示,在金融文档问答和 SQL 生成任务中,TAO 微调后的 Llama 3.3 70B 模型表现优异,甚至超越传统标注微调方法,接近 OpenAI 顶级闭源模型。TAO 技术为开源模型提供了持续进化路径,用户使用越多,模型通过反馈数据自我优化的潜力越大。目前,该技术已在 Llama 模型上启动私测。

💡 TAO 方法的核心在于利用测试时计算(test-time compute),自动探索任务可能性,并结合强化学习优化模型,从而省去人工标注成本。

📈 在 FinanceBench 基准测试中,TAO 微调的 Llama 模型得分 85.1,优于标注微调(81.1)和 OpenAI o3-mini(82.2)。

📊 在 BIRD-SQL 测试中,TAO 模型得分 56.1 分,接近 GPT-4o(58.1),远超标注微调(54.9)。

🚀 在 DB Enterprise Arena 测试中,TAO 模型得分 47.2 分,GPT-4o 模型得分为 53.8 分。

🌱 TAO 技术为开源模型提供了持续进化的潜力,用户使用越多,模型通过反馈数据自我优化的能力就越强。目前,该技术已在 Llama 模型上启动私测,企业可通过申请表单参与。

IT之家 3 月 27 日消息,科技媒体 NeoWin 昨日(3 月 26 日)发布博文,报道称数据智能公司 Databricks 发布新型大语言模型微调方法 TAO(Test-time Adaptive Optimization),通过无标注数据和强化学习技术,在显著降低企业成本的同时提升模型性能。

测试显示,在金融文档问答和 SQL 生成任务中,通过 TAO 微调后的 Llama 3.3 70B 模型,表现甚至超越传统标注微调方法,逼近 OpenAI 顶级闭源模型。

TAO 方法利用测试时计算(test-time compute)自动探索任务可能性,结合强化学习优化模型,省去人工标注成本。在三大企业基准测试中,TAO 微调的 Llama 模型表现亮眼:

TAO 技术为开源模型提供了持续进化路径:用户使用越多,模型通过反馈数据自我优化的潜力越大,目前该技术已在 Llama 模型上启动私测,企业可通过申请表单参与。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Databricks TAO 大语言模型 微调 Llama
相关文章