PaperAgent 2024年11月08日
TableGPT2开源,复杂表格理解不存在了!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

TableGPT2是一个基于Qwen2.5模型系列的全新大型语言模型,它在超过59万个表格和236万个高质量的查询-表格-输出元组上进行了预训练和微调。TableGPT2在表格相关任务中表现出色,同时保持了强大的通用语言和编码能力,并在多个基准测试中取得了优于或相当于GPT-4o的结果。该模型引入了独特的语义编码器,能够理解表格数据,并增强了处理模糊查询、缺失列名和不规则表格的能力,从而为商业智能应用和复杂查询处理提供了强大的支持。

🤔TableGPT2是一个基于Qwen2.5模型系列的大型语言模型,它在超过59.38万个表格和236万个高质量的查询-表格-输出元组上进行了预训练和微调,数据规模远超以往研究。

📊TableGPT2在23个基准测试指标上,7B版本模型性能比之前基准中性LLMs平均提高了35.20%,72B版本模型性能提高了49.32%,在某些基准测试中甚至达到了优于或相当于GPT-4o的结果。

💡TableGPT2的核心创新在于其新颖的表格编码器,该编码器专门设计用于捕获模式级别和单元格级别的信息,增强了模型处理模糊查询、缺失列名和不规则表格的能力。

⚙️TableGPT2-7B基于Qwen2.5架构构建,包含了专门用于表格数据的编码,并应用了持续预训练(CPT)和监督微调(SFT),使其能够用于实际的商业智能应用程序和复杂的查询处理。

2024-11-08 17:16 湖北

TableGPT2:一个经过严格预训练和微调的模型,涉及超过59.38万个表格和236万个高质量的查询-表格-输出元组,这是以前研究中前所未有的表格相关数据规模。在以表格为中心的任务中表现出色,同时保持了强大的通用语言和编码能力

TableGPT2有两种配置——7B 和 72B 参数——均源自 Qwen2.5 模型系列,已开源了7B 版本

TableGPT2的定性案例

模型架构

TableGPT2-7B 基于 Qwen2.5 架构构建,包含专门用于表格数据的编码。它具有独特的语义编码器,旨在解释表格数据,从行、列和整个表格中获取见解。已应用持续预训练 (CPT) 和监督微调 (SFT),以使模型能够用于实际的 BI 应用程序和复杂的查询处理。

TableGPT2的一个关键创新是其新颖的表格编码器,专门设计来捕获模式级别和单元格级别的信息。这个编码器增强了模型处理模糊查询、缺失列名和不规则表格的能力,这些在现实世界的应用中很常见。与视觉-语言模型(VLMs)类似,这种方法与解码器集成,形成了一个强大的大型多模态模型。

TableGPT2整体技术框架

语义表格编码器的总体设计

https://huggingface.co/tablegpt/TableGPT2-7Bhttps://arxiv.org/pdf/2411.02059TableGPT2: A Large Multimodal Model with Tabular Data Integrationhttps://github.com/tablegpt/tablegpt-agent

推荐阅读


欢迎关注我的公众号“PaperAgent”,每天一篇大模型(LLM)文章来锻炼我们的思维,简单的例子,不简单的方法,提升自己。

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

TableGPT2 大型语言模型 表格数据 多模态 Qwen2.5
相关文章