魔搭ModelScope社区 01月25日
OpenCSG开源SmolTalk Chinese数据集
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenCSG团队发布了smoltalk-chinese数据集,这是一个专为中文大型语言模型设计的微调数据集。该数据集包含超过70万条合成数据,覆盖信息查询、推理、编程等多种任务类型,旨在提升模型的多功能性和适应性。smoltalk-chinese通过高质量的数据生成、筛选和去重处理,确保了数据的质量和多样性。实验结果表明,使用该数据集微调的模型在中文对话能力上表现出显著优势,为中文NLP领域的发展提供了重要的数据支持。

📚smoltalk-chinese是一个仿照smoltalk数据集构建的中文微调数据集,完全由合成数据组成,包含超过70万条数据,旨在为中文大型语言模型提供全面的训练材料。

💡 数据集涵盖多种任务类型,如信息查询、推理、计划、编辑、编程、数学、角色扮演等,增强了模型的多功能性和适应性,并采用先进的生成模型和去重技术,确保数据质量和多样性。

🧮 数据集包含来自Math23K中文版的数学题数据,并带有详细的推理步骤,由deepseek-v2.5生成,增强模型在数学推理和问题解决方面的能力。

🧪 微调实验结果表明,基于smoltalk-chinese微调的模型在多个指标上表现出显著优势,验证了该数据集在提升中文语言模型表现方面的有效性。

OpenCSG社区 2025-01-21 19:22 浙江

近期,OpenCSG团队发布了smoltalk-chinese数据集,这是一个仿照smoltalk数据集构建的中文微调数据集,旨在为中文大型语言模型提供全面的训练材料。

01

背景


年来,人工智能(AI)领域尤其是自然语言处理(NLP)技术的迅猛发展,正在深刻改变着各行各业的运作模式。从智能客服到内容生成,从自动翻译到智能搜索,NLP技术的广泛应用使得语言模型在全球范围内的重要性日益凸显。与此密切相关的预训练模型(Pre-trained Models),凭借在海量数据上的训练积累了丰富的知识,成为NLP技术进步的核心支柱。然而,预训练模型的成功在很大程度上依赖于其背后数据集的质量。

在中文NLP领域,高质量的中文数据集一直是一个亟待解决的难题。目前,市面上的许多高质量预训练数据集主要集中在英文领域,针对中文的高质量大规模数据集相对较少,且质量参差不齐。这种数据资源的不平衡制约了中文NLP技术的快速发展,尤其是在教育、智能搜索等关键应用场景中,迫切需要更加丰富和精准的中文数据资源。

为填补这一空白,OpenCSG社区近年来积极投入资源,致力于构建高质量的中文预训练数据集。2024年12月,OpenCSG团队发布了smoltalk-chinese数据集,这是一个仿照smoltalk数据集构建的中文微调数据集,旨在为中文大型语言模型提供全面的训练材料。smoltalk-chinese完全由合成数据组成,涵盖超过70万条数据,涵盖多种任务类型,如信息查询、推理、计划、编辑、编程、数学、角色扮演、数据分析、创意写作、咨询和头脑风暴等。这些多样化的任务设计不仅增强了模型的多功能性和适应性,还显著提升了模型在不同应用场景下的表现。

smoltalk-chinese的数据生成过程严格遵循高标准,采用先进的生成模型和去重技术,确保数据的质量和多样性。通过多轮对话任务和单轮对话任务的精细设计,smoltalk-chinese有效地模拟了真实的用户交互场景,为模型的微调提供了坚实的基础。此外,来自Math23K中文版的数学题数据进一步增强了模型在数学推理和问题解决方面的能力。

smoltalk-chinese高质量和多样化的数据集特性,不仅满足了研究人员和开发者的需求,也推动了中文语言模型的不断进步。OpenCSG团队将持续根据用户反馈和实际应用需求,不断优化和扩展smoltalk-chinese数据集,致力于为全球中文NLP社区提供更加优质的数据支持,助力中文AI技术迈向新的高度。


02 

Huggingface SmolTalk数据集介绍 

SmolTalk 是一个专为大型语言模型(LLM)的监督微调(SFT)设计的合成数据集。该数据集包含100万条高质量样本,用于构建 SmolLM2-Instruct 系列模型。在 SmolLM2 的开发过程中,发现基于公开 SFT 数据集微调的模型性能不及使用专有指令数据集的模型。为弥补这一差距,huggingface创建了新的合成数据集,旨在提升模型的指令遵循能力,同时覆盖文本编辑、重写、摘要和推理等多样化任务。通过在1.7B规模上的一系列数据消融实验,通过整合公开数据集,增强了模型在数学、编程、系统提示遵循和长上下文理解等特定能力。


03 

Chinese SmolTalk数据

smoltalk-chinese 是一个参考 SmolTalk 数据集构建的中文微调数据集,旨在为大型语言模型(LLM)的训练提供高质量的合成数据支持。该数据集全部由合成数据组成,涵盖超过70万条数据,专门设计用于提升中文大型语言模型在多种任务上的表现,增强模型的多功能性和适应性。

下载地址:

OpenCSG社区:https://opencsg.com/datasets/OpenCSG/smoltalk_chinese

魔搭社区:https://modelscope.cn/datasets/thomas/smoltalk-chinese


数据集组成

smoltalk-chinese 数据集由多个部分组成,覆盖广泛的任务类型,以确保模型在不同应用场景中的优异表现。

1.参考 magpie-ultra 的任务类型,使用magpie合成的3轮对话数据。

任务包括:

2.参考 smoltalk 中其它任务类型,使用magpie合成的1轮对话任务。

任务包括:

3,模拟日常生活中的对话风格,生成五轮对话数据,增强模型在真实交流场景中的表现能力。

4.来自Math23K中文版的数学题数据,答案包含详细推理步骤,由deepseek-v2.5生成。


数据集合成方法

smoltalk-chinese 数据集的构建过程严格遵循高标准,确保数据的质量和多样性,主要分为数据生成、数据筛选、数据去重、数据分类统计。

数据生成

使用 Magpie 合成原始数据,采用的生成模型包括 deepseek-v2.5 和 qwen2.5-72b-instruct,结合 Distilabel 库进行数据生成,确保生成内容的丰富性和多样性。

数据筛选

利用 qwen2-7b-instruct 模型对对话数据的第一条指令进行清晰度和流畅度评分(评分范围为0-5分),仅保留评分在2分及以上的数据,以保证数据质量。

去重处理

使用 gte-large-zh 模型对对话数据的第一条指令进行编码,根据嵌入相似度(阈值设定为0.8)进行去重处理,确保数据的独特性和多样性。

数据统计

实验

为了验证 smoltalk-chinese 数据集的微调效果,我们采用以下实验设计:

基础模型

选用 opencsg/csg-wukong-ablation-chinese-fineweb-edu(在 chinese-fineweb-edu 上预训练的2B模型https://huggingface.co/opencsg/csg-wukong-ablation-chinese-fineweb-edu)作为基础模型。

微调过程

分别在 smoltalk-chinese 和 infinity-instruct 数据集(选取7M和Gen的中文部分,约1M条)上进行微调,设置为2个训练周期,学习率为3e-4,采用余弦下降,global batch size 为32。

评估结果

在 alignbench 平台上评估模型的中文对话能力,结果表明,基于 smoltalk-chinese 微调的模型在多个指标上表现出显著优势,验证了 smoltalk-chinese 数据集在提升中文语言模型表现方面的有效性。


作者及单位

原文作者:俞一炅、戴紫赟、Tom Pei      

单位:OpenCSG LLM  Research Team    




👇点击关注ModelScope公众号获取

更多技术信息~



阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

smoltalk-chinese 中文数据集 大型语言模型 OpenCSG NLP
相关文章