IT之家 2024年08月23日
英伟达发布 80 亿参数新 AI 模型:精度、效率高,可在 RTX 工作站上部署
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

英伟达发布Mistral-NeMo-Minitron 8B小语言AI模型,具有精度高、计算效率高等优点,可在多种设备上运行,通过剪枝和知识蒸馏技术获得,在多项基准测试中表现优异。

🎯英伟达发布的Mistral-NeMo-Minitron 8B小语言AI模型,是在携手Mistral AI上月发布的开源Mistral NeMo 12B模型基础上推出的更小模型,拥有80亿个参数,可在英伟达RTX显卡的工作站上运行。

✂️该模型通过宽度剪枝去除对准确率贡献最小的模型权重来缩小神经网络,然后在一个小型数据集上通过知识蒸馏轻度重新训练剪枝后的模型,以提高因剪枝而降低的准确率。

🏆Mistral-NeMo-Minitron 8B在语言模型的九项流行基准测试中遥遥领先,这些基准涵盖了语言理解、常识推理、数学推理、总结、编码和生成真实答案等各种任务。

IT之家 8 月 23 日消息,英伟达于 8 月 21 日发布博文,发布了 Mistral-NeMo-Minitron 8B 小语言 AI 模型,具备精度高、计算效率高等优点,可在 GPU 加速的数据中心、云和工作站上运行模型。

英伟达携手 Mistral AI 上月发布开源 Mistral NeMo 12B 模型,在此基础上英伟达再次推出更小的 Mistral-NeMo-Minitron 8B 模型,共 80 亿个参数,可以在搭载英伟达 RTX 显卡的工作站上运行。

英伟达表示通过宽度剪枝(width-pruning)Mistral NeMo 12B,并知识蒸馏(knowledge distillation)轻度重新训练后获得 Mistral-NeMo-Minitron 8B,相关成果发表在《Compact Language Models via Pruning and Knowledge Distillation》论文中。

剪枝通过去除对准确率贡献最小的模型权重来缩小神经网络。在 "蒸馏" 过程中,研究小组在一个小型数据集上重新训练剪枝后的模型,以显著提高通过剪枝过程而降低的准确率。

就其规模而言,Mistral-NeMo-Minitron 8B 在语言模型的九项流行基准测试中遥遥领先。这些基准涵盖了各种任务,包括语言理解、常识推理、数学推理、总结、编码和生成真实答案的能力。IT之家附上相关测试结果如下:

参考

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

英伟达 小语言AI模型 剪枝 知识蒸馏 基准测试
相关文章