RWKV元始智能 2024年10月28日
RWKV-6-World 14B正式开源发布,迄今最强的稠密纯RNN大语言模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

2024年7月19日,RWKV开源基金会向全球开源RWKV-6-World 14B模型。该模型是迄今最强的稠密纯RNN大语言模型,性能优异,支持多语言,且经过严格评测。还介绍了模型下载、本地部署、效果预览等内容,以及RWKV模型的相关信息和社区情况。

🎯RWKV-6-World 14B是迄今最强的稠密纯RNN大语言模型,英文性能相当于Llama2 13b,多语言性能显著最强,支持全球100+种语言和代码。

📈在同参数模型评测中,RWKV-6-World 14B的综合评测分数比llama2 13B和Qwen1.5 14B更强,在Uncheatable Eval排行榜中排行第2。

💻模型下载可从Hugging Face、ModelScope、WiseModel等平台进行本地部署,不同量化方式的显存需求不同,如fp16约28G,int8 -量化56层约15G等。

📚RWKV模型将Transformer与RNN优点结合,实现高度并行化训练与高效推理,且RWKV-7架构测试工作正在进行,社区有多项新研究。

原创 Luoqiqi 2024-07-19 18:42 广东

2024年7月19日,RWKV 开源基金会宣布正式向全球开源 RWKV-6-World 14B 模型。

2024年7月19日,RWKV 开源基金会宣布正式向全球开源 RWKV-6-World 14B 模型。

RWKV-6-World 14B 是迄今最强的稠密纯 RNN 大语言模型

在最新的性能测试中, RWKV-6-World 14B 模型英文性能相当于 Llama2 13b。此外,在同参数的模型评测中,RWKV-6-World 14B 的多语言性能显著最强,且支持全球100+种语言和代码

在“无法作弊的模型评测” Uncheatable Eval 排行榜中,RWKV-6-World 14B 的综合评测分数比 llama2 13B 和 Qwen1.5 14B 更强。

评测数据

本次模型基准测试涵盖了 4 款接近 14B 参数规模的开源大语言模型。

在测试中,英语的性能测试将通过 12 个独立的基准测试来衡量大模型在常识推理和世界知识等英语内容上的表现。

多语言能力的评估中,则采用了 xLAMBDA、xStoryCloze、 xWinograd 和 xCopa 四种基准测试,深度探索了评估模型在多语言环境中的逻辑推理、故事理解、歧义解决和因果推理能力。

14B 开源模型的测试结果

由于 RWKV-5 系列模型最大只有 7B 参数,我们选择了 RWKV-4 14B 模型作为纵向对比。

可以看到,相比于此前发布的 RWKV-4 14B 模型,RWKV-6-World 14B 的英文性能和多语言性能都获得巨大提升。

RWKV-6-World-14B 模型的性能改进,大大得益于从 RWKV-4 到 RWKV-6 的架构改进,有关 RWKV-6 架构的优化细节,请参考文章:

RWKV-6 论文到底说了什么?分享会回顾来啦!

不作弊的 RWKV 模型

值得强调的是,我们在训练 RWKV 模型时,并未加入任何基准测试的数据集。换言之,我们没有为了获取更佳的评分结果而进行特殊优化

RWKV 不刷榜也不刷星,因此 RWKV 模型的实际能力比它的各种评分排行更强。

既然承诺不作弊,我们也第一时间对 RWKV-6-World-14B 模型进行了  “无法作弊的模型评测” —— Uncheatable Eval[1]

zy

Uncheatable Eval 会使用最新的 arXiv 论文、新闻文章、小说数据和 GitHub 代码等实时语料库,以此来评估语言模型的真实建模能力和泛化能力。

有关 Uncheatable Eval 的详细介绍,可参见此文章:RWKV在“不可作弊的模型评测”中获得良好成绩

RWKV-6-World 14B 的 Uncheatable Eval 评测

此次 Uncheatable Eval 评测选取了常见的 5 款开源 14B 参数模型,测评数据则选择 7 月最新发布的 arXiv 论文、新闻、ao3 小说和 GitHub 代码等实时数据。

具体评分和综合排名如下:

14B 模型 Uncheatable Eval 评测

可以看到,RWKV-6-World 14B 在此次测试中排行第 2综合评测分数比相同尺寸的 llama2 和 Qwen1.5 更强。

而 Mistral 最新发布的 12B 模型使用了比 RWKV-6 多几倍的数据,它的性能更强。我们会继续为 RWKV 模型补充优质数据,与它看齐。

模型下载和体验

目前 RWKV-6-World 14B 模型还没有在线 Demo,可以从以下平台下载 RWKV-6-World 14B 模型并本地部署

由于 Ai00 只支持 safetensor(.st)格式的模型,如果你打算使用 Ai00 体验 RWKV-6-World 14B 模型 ,可以在 Ai00 HF 仓库[2]中下载已经转成 .st 格式的模型

本地部署 14B 模型的显存需求

如果你计划本地部署并推理 RWKV-6-World 14B 模型,参考的 VRAM (显存)消耗如下:

量化方式显存参考
fp16约 28G
int8 -量化 56 层约 15G
nf4 - 量化 56 层约 10G

新模型效果预览

以下为 RWKV-6-World 14B 模型的实测效果:

zy

以下案例使用 Ai00[3] 作为推理服务器,int8 + 30 层量化,未加载任何 State

自然语言处理(情感分析)

自然语言处理(机器阅读理解)

散文诗文学创作

阅读并修改一段代码

金融学论文选题建议

提取新闻关键内容

一句话扩写文本

python 贪吃蛇小游戏

注意:目前开源发布的所有 RWKV 模型均为基底模型。

基底模型具备一定的指令和对话能力,但为了保持其通用性和泛化能力,基底模型未进行任何对齐,也未针对某一类任务做优化。因此,基底模型在特定任务上的表现并不代表 RWKV 模型最优水准。

如果希望 RWKV 模型在某种类型的任务上表现良好且稳定,建议使用此类任务的数据集对 RWKV 模型进行微调训练。

目前我们已经发布了一些 RWKV 基底模型对特定任务进行微调训练的教程,详情可以在 RWKV 中文文档 - RWKV 微调教程[4] 中查看。


随着 RWKV-6 架构发布 14B 模型,RWKV-7 架构的测试工作也在紧密地进行中

此外,RWKV 社区近期有很多新的研究,比如首个基于 RWKV 的医学图像修复模型 Restore-RWKV[5] 、海外社区做的 RWKV + Attention 混合架构 GoldFinch [6]

我们很快会带来更多 RWKV-7 的消息,敬请关注“RWKV元始智能”公众号,以在第一时间获取 RWKV 最新动态。

RWKV 模型介绍

RWKV 是一种创新的深度学习网络架构,它将 Transformer 与 RNN 各自的优点相结合,同时实现高度并行化训练与高效推理。

RWKV 模型架构论文:

加入 RWKV 社区

欢迎大家加入 RWKV 社区,可以从 RWKV 中文官网了解 RWKV 模型,也可以加入我们的 QQ 频道和群聊,一起探讨 RWKV 模型。

相关链接

[1]

Uncheatable Eval: https://huggingface.co/spaces/Jellyfish042/UncheatableEval

[2]

Ai00 HF 仓库: https://huggingface.co/cgisky/ai00_rwkv_x060/tree/main

[3]

Ai00: https://rwkv.cn/ai00/Introduction

[4]

RWKV 中文文档 - RWKV 微调教程: https://rwkv.cn/RWKV-Fine-Tuning/Introduction

[5]

Restore-RWKV: Efficient and Effective Medical Image Restoration with RWKV: https://arxiv.org/abs/2407.11087

[6]

GoldFinch: High Performance RWKV/Transformer Hybrid with Linear Pre-Fill and Extreme KV-Cache Compression: https://arxiv.org/abs/2407.12077

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

RWKV-6-World 14B 大语言模型 RWKV模型架构 模型评测
相关文章