RWKV元始智能 03月11日
RWKV7-G1 0.1B 推理模型发布,最适合嵌入式的纯血 RNN 模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

RWKV基金会发布了RWKV7-G1 0.1B推理模型,该模型以其卓越的推理能力和对全球100多种语言及代码的原生支持而备受瞩目。即使是最小的0.1B模型也能应对开放性和创造性问题。该模型基于World v3.5数据集进行训练,包含小说、网页、数学、代码和推理数据,总数据量达5.16T tokens。同时,更大参数的RWKV7-G1 0.4B/1.5B/2.9B模型也在训练中。该模型在英文和多语言能力上均有提升,并在Uncheatable Eval评测中表现出色。

🚀 RWKV7-G1系列模型亮点:RWKV7-G1模型原生支持100+种语言和代码,即使是0.1B这样的小模型也具备优秀的推理能力,能回答开放性和创造性问题。

📚 数据集与训练:该系列模型基于包含5.16T tokens的World v3.5数据集训练,该数据集涵盖小说、网页、数学、代码和推理数据,为模型提供了丰富的学习素材。

🌍 多语言能力提升:RWKV7-G1 0.1B在英文和多语言能力上相比RWKV-7-World 0.1B有所提升,并在Uncheatable Eval评测中展现出对多种新数据优秀的压缩率。

💻 模型下载与试用:用户可以在Hugging Face和魔搭社区下载已完成训练的RWKV7-G1 0.1B模型,并通过Hugging Face Gradio Demo进行试用。

原创 Rocky Luo 2025-03-11 12:27 广东

如此小的 0.1B 模型,也支持全世界 100+ 种语言和代码

2025 年 3 月 10 日,RWKV 基金会发布第一个 RWKV-7 推理模型(Reasoning Model):RWKV7-G1 0.1B。

RWKV7-G1 系列模型拥有杰出的推理能力,且原生支持世界 100+ 种语言和代码。即使是最小的 0.1B 也能回答开放性和创造性问题

?Tips

RWKV7-G1("GooseOne")系列推理模型是基于 World v3.5 数据集继续训练 RWKV-7 "Goose" World 系列模型。

World v3.5 数据集包含更多小说、网页、数学、代码和 reasoning 数据,总数据为 5.16T tokens。对于 0.1B 模型,我们会随机采样其中的 1T tokens 训练。

目前我们已能在手机芯片高通 8gen3 以 62 token/s 推理 RWKV-7 1.5B 模型,而 0.1B 模型在树莓派也能跑得挺快,欢迎做嵌入式的朋友加入 RWKV 技术群讨论。

模型表现

RWKV7-G1 0.1B 模型回答 simulate SpaceX mars landing using python(使用 python 模拟 SpaceX 火星着陆)”:

RWKV G1 0.1B simulate SpaceX mars landing using python

日本开发者测试 RWKV7-G1 0.1B 的多语言能力:

RWKV7-G1-0.1B-jpn

如此小的 0.1B 模型,也能同时支持世界 100+ 种语言和代码。更大参数的 RWKV7-G1 0.4B/1.5B/2.9B 正在同时训练中

英文和多语言测评

RWKV7-G1 0.1B 的英文和多语言能力相比 RWKV-7-World 0.1B 继续提升:

我们也对 RWKV7-G1 0.1B 进行了 “无法作弊的模型评测” Uncheatable Eval,可见 RWKV7-G1 0.1B 对于多种新数据的压缩率,显著超越所有其它同尺寸的开源模型:

Uncheatable Eval

Uncheatable Eval:https://huggingface.co/spaces/Jellyfish042/UncheatableEval[1]

训练中的 RWKV7-G1 1.5B 模型

以下示例基于 RWKV7-G1-1.5B-16%trained模型,注意这个模型目前只训练了 16%。后续 100% 训练完成的 RWKV7-G1 1.5B 会显著更强:

RWKV7-G1-1.5B-16trained-psychological-counseling

RWKV7-G1-1.5B-16%trained 的示例二:

RWKV7-G1-1.5B-16trained-write-poem

训练中的 RWKV 模型可在 https://huggingface.co/BlinkDL/temp-latest-training-models/tree/main 下载。

模型试用

可以在 Hugging Face Gradio Demo[2] 试用 RWKV7-G1 0.1B 模型。

G1 的整体 prompt 格式与 RWKV-7 模型类似,可选使用 <think> 标签开启 reasoning 功能:

User: 你不许参加学术派对!
Assistant: <think>

RWKV Runner 和 Ai00 等 RWKV 推理工具正在适配 reasoning 聊天模式,因此目前只能在续写模式中体验 reasoning 功能。

模型下载

下载已完成训练的 RWKV7-G1 0.1B 模型:

下载其他训练中的 RWKV7-G1 模型:

G1 模型发布计划

当前已发布 G1 0.1B 模型,正在训练 G1 0.4B/1.5B/2.9B,具体发布计划如下:

模型发布计划
G1 0.1B3 月 8 日(已发布)
G1 0.4B3 月下旬
G1 1.6B4 月
G1 2.9B5 月

我们也在同时准备更大更优的数据集 World v3.7,用于 G1 7B 训练。

RWKV-7 学术支持

RWKV 社区近期新增了大量 RWKV 学术研究论文,以下是截至 2025 年 2 月的 RWKV 论文数量统计表格:

RWKV 论文统计

欢迎大家基于 RWKV-7  进行创业、科研,我们也会为基于 RWKV 的项目提供技术支持。

如果您的团队正在基于 RWKV 创业或开展研究,请联系我们!(在“RWKV元始智能”微信公众号留言您的联系方式,或发送邮件到“contact@rwkvos.com”。)

加入 RWKV 社区

欢迎大家加入 RWKV 社区,可以从 RWKV 中文官网了解 RWKV 模型,也可以加入 RWKV 论坛、QQ 频道和群聊,一起探讨 RWKV 模型。

相关链接

[1]

Uncheatable Eval: https://huggingface.co/spaces/Jellyfish042/UncheatableEval

[2]

Hugging Face Gradio Demo: https://huggingface.co/spaces/BlinkDL/RWKV-Gradio-2

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

RWKV-7 推理模型 多语言支持 人工智能
相关文章