RWKV元始智能 07月08日 14:12
RWKV 2025 生态内容征集大赛 | 6 月投稿作品及评审结果
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

2025年6月,“RWKV 2025生态内容征集大赛”收到3篇高质量论文投稿。本文公布6月活动投稿作品及评审结果。FEAT、RWKVQuant分获金奖,VisualRWKV-HM获银奖。FEAT基于RWKV模型架构提出FEAT模型,解决医疗视频生成问题;RWKVQuant提出针对RWKV模型的训练后量化框架,成功压缩RWKV-14B模型;VisualRWKV-HM基于RWKV模型提出具有线性复杂度的视觉语言模型,在多基准测试中达到SOTA性能。

🔍 FEAT模型:基于RWKV模型架构中的WKV注意力机制,提出统一的空间-时间-通道注意力机制,解决医疗视频生成中通道交互不足、计算复杂度高和去噪指导粗糙的问题,在多个数据集上实现高效高质量的医疗视频生成。

📈 RWKVQuant量化框架:提出针对RWKV模型的训练后量化框架,结合标量量化和向量量化技术,设计基于信息熵的代理策略与码本优化算法,成功将RWKV-14B模型压缩至约3位宽,精度损失小于1%的同时实现2.14倍加速。

🎨 VisualRWKV-HM模型:基于RWKV模型提出具有线性复杂度的视觉语言模型,在单图像、多图像和多视图基准测试中均达到SOTA性能,与基于Transformer-Mamba架构的混合模型LongLLaVA相比,内存消耗更少,吞吐量提高24%,具有良好的可扩展性。

原创 manjuan 2025-07-07 17:00 广东

2025 年 6 月,活动共收到 RWKV 生态作品投稿 3 篇高质量论文。本文将公布 2025 年 6 月的活动投稿作品及评审结果。

大家好,我们在 2024 年底推出了 “RWKV 2025 生态内容征集大赛”,公开征集 RWKV 相关的作品,包括但不限于 RWKV 相关的论文、讲解 RWKV 的教程,以及基于 RWKV 的应用等。

2025 年 6 月,活动共收到 RWKV 生态作品投稿 3 篇高质量论文

本文将公布 2025 年 6 月的活动投稿作品及评审结果。

评审结果

评审结果省流版

作品名称

作品分类

投稿人

初评奖项

FEAT: Full-Dimensional Efficient Attention Transformer for Medical Video Generation

论文

王绘涵

金奖(4888 元)

RWKVQuant: Quantizing the RWKV Family with Proxy Guided Hybrid of Scalar and Vector Quantization

论文

后摩智能

金奖(4888 元)

VisualRWKV-HM: Enhancing linear visual-language models via hybrid mixing

论文

霍华德

银奖(2888 元)

💡Tips下面是“RWKV 2025 生态内容征集大赛” 6 月投稿获奖的作品介绍。

论文类

FEAT: Full-Dimensional Efficient Attention Transformer for Medical Video Generation

投稿链接:https://github.com/Yaziwel/FEAT

投稿人:王绘涵

获奖类型:金奖(4888 元)

项目介绍:论文基于 RWKV 模型架构中的 WKV 注意力机制,提出了 FEAT 模型,通过统一的空间-时间-通道注意力机制解决医疗视频生成中通道交互不足、计算复杂度高和去噪指导粗糙的问题。在多个数据集上实现了高效高质量的医疗视频生成。论文的工作十分出色新颖,已作为 MICCAI 2025 的 top9% 提前收录。

20250605-FEAT Full-Dimensional Efficient AttentionRWKVQuant: Quantizing the RWKV Family with Proxy Guided Hybrid of Scalar and Vector Quantization

投稿链接:https://github.com/xuchen-dev/RWKVQuant

投稿人:后摩智能

获奖类型:金奖(4888 元)

项目介绍:论文提出了 RWKVQuant,一种专门针对 RWKV 模型的训练后量化框架。通过结合标量量化和向量量化技术,并设计基于信息熵的代理策略与码本优化算法,该框架成功将 RWKV-14B 模型压缩至约 3 位宽,在精度损失小于 1% 的同时实现 2.14 倍加速。实验证明了该方法在语言和视觉任务上的有效性,是首个针对 RWKV 家族的完整量化解决方案。

20250502-RWKVQuantVisualRWKV-HM: Enhancing linear visual-language models via hybrid mixing

投稿链接:https://doi.org/10.1016/j.inffus.2025.103336

投稿人:霍华德

获奖类型:银奖(2888 元)

项目介绍:论文基于 RWKV 模型提出了 VisualRWKV-HM,这是一种具有线性复杂度的视觉语言模型,在单图像、多图像和多视图基准测试中均达到了 SOTA 性能。与基于 Transformer-Mamba 架构的混合模型 LongLLaVA 相比,它在上下文长度为 16K 时消耗的内存更少,吞吐量提高了 24%。此外,VisualRWKV-HM 具有良好的可扩展性,通过扩展状态编码器和解码器,可以进一步提高性能。论文的工作十分新颖有效,已被 JCR Q1 期刊 Information Fusion 收录。

20250606-VisualRWKV-HM

奖品/奖金发放规则

实物奖品(RWKV 周边等)顺丰快递方式发出

奖金转账或第三方线上平台等方式发放

同一投稿作品有多位作者的情况下,由作品投稿人领取奖金,团队内部自行协商分配奖金

二次投稿与奖项升级

所有投稿作品均会获得评审意见。请根据评审意见优化你的作品,然后可再次投稿以升级奖项

奖项成功升级时,我们将补发前后两个奖金的差价。例如投稿作品从铁奖(888元)升级到银奖(2888元),则补发 2888-888=2000 元奖金。


附活动海报,欢迎各位转发!

* 本活动最终解释权归元始智能所有。

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

RWKV 生态内容征集大赛 FEAT RWKVQuant VisualRWKV-HM
相关文章