index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
2025年6月,“RWKV 2025生态内容征集大赛”收到3篇高质量论文投稿。本文公布6月活动投稿作品及评审结果。FEAT、RWKVQuant分获金奖,VisualRWKV-HM获银奖。FEAT基于RWKV模型架构提出FEAT模型,解决医疗视频生成问题;RWKVQuant提出针对RWKV模型的训练后量化框架,成功压缩RWKV-14B模型;VisualRWKV-HM基于RWKV模型提出具有线性复杂度的视觉语言模型,在多基准测试中达到SOTA性能。
🔍 FEAT模型:基于RWKV模型架构中的WKV注意力机制,提出统一的空间-时间-通道注意力机制,解决医疗视频生成中通道交互不足、计算复杂度高和去噪指导粗糙的问题,在多个数据集上实现高效高质量的医疗视频生成。
📈 RWKVQuant量化框架:提出针对RWKV模型的训练后量化框架,结合标量量化和向量量化技术,设计基于信息熵的代理策略与码本优化算法,成功将RWKV-14B模型压缩至约3位宽,精度损失小于1%的同时实现2.14倍加速。
🎨 VisualRWKV-HM模型:基于RWKV模型提出具有线性复杂度的视觉语言模型,在单图像、多图像和多视图基准测试中均达到SOTA性能,与基于Transformer-Mamba架构的混合模型LongLLaVA相比,内存消耗更少,吞吐量提高24%,具有良好的可扩展性。
原创 manjuan 2025-07-07 17:00 广东
2025 年 6 月,活动共收到 RWKV 生态作品投稿 3 篇高质量论文。本文将公布 2025 年 6 月的活动投稿作品及评审结果。

大家好,我们在 2024 年底推出了 “RWKV 2025 生态内容征集大赛”,公开征集 RWKV 相关的作品,包括但不限于 RWKV 相关的论文、讲解 RWKV 的教程,以及基于 RWKV 的应用等。2025 年 6 月,活动共收到 RWKV 生态作品投稿 3 篇高质量论文。本文将公布 2025 年 6 月的活动投稿作品及评审结果。评审结果
评审结果省流版
作品名称 | 作品分类 | 投稿人 | 初评奖项 |
---|
FEAT: Full-Dimensional Efficient Attention Transformer for Medical Video Generation | 论文 | 王绘涵 | 金奖(4888 元) |
RWKVQuant: Quantizing the RWKV Family with Proxy Guided Hybrid of Scalar and Vector Quantization | 论文 | 后摩智能 | 金奖(4888 元) | VisualRWKV-HM: Enhancing linear visual-language models via hybrid mixing | 论文 | 霍华德 | 银奖(2888 元) |
💡Tips下面是“RWKV 2025 生态内容征集大赛” 6 月投稿获奖的作品介绍。
论文类
FEAT: Full-Dimensional Efficient Attention Transformer for Medical Video Generation投稿链接:https://github.com/Yaziwel/FEAT投稿人:王绘涵获奖类型:金奖(4888 元)项目介绍:论文基于 RWKV 模型架构中的 WKV 注意力机制,提出了 FEAT 模型,通过统一的空间-时间-通道注意力机制解决医疗视频生成中通道交互不足、计算复杂度高和去噪指导粗糙的问题。在多个数据集上实现了高效高质量的医疗视频生成。论文的工作十分出色新颖,已作为 MICCAI 2025 的 top9% 提前收录。
20250605-FEAT Full-Dimensional Efficient AttentionRWKVQuant: Quantizing the RWKV Family with Proxy Guided Hybrid of Scalar and Vector Quantization投稿链接:https://github.com/xuchen-dev/RWKVQuant投稿人:后摩智能获奖类型:金奖(4888 元)项目介绍:论文提出了 RWKVQuant,一种专门针对 RWKV 模型的训练后量化框架。通过结合标量量化和向量量化技术,并设计基于信息熵的代理策略与码本优化算法,该框架成功将 RWKV-14B 模型压缩至约 3 位宽,在精度损失小于 1% 的同时实现 2.14 倍加速。实验证明了该方法在语言和视觉任务上的有效性,是首个针对 RWKV 家族的完整量化解决方案。
20250502-RWKVQuantVisualRWKV-HM: Enhancing linear visual-language models via hybrid mixing投稿链接:https://doi.org/10.1016/j.inffus.2025.103336投稿人:霍华德获奖类型:银奖(2888 元)项目介绍:论文基于 RWKV 模型提出了 VisualRWKV-HM,这是一种具有线性复杂度的视觉语言模型,在单图像、多图像和多视图基准测试中均达到了 SOTA 性能。与基于 Transformer-Mamba 架构的混合模型 LongLLaVA 相比,它在上下文长度为 16K 时消耗的内存更少,吞吐量提高了 24%。此外,VisualRWKV-HM 具有良好的可扩展性,通过扩展状态编码器和解码器,可以进一步提高性能。论文的工作十分新颖有效,已被 JCR Q1 期刊 Information Fusion 收录。
20250606-VisualRWKV-HM奖品/奖金发放规则
实物奖品(RWKV 周边等)以顺丰快递方式发出奖金以转账或第三方线上平台等方式发放同一投稿作品有多位作者的情况下,由作品投稿人领取奖金,团队内部自行协商分配奖金二次投稿与奖项升级
所有投稿作品均会获得评审意见。请根据评审意见优化你的作品,然后可再次投稿以升级奖项。奖项成功升级时,我们将补发前后两个奖金的差价。例如投稿作品从铁奖(888元)升级到银奖(2888元),则补发 2888-888=2000 元奖金。
附活动海报,欢迎各位转发!
* 本活动最终解释权归元始智能所有。 



阅读原文
跳转微信打开