新智元 11小时前
AI秒懂短视频,快手大模型Keye-VL理解力爆表!技术细节全开源
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

快手推出的Kwai Keye-VL是一款创新的多模态大语言模型,特别擅长视频理解。它能够处理文本、图像和视频等多模态信息,通过自适应交互机制和动态推理能力,为用户提供更智能的交互体验。Kwai Keye-VL在复杂视觉感知、逻辑推理和视频理解方面表现出色,并在高考数学卷中取得了优异成绩。该模型已开源,为研究者提供了探索多模态技术的机会。

🖼️ Kwai Keye-VL基于Qwen3-8B语言模型,结合SigLIP视觉编码器,支持动态分辨率输入,并采用3D RoPE处理多模态信息,确保视频时序信息的精准捕捉。

📚 模型通过大规模多模态预训练数据集,构建强大的图文和视频理解能力,并采用四阶段渐进式优化策略,包括视觉预训练、跨模态对齐、多任务预训练和退火训练,以提升模型性能。

🧠 Kwai Keye-VL的后训练阶段包括非推理训练和推理训练。推理训练阶段通过思维链和强化学习机制,显著提升模型的多模态感知、推理能力,使其能够处理更复杂的任务。

📊 模型在视觉理解和逻辑推理Benchmark测试中表现出色,尤其在MMMU、MMStar等通用Benchmark及MathVista、OlympiadBench等推理Benchmark上,性能大幅领先。在视频理解Benchmark中,Kwai Keye-VL在公开和自建评测中均展现出全面领先优势。

💡 为了实现百亿参数模型的高效稳定训练,Kwai Keye-VL采用了混合并行策略和全局负载均衡策略,并构建了样本级自动容错机制,确保了训练的稳定性和效率。


  新智元报道  

编辑:编辑部
【新智元导读】今天,全新多模态大语言模型Kwai Keye-VL震撼上线,展现了无与伦比的视频理解力!它能将视频内容转化为高能方案,还会智能选择思考模式,效率与创意兼得。目前,模型已正式开源。

如果有人突然问你:这张图片中有几颗草莓」?你会如何快速回复?

面对五彩缤纷的果盘,我们往往需要反复端详,放大图片再逐一清点,耗费不少时间才能得到答案。

然而,AI大模型正让这种复杂视觉识别变得简单——在快手最新发布的Kwai Keye-VL-8B的试用体验中,它自动解析图像细节,执行图像区域裁剪,放大相关的计算代码以增强感知效果,在短短几秒内给出精准答案,一共20颗。

Kwai Keye-VL是快手自主研发的多模态大语言模型。

该模型能深度融合和处理文本、图像、视频等多模态信息,凭借创新的自适应交互机制与动态推理能力,致力于为用户打造更智能、更全面的多模态交互新范式。

其中,依托快手在短视频的深厚技术积累,Keye-VL在视频理解方面具备得天独厚的优势。

实践出真知!现在就把一个介绍简易移动房子的视频丢给Keye-VL,考考它能不能利用强大的视频理解和推理能力,当场做出一份销售方案来。

问题:请你为视频中的商品写一份推销方案。

「看」完11秒的视频后,Kwai Keye-VL很快便生成了一份推销方案,覆盖了方方面面,足以堪称商品推销的「优秀模板」

上下滑动查看

除在复杂视觉感知视频理解上的优异表现外,Kwai Keye-VL在逻辑推理上也同样令人惊喜,在最新的2025高考全国数学卷中,Kwai Keye-VL狂砍140分

目前Kwai Keye-VL已正式开源!

Homepage: https://kwai-keye.github.io/

Github Repo: https://github.com/Kwai-Keye/Keye

Model Weight: https://huggingface.co/Kwai-Keye/Keye-VL-8B-Preview

KC-MMBench: https://huggingface.co/datasets/Kwai-Keye/KC-MMbench

接下来,让我们一起探索支撑其强大多模态能力的关键技术突破。

核心技术架构公开Kwai Keye-VL基于Qwen3-8B语言模型,并整合了SigLIP初始化的视觉编码器。

它支持动态分辨率输入,按原始比例将图像切分为14x14分块,由一个MLP层整合这些视觉特征。

模型采用3D RoPE(旋转位置编码)统一处理文本、图像和视频,并通过位置编码与时间戳对齐,精准捕捉视频时序变化。

Pre-Train:构建多模态基座能力
Kwai Keye-VL的预训练阶段核心目标是,构建强大的图文和视频理解能力(即视觉-语言对齐)。

为支撑这一目标,模型使用了总量高达600B的大规模多模态预训练数据集,包含图文、视频及纯文本数据。

此外,Kwai Keye-VL通过自建高质量中文OCR系统和精细化描述数据,有效突破了开源数据的局限,专门服务于模型图文/视频理解能力的训练。

训练流程采用四阶段渐进式优化策略:

视觉预训练: 持续预训练视觉编码器,使其适配内部数据分布并支持动态分辨率输入。

跨模态对齐: 冻结主干模型,仅训练轻量级MLP适配器,以极低成本高效建立鲁棒的图文/视频-文本对齐关系。

多任务预训练: 解锁全部模型参数,进行多任务联合训练,全面提升模型的综合视觉理解能力。

退火训练: 使用精选高质量数据进行精调,进一步提升模型的精细理解和判别能力。

最后,Kwai Keye-VL探索了同构异质融合技术,通过参数平均融合不同数据配比的退火训练模型,在保留多维度能力的同时,减小模型偏差,增强了模型的鲁棒性。

Post-Train:两阶段精细微调,突破性强化推理能力
Kwai Keye-VL的后训练阶段经过精心设计,旨在全面提升模型的性能,尤其是其在复杂任务中的推理能力,这一部分是模型实现高级认知功能的关键突破。

Stage I. 非推理训练(No-Reasoning Training):夯实基础性能Kwai Keye-VL首先进行监督微调(SFT,使用500万条高质量多模态VQA数据,数据多样性由自研TaskGalaxy方案建立的任务体系(包含7W种任务)保证,数据质量经AI筛选困难样本及人工标注保障;随后进行混合偏好优化(MPO),结合开源数据与自建的偏好数据,后者通过收集SFT错误样本作提问素材、Qwen2.5VL 72B与SFT模型生成答案对、人工排序获得。

Stage II. 推理训练Reasoning Training:核心突破,赋能复杂认知

此阶段是Kwai Keye-VL训练流程的最大亮点与贡献,通过引入Mix-mode的思维链(CoT)和多思考模式强化学习(RL)机制,显著提升模型的多模态感知、推理和think with image能力,使其能够处理更复杂、需要多步思考的任务。

思维链冷启动阶段CoT Cold-Start) 通过混合四种推理模式的训练数据,实现对模型思维链能力的零基础激活,使其初步掌握人类分步思考的推理范式。

混合强化学习阶段(CoT-Mix RL) 在冷启动基础上,采用GRPO算法进行混合模式强化学习,通过创新的双轨奖励机制(同步评估结果正确性与过程一致性)深度优化多模态感知、数学推理、短视频理解及智能体协同等综合能力,显著提升模型的推理能力。

多轮迭代对齐阶段(Iterative Alignment) 利用MPO算法对优劣数据对进行多轮迭代,根治内容重复崩溃与逻辑断层问题,最终赋予模型根据问题复杂度智能选择深度推理模式的自适应能力,实现性能与稳定性的双重突破。

Kwai Keye-VL通过分阶段、精细化的预训练与后训练策略,特别是对推理能力的深度强化与创新性突破,确保了模型在多种复杂场景下都能提供高质量、逻辑严谨且稳定的输出。

训练架构优化:高效稳定的百亿参数模型训练
为实现百亿参数模型的高效稳定训练,Kwai Keye-VL通过混合并行策略(整合数据并行/序列并行/ZeRO技术)显著提升训练吞吐量,既利用显存分片降低压力,又通过计算通信重叠隐藏延迟。

不同于纯文本模型训练,多模态输入分辨率差异很大,不同显卡计算负载不均会导致整体利用率降低,Kwai Keye-VL在训练框架中实现了全局负载均衡策略,依据样本FLOPS动态分发样本,尽可能消除硬件闲置,显著提高了多模态训练的MFU。同时构建了样本级自动容错机制,依托联合检查点技术使训练意外中断后可自动精准续训,保证了模型迭代的稳定性。

后训练阶段通过升级vLLM框架加速采样,并部署多奖励模型随机分发策略,大幅压缩强化学习的计算耗时,系统性保障了大规模训练的稳定性与效率。

模型评估
· 视觉理解/逻辑推理Benchmark
Kwai Keye-VL在综合感知能力比肩同规模顶尖模型的同时,在复杂推理任务中展现出显著领先优势。

评测数据显示:其基础感知达行业一流水准;而在MMMU、MMStar等通用Benchmark及MathVista、OlympiadBench等推理Benchmark上,该模型性能曲线大幅领跑业界,尤其在需要高阶逻辑推理与数学解题的挑战性任务中,凸显出卓越的复杂问题解决能力。

· 视频理解Benchmark
Kwai Keye-VL通过公开与自建评测双验证,在学术标准与真实短视频场景中均展现出全面领先优势。

为突破公开数据集的数据污染、语言覆盖局限及任务单一性等问题,快手构建了内部评测集KC-MMBench。

结果显示,该模型在VideoMME等权威公开Benchmark中以67.4分超越Qwen2.5-VL-7B(62.7)与InternVL-3-8B(65.5);

在内部短视频场景评测中优势进一步扩大,综合得分领先SOTA模型超10%,尤其在热点聚合、内容合集、广告价值等核心场景表现卓越,实证其学术与产业双维竞争力。

当大模型的风暴席卷交互的疆界,重塑我们认知与交互的方式,Kwai Keye-VL——这颗由快手精心锻造的视觉-语言「智能火种」,正在视频理解的沃土上,燃起一场颠覆性的燎原之火!

这亦是Keye注入时代的核心动能,一场始于理解、终于交互的智能觉醒!

此刻,就让我们以一首诗,为这段探索的华章作结,跟随Keye的视角,感受智能之眼所洞见的壮阔未来……

提问:结合如下这张图片,写一首诗

参考资料:
https://kwai-keye.github.io/


文章原文

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Kwai Keye-VL 多模态大模型 视频理解 人工智能 快手
相关文章