阿里通义大模型今日正式推出 Wan2.2-I2V-Flash 模型,该模型在电影级视觉呈现的基础上,显著提升了生成速度和性价比。与前代 Wan2.1 相比,其推理速度快了 12 倍,指令遵循能力也大幅增强,能够精准理解并执行特效提示词,实现精细的运镜控制。同时,模型能稳定保持各类风格图像的风格,并生成自然流畅的动态效果。价格方面,Wan2.2-I2V-Flash 定为 0.1 元/秒,抽卡成功率提升 123%。该模型已在阿里云百炼平台开放 API 调用体验。此前,阿里已于 7 月 28 日开源了通义万相 Wan2.2 系列模型,包括文生视频、图生视频和统一视频生成模型,其中文生视频和图生视频模型采用了业界首创的 MoE 架构,并引入了媲美专业电影水平的电影美学控制系统。
🌟 **性能大幅跃升**:Wan2.2-I2V-Flash 模型相比 Wan2.1 在推理速度上提升了 12 倍,显著加快了视频生成过程。同时,其指令遵循能力也得到了大幅提升,能够更精准地理解并执行特效提示词,实现对视频运镜的精确控制。
🎨 **风格保持与动态效果**:该模型能够稳定地保持各类风格图像的艺术风格,并生成合理、自然的动态效果,为用户提供更具艺术表现力的视频内容。
💰 **性价比提升与价格策略**:Wan2.2-I2V-Flash 的价格为 0.1 元/秒,并且抽卡成功率相比 Wan2.1 提升了 123%,这意味着用户可以用更低的成本获得更高质量的视频生成结果,性价比得到全面提升。
🚀 **技术创新与行业领先**:阿里通义万相 Wan2.2 系列模型,包括文生视频和图生视频模型,采用了业界首创的 MoE 架构,总参数量达 27B,激活参数 14B。更重要的是,其首创的电影美学控制系统,在光影、色彩、构图、微表情等方面达到了专业电影水准,展现了强大的技术实力。
💡 **便捷的体验方式**:用户可以通过阿里云百炼平台调用 API 的方式来体验 Wan2.2-I2V-Flash 模型,为开发者和内容创作者提供了便捷的接入和使用途径。
IT之家 8 月 11 日消息,阿里通义大模型今天宣布,Wan2.2-I2V-Flash 模型正式上线,其在将电影级视觉呈现装进模型的同时,生成速度和性价比也实现全面跃升。

IT之家从官方介绍获悉,Wan2.2-I2V-Flash 相比 Wan2.1 的推理速度提升 12 倍,且指令遵循能力大幅提升,各种特效提示词直出,且能精准控制运镜。同时,其对各类风格话图像也都能稳定保持风格,并实现合理、自然的动态效果。此外,其价格为 0.1 元 / 秒,抽卡成功率相比 Wan2.1 提升 123%。目前,该模型可在阿里云百炼通过调用 API 来进行体验。
不久前的 7 月 28 日,阿里开源通义万相 Wan2.2,包含文生视频(Wan2.2-T2V-A14B)、图生视频(Wan2.2-I2V-A14B)和统一视频生成(Wan2.2-IT2V-5B)三款模型,其中文生视频模型和图生视频模型均为业界首个使用 MoE 架构的视频生成模型,总参数量为 27B,激活参数 14B;同时,首创电影美学控制系统,光影、色彩、构图、微表情等能力媲美专业电影水平。
相关阅读: