Cnbeta 07月29日 13:32
阿里AI四连发 宣布开源电影级视频模型Wan2.2
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

继上周阿里AI三连发后,阿里又发布了电影级视频生成模型通义万相Wan2.2。该模型将光影、色彩、镜头语言三大电影美学元素融入模型,并提供60多个直观可控参数,显著提升了电影级画面的制作效率。目前单次可生成5s高清视频,并支持多轮提示词进行短剧制作。Wan2.2开源了文生视频、图生视频和统一视频生成三款模型,其中文生视频和图生视频模型是业界首个采用MoE架构的视频生成模型,总参数量27B,激活参数14B。该模型在复杂运动生成、人物交互、美学表达等方面均有提升,且计算资源消耗降低约50%。此外,Wan2.2还拥有媲美专业电影水平的电影美学控制系统,可根据关键词生成特定风格的画面。

🎬 **电影级美学融合与参数化控制**:通义万相Wan2.2模型将光影、色彩、镜头语言这三大电影美学核心元素内嵌于模型之中,并提供了超过60个直观且易于控制的参数。这使得用户能够灵活组合这些元素,大幅提升了生成电影级画面的效率和艺术表现力,为视频创作带来了前所未有的精细化控制能力。

🚀 **高效视频生成与短剧制作潜力**:目前,Wan2.2单次生成即可达到5秒高清视频,且支持用户通过多轮提示词进行连续性的短剧内容创作。该模型未来还将持续优化单次视频生成时长,进一步提升视频创作的整体效率,为快速内容生产提供了有力支持。

💡 **MoE架构与资源优化**:Wan2.2开源的文生视频模型和图生视频模型均是业界首创,采用了MoE(Mixture of Experts)架构,总参数量27B,激活参数14B。这种架构由高噪声和低噪专家模型组成,分别负责视频的整体布局和细节完善,在同等参数规模下,能节省约50%的计算资源消耗,有效解决了视频生成中Token过长导致的计算资源过大问题。

✨ **多维度性能提升与美学控制**:除了在计算资源上的优化,Wan2.2在复杂运动生成、人物交互、美学表达等多个维度也取得了显著进步。其首创的电影美学控制系统,能够根据用户输入的“黄昏”、“柔光”、“暖色调”等关键词,生成符合预期的画面效果,例如浪漫的落日余晖;或通过“冷色调”、“硬光”、“低角度”等组合,生成科幻感十足的画面,艺术表现力极强。

继上周阿里AI三连发后,阿里又扔出新的开源模型——电影级视频生成模型通义万相Wan2.2。Wan2.2可将光影、色彩、镜头语言三大电影美学元素装进模型,随意组合60多个直观可控的参数,大幅提升电影级画面的制作效率。


目前,该模型单次可生成5s的高清视频,用户可通过多轮提示词进一步完成短剧制作,未来通义万相还将继续提升单次视频生成的时长,让视频创作更高效。

据悉,Wan2.2此次开源了文生视频(Wan2.2-T2V-A14B)、图生视频(Wan2.2-I2V-A14B)和统一视频生成(Wan2.2-TI2V-5B)三款模型,其中文生视频模型和图生视频模型均为业界首个使用MoE架构的视频生成模型,总参数量为27B,激活参数14B,均由高噪声专家模型和低噪专家模型组成,分别负责视频的整体布局和细节完善,在同参数规模下,可节省约50%的计算资源消耗,有效解决视频生成处理Token过长导致的计算资源消耗大问题,同时在复杂运动生成、人物交互、美学表达、复杂运动等维度上也取得了显著提升。

此外,Wan2.2还首创了电影美学控制系统,光影、色彩、构图、微表情等能力媲美专业电影水平。例如,用户输入黄昏、柔光、边缘光、暖色调、中心构图等关键词,模型可自动生成金色的落日余晖的浪漫画面;使用冷色调、硬光、平衡图、低角度的组合,则可以生成接近科幻片的画面效果。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

通义万相 视频生成 AI模型 电影美学 MoE架构
相关文章