快科技资讯 22小时前
腾讯混元发布语音数字人模型:仅需上传图像和音频 图中主角就能说话唱歌
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

腾讯混元发布了语音数字人模型HunyuanVideo-Avatar,该模型仅需一张人物图片和一段音频,即可生成人物自然说话或唱歌的视频。该模型由腾讯混元视频大模型及腾讯音乐天琴实验室MuseV技术联合研发,支持多种景别、风格、物种和双人场景,为视频创作者提供高一致性和高动态性的视频生成能力。用户上传图片和音频后,模型会自动理解内容,生成包含自然表情、唇形同步和全身动作的视频。目前,HunyuanVideo-Avatar适用于短视频创作、电商和广告等多种应用场景,能够快速制作产品介绍视频或多人互动广告,降低制作成本。单主体能力已开源。

🖼️HunyuanVideo-Avatar是腾讯混元发布的语音数字人模型,它只需一张图片和一段音频,即可让图片中的人物自然地说话或唱歌。

🎤该模型由腾讯混元视频大模型及腾讯音乐天琴实验室MuseV技术联合研发,支持头肩、半身与全身景别,以及多风格、多物种与双人场景,应用范围广泛。

🎬HunyuanVideo-Avatar适用于短视频创作、电商与广告等多种应用场景,可以生成人物在不同场景下的说话、对话、表演等片段,快速制作产品介绍视频或多人互动广告,有效降低制作成本。

🔓HunyuanVideo-Avatar的单主体能力已经开源,并在腾讯混元官网上线,目前支持上传不超过14秒的音频进行视频生成,后续将逐步上线和开源其他能力。

快科技5月28日消息,腾讯混元发布语音数字人模型HunyuanVideo-Avatar。仅需一张图和一段音频,就能让图中的主角自然的说话、唱歌。

据悉,HunyuanVideo-Avatar由腾讯混元视频大模型及腾讯音乐天琴实验室MuseV技术联合研发。

该模型支持头肩、半身与全身景别,以及多风格、多物种与双人场景,面向视频创作者提供高一致性、高动态性的视频生成能力。

用户上传人物图像与音频,HunyuanVideo-Avatar模型就会自动理解图片与音频。让图中人物自然地说话或唱歌,生成包含自然表情、唇形同步及全身动作的视频。

当用户输入一张拿着吉他的坐在沙滩的女性图片和一段抒情音乐。

模型会自行理解“她在海边弹吉他,唱着非常抒情的歌曲”,并生成一段图中人物在弹唱的视频。

目前,HunyuanVideo-Avatar适用于短视频创作、电商与广告等多种应用场景。

可以生成人物在不同场景下的说话、对话、表演等片段,快速制作产品介绍视频或多人互动广告,降低制作成本。

据介绍,HunyuanVideo-Avatar的单主体能力已经开源,并在腾讯混元官网上线,目前支持上传不超过14秒的音频进行视频生成,后续将逐步上线和开源其他能力。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

腾讯混元 数字人 AI模型 视频生成
相关文章