5月28日,腾讯混元发布并开源语音数字人模型HunyuanVideo-Avatar。该模型由腾讯混元视频大模型与腾讯音乐天琴实验室联合研发,支持多景别、多风格及双人场景,可生成高一致性和高动态性的视频。用户上传人物图像与音频后,模型能自动理解环境与情感信息,生成包含自然表情、唇形同步和全身动作的视频,助力视频创作者提升效率。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。
5月28日,腾讯混元发布并开源语音数字人模型HunyuanVideo-Avatar。该模型由腾讯混元视频大模型与腾讯音乐天琴实验室联合研发,支持多景别、多风格及双人场景,可生成高一致性和高动态性的视频。用户上传人物图像与音频后,模型能自动理解环境与情感信息,生成包含自然表情、唇形同步和全身动作的视频,助力视频创作者提升效率。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。