字节视频生成模型Seedance 2.0 正式发布

DoNews2月12日消息,今天,字节正式发布新一代视频创作模型 Seedance 2.0。

Seedance 2.0 采用统一的多模态音视频联合生成架构,支持文字、图片、音频、视频四种模态输入,集成了目前业界最全面的多模态内容参考和编辑能力。

相比 1.5 版本,Seedance 2.0 的生成质量大幅提升,其在复杂交互和运动场景下的可用率更高,物理准确度、逼真度、可控性显著增强,更加贴合工业级创作场景的需求。

其核心亮点如下:

  • 复杂场景下更高可用率:凭借出色的运动稳定性和物理还原能力,模型在多主体交互和复杂运动场景中表现出色,生成可用率达到业界 SOTA 水平。

  • 模态能力显著强化:基于统一的多模态音视频联合架构训练,支持混合模态输入,允许用户同时输入多达 9 张图片、3 段视频、3 段音频以及自然语言指令,模型可参考输入素材中的构图、动作、运镜、特效、声音等元素,打破传统视频生成的素材边界。

  • 视频生成可控性大幅提升:模型的指令遵循与一致性表现全面提升,并支持稳定可控的视频延长、视频编辑,让普通用户也能像导演一样,轻松掌控视频创作全流程。

  • 深度支持工业级内容创作:模型支持 15 秒高质量多镜头音视频输出,具备双声道音频能力,可实现极致拟真的视听效果,配合参考和编辑能力,能大幅降低影视、广告、电商、游戏等场景的内容制作成本。

目前,Seedance 2.0 已上线即梦AI、豆包等平台,欢迎体验和反馈。

字节视频生成模型Seedance 2.0 正式发布
扫描二维码查看原文
分享自DoNews
Copyright © DoNews 2000-2026 All Rights Reserved
蜀ICP备2024059877号-1