近日,字节跳动推出AI视频生成模型Seedance2.0,可在60秒内根据文本提示或单张图像生成带原生音频的2K多镜头序列视频。
该模型采用双分支扩散变换器架构,同步生成视频与音频,并具备多镜头叙事能力,能依据单一提示自动生成多个相互关联场景,在角色、视觉风格及氛围上保持全程一致性,无需人工干预剪辑。
官方称其适用于从开头到高潮的完整叙事序列制作,确保专业级连贯性。测评显示,Seedance2.0在大范围运动建模、分镜设计、音画匹配等方面表现突出,具备明显角度切换能力,摄影机运镜逻辑接近真人导演操作。
开源证券研报指出,该模型在自运镜与分运镜控制、全方位多模态推理、音画同步生成及多镜头叙事等维度实现突破,提供“导演级”控制精度,或标志AI影视发展进入关键节点。
对比行业同类产品,Seedance2.0生成2K视频速度较快手Kling快30%;Sora侧重物理真实感,Kling聚焦运动控制,而Seedance2.0核心定位为生成含原生音频的连贯多场景序列。
东方证券分析认为,当前国内视频生成技术已迈入类2025年大语言模型竞争阶段,基础能力趋同,后续差异化将集中于垂直场景落地。视频生成正进入精准可控的“仪表盘时代”,用户门槛降低推动B端与C端应用同步扩容。
投资层面,机构预期Seedance2.0将在AI漫剧、AI短剧等短内容领域率先规模化应用,显著降低制作成本、提升产能效率;拥有IP储备与平台流量优势的企业有望优先受益。垂类多模态AI应用出海布局亦被列为重点关注方向。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。



