7月28日晚,阿里AI再推新成果,电影级视频生成模型通义万相Wan2.2正式开源,并全面接入通义APP。
Wan2.2开源的文生视频模型和图生视频模型采用MoE架构,总参数量27B,激活参数14B,由高噪声专家模型和低噪专家模型组成,分别负责视频整体布局和细节完善。
在相同参数规模下,计算资源消耗降低约50%,缓解了视频生成处理Token过长带来的算力压力,提升生成效率和用户体验。
手机用户通过通义APP输入文本或图片,可生成具备电影级质感的1080P高清视频,单次生成时长为5秒,支持通过多轮提示词制作短剧。
该模型首创美学控制系统,集成光影、色彩、镜头语言三大电影美学元素,支持组合60多个参数,在构图、微表情、复杂调度等方面达到专业电影水平。
系统支持智能美学词响应、智能参数联动,用户只需简单描述,模型即可解析创作意图并自动协调参数。
在人物面部表情、多人交互、复杂运动等维度,Wan2.2实现显著提升,可生成精细微表情,如思考时不经意的挑眉、强忍泪水时的嘴唇颤抖。
此外,模型优化了对力学、光学、流体等物理规律的模拟,能还原物体碰撞、光影折射、流体流动等真实动态。
官方展示的案例包括生成复古文艺感视频、复刻《星际穿越》中米勒星球场景。
自2月以来,通义万相已连续开源多款模型,相关功能可在通义APP直接体验。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。