3月18日,LiblibAI正式发布AI视频创作平台LibTV,上线首日访问量突破10万。该平台集成可灵3.0(Kling 3.0)、Wan 2.6、Seedream 5.0、Midjourney V7等多模态模型及Mureka音频生成模型,覆盖文本、图像、视频与音频生成能力。
LibTV采用“无限画布+节点式工作流”架构,将剧本、分镜、镜头、剪辑等环节整合于同一结构化空间,支持任意节点修改与复用,使视频创作从线性操作转向接近影视工业流程的系统化作业。
平台上线20项独家功能,包括角色三视图生成、主体库(角色一致性管理)、多机位9/25宫格、剧情推演4宫格、画面推演(3秒后及5秒前)、电影级灯光控制(24种主光位、9种轮廓光预设)、镜头聚焦、9/25宫格切分等,面向专业影视创作者需求设计。
LibTV实行“人类创作者+AI Agent”双入口机制:除传统图形界面外,同步提供面向AI Agent的Skill接口,支持OpenClaw等外部Agent通过自然语言、链接或文件输入,自动完成脚本生成、分镜设计至视频输出的全流程。
在模型与算力合作层面,LiblibAI已接入豆包大模型、Hailuo AI、Kimi、千问大模型、生数、智谱等模型方,并与阿里云、Google Cloud、火山引擎、腾讯云、亚马逊云科技等云平台建立基础设施合作,实现跨模型调度与成本-性能-可用性平衡。
LiblibAI未聚焦单一模型能力竞争,而是构建覆盖图像、设计Agent及视频创作的全链路AI创作基础设施体系,通过整合行业模型迭代成果持续提升系统级体验。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。



