谷歌DeepMind发布D4RT模型,实现动态4D重建速度大幅提升
据Google DeepMind官方消息,DeepMind近日发布了D4RT动态4D重建与追踪模型。该模型在计算机视觉领域取得重大突破,能够以比当前最佳技术快18至300倍的速度,从普通视频中实时重建出动态变化的三维世界。
D4RT采用统一的“时空查询”架构,通过大型编码器将整段视频编码为全局场景记忆,并利用通用解码器接口响应像素时空信息的查询。此设计支持一次性并行处理成千上万个查询,将复杂几何重建转化为高效并行搜索,显著提升处理速度。
模型具备精准处理动态混乱场景的能力,可有效分离相机运动与物体自身运动,并对被遮挡像素的轨迹进行准确预测。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。



