Character.AI 发布研究论文及演示视频,展示其最新自回归扩散模型 TalkingMachines,让AI角色实现类似FaceTime的实时音视频互动。该模型基于Diffusion Transformer技术,结合流匹配扩散、音频驱动交叉注意力、稀疏因果注意力与不对称蒸馏等方法,使AI角色在对话中展现自然的表情和动作。系统可支持写实人类、动漫与3D形象等多种风格,为未来沉浸式交互体验奠定基础。
Character.AI 发布研究论文及演示视频,展示其最新自回归扩散模型 TalkingMachines,让AI角色实现类似FaceTime的实时音视频互动。该模型基于Diffusion Transformer技术,结合流匹配扩散、音频驱动交叉注意力、稀疏因果注意力与不对称蒸馏等方法,使AI角色在对话中展现自然的表情和动作。系统可支持写实人类、动漫与3D形象等多种风格,为未来沉浸式交互体验奠定基础。