在日常生活中,人类通过视觉和触觉等多重感官输入,能够轻松完成诸如从桌上拿起一杯咖啡这样的动作。然而,在人工智能中模拟这一过程却极具挑战。
由香港大学和日本东北大学组成的国际研究团队开发出一种新方案,能将视觉与触觉信息融合,用于机械臂操控,并实现对环境的自适应响应。与传统仅依赖视觉信息的方法相比,该方案显著提高了任务成功率。
这一成果标志着在多模态物理AI领域取得了重要进展。相关研究成果已发表在《IEEE机器人与自动化快报》期刊上。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。
在日常生活中,人类通过视觉和触觉等多重感官输入,能够轻松完成诸如从桌上拿起一杯咖啡这样的动作。然而,在人工智能中模拟这一过程却极具挑战。
由香港大学和日本东北大学组成的国际研究团队开发出一种新方案,能将视觉与触觉信息融合,用于机械臂操控,并实现对环境的自适应响应。与传统仅依赖视觉信息的方法相比,该方案显著提高了任务成功率。
这一成果标志着在多模态物理AI领域取得了重要进展。相关研究成果已发表在《IEEE机器人与自动化快报》期刊上。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。