2026年1月底,美国加州大学圣克鲁斯分校研究人员披露新型攻击方法CHAI,可在不入侵系统前提下,通过优化文字标牌干扰自动驾驶汽车与无人机决策。该攻击利用视觉-语言大模型对图像语义的依赖,在摄像头视野内展示特定颜色、字体及内容的标牌,诱使AI误判环境。实验显示,无人机在人群屋顶误降率达68.1%,自动驾驶系统左转冲向行人成功率81.8%,目标识别系统欺骗成功率高达95.5%。真实场景测试成功率超87%,且跨语言有效。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。
2026年1月底,美国加州大学圣克鲁斯分校研究人员披露新型攻击方法CHAI,可在不入侵系统前提下,通过优化文字标牌干扰自动驾驶汽车与无人机决策。该攻击利用视觉-语言大模型对图像语义的依赖,在摄像头视野内展示特定颜色、字体及内容的标牌,诱使AI误判环境。实验显示,无人机在人群屋顶误降率达68.1%,自动驾驶系统左转冲向行人成功率81.8%,目标识别系统欺骗成功率高达95.5%。真实场景测试成功率超87%,且跨语言有效。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。