2026年1月,Newsguard测试显示,Grok、ChatGPT和Gemini对Sora生成的伪造视频识别错误率分别达95%、92.5%和78%。研究使用20条经去水印处理的虚假视频,涵盖政治、航空等敏感场景。即便视频含可见水印或C2PA溯源元数据,三款模型仍频繁误判;ChatGPT更在7.5%带水印视频中仍失败,并多次否认元数据存在。OpenAI承认ChatGPT无AI内容识别能力,且极少主动提示该局限。专家警示:AI工具正成虚假信息传播新温床。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。



