Kimi大模型误发用户真实简历引发隐私泄露争议

4月20日下午,用户张呈(化名)使用Kimi大模型翻译一张英文PPT目录图片,未输入任何关于简历的指令,却在多轮对话后收到一份详尽的陌生人简历,包含姓名、电话、邮箱、工作经历、项目经历及核心业绩等真实信息。

张呈随即联系简历中显示的钟先生,确认信息完全匹配。钟先生表示已委托北京当地律师处理此事。张呈向Kimi App内部渠道、官方邮箱反馈,并向国家网信办举报;4月20日晚,其将事件发布至社交媒体,引发关注。

自称Kimi工作人员者多次通过非官方渠道联系张呈,初期解释为“图片发送失败导致的模型幻觉”,后续又称属“小概率事件”。截至4月23日,Kimi母公司月之暗面未就事件向《每日经济新闻》提供正式回应,亦未发布调查说明、影响范围评估或整改措施。

技术专家指出,此次泄露内容并非虚构,不构成典型AI幻觉。君同未来创始人韩蒙表示:“幻觉是‘胡说八道’,而这次是‘说对了,但不该说’”,更可能源于数据隔离失效、会话管理不当、缓存复用错误、检索增强生成链路绑定失误、对象存储访问控制失效或日志回放异常等工程化问题。

技术专家徐立(化名)进一步列举五类可能技术路径:一、多用户上下文污染致A用户请求命中B用户残留数据;二、检索增强生成链路将向量库或文件索引错误绑定至其他用户;三、文件解析与临时对象存储访问控制失效;四、异步任务或消息队列中任务标识与用户标识错配;五、分享链接、搜索索引或外部工具回调配置失当,致私有数据暴露。

多位专家强调,该事件已超出算法层面缺陷,指向系统架构与工程治理疏漏。韩蒙指出,LLM输出敏感训练数据记忆已被OWASP列为大模型应用前十大风险之一,但在成熟企业级产品中罕见,凸显平台在多租户隔离、推理链路与缓存层防护上的严重缺失。

资深律师王光英明确表示,无论技术成因为何,Kimi向无关用户返回他人真实上传的个人信息,已构成《个人信息保护法》《民法典》《网络安全法》所禁止的“未经授权向他人提供个人信息”行为,属于法定意义上的个人信息泄露。其指出,“AI幻觉”不能作为免责理由,AI非法律主体,运营方须承担全部法律责任;用户协议中“请谨慎上传敏感信息”的提示,不能豁免平台法定的数据安全保护义务。

Kimi并非首次涉数据合规问题。2025年,国家网络与信息安全信息通报中心曾通报其等35款移动应用存在违法违规收集使用个人信息行为。同年9月发布的国内首个大模型安全众测结果显示,共发现安全漏洞281个。徐立称,据不完全统计,全球大模型隐私泄露事件已超百起,包括ChatGPT 2023年跨用户聊天标题可见、Gemini共享链接被搜索引擎收录、以及2025年部分ChatGPT用户敏感对话持续泄露至搜索引擎等案例。

专家认为,大模型服务已是复杂系统,局部缺陷易放大为跨用户暴露,技术上难以承诺“绝对杜绝”。韩蒙建议实施“防御性遗忘学习”与实时审计双轨机制:在模型内部精准擦除不应保留的数据,在外部对输入输出实时拦截、过滤与合规审计。徐立提出,数字隔离需分层管控“模型能看到什么、能记住什么、能调用什么、能返回什么”,推动法律规则、系统架构、工程治理与默认隐私设计同步前移。”

免责声明:本文内容由开放的智能模型自动生成,仅供参考。

Copyright © DoNews 2000-2026 All Rights Reserved
蜀ICP备2024059877号-1