Anthropic将用用户数据训练AI模型,保留期最长五年

Anthropic 宣布自 2025 年 9 月 28 日起,将开始使用用户数据训练其 AI 模型,涵盖新发起或重新开启的聊天记录和代码编写会话,除非用户主动选择退出。同时,用户数据保留期限将延长至五年。

根据该公司于 8 月 29 日发布的博客文章,用户需在 9 月 28 日前完成选择。若用户点击“接受”,其新产生的相关数据将立即用于模型训练,并被保留至多五年。此政策适用于新聊天及代码编写会话,历史会话若未重新开启则不纳入训练范围,但一旦继续使用某段旧会话,其数据将被纳入训练。

此次更新适用于 Claude 面向消费者的所有订阅层级,包括免费版、专业版(Pro)及高级版(Max),以及用户通过上述订阅账户使用 Claude Code 的情况。更新不适用于商业用途层级,如 Claude 政府版(Claude Gov)、企业版(Claude for Work)、教育版(Claude for Education),也不适用于 API 调用场景,包括通过亚马逊 Bedrock、谷歌云 Vertex AI 等第三方平台进行的 API 使用。

新用户需在注册流程中选择偏好设置,现有用户则需通过弹窗确认选择,可点击“暂不设置”按钮延后决定,但必须在 9 月 28 日前完成选择。

弹窗界面大号字体显示“消费者条款及政策更新”,下方文字说明为“我们的消费者条款与隐私政策更新将于 2025 年 9 月 28 日生效,您可今日接受更新后的条款”,弹窗底部设有一个醒目的黑色“接受”按钮。在该按钮下方的小字部分,有几行文字写着“允许使用您的聊天记录及代码编写会话,用于训练和改进 Anthropic AI 模型”,旁边配有一个开启/关闭切换开关,默认处于“开启”状态。

用户若希望选择退出,可在弹窗中将切换开关调至“关闭”状态。若已点击“接受”并希望更改,可进入个人设置的隐私标签页,进入隐私设置板块,在“帮助改进 Claude”选项下将开关调至“关闭”。用户可随时更改该设置,但新设置仅对未来产生的数据生效,已用于模型训练的数据无法撤回。

Anthropic 表示:“为保护用户隐私,我们将结合多种工具与自动化流程,对敏感数据进行过滤或模糊处理。我们不会向第三方出售用户数据。”

免责声明:本文内容由开放的智能模型自动生成,仅供参考。

最新文章
Copyright © DoNews 2000-2025 All Rights Reserved
蜀ICP备2024059877号-1