欧盟发布AI法案合规指南 系统性风险模型面临更严监管

欧盟委员会近日公布最新指导方针,为被认定为具有系统性风险的人工智能模型提供《人工智能法案》的具体合规指引。根据新规,谷歌、OpenAI、Meta等科技巨头开发的高风险AI系统需在一年内完成合规改造。

该法案将"系统性风险模型"明确定义为可能对公共健康、安全及基本权利产生重大影响的AI系统。首批受监管模型须完成风险评估、对抗性测试等合规程序,并加强网络安全防护。基础模型还需履行透明度义务,包括披露训练数据来源等技术细节。

欧盟技术事务主管维尔库宁强调,新指南将确保法案有效实施。违规企业可能面临最高达全球营业额7%的严厉处罚,凸显欧盟对AI安全监管的重视。

最新文章
Copyright © DoNews 2000-2025 All Rights Reserved
蜀ICP备2024059877号-1