近日,互联网安全活动人士向英国通信监管机构Ofcom发出呼吁,要求限制人工智能(AI)在关键风险评估中的应用。此呼吁源于Meta公司计划将旗下Facebook、Instagram和WhatsApp的风险评估流程自动化。根据英国《在线安全法案》,社交媒体平台需评估潜在伤害风险并采取缓解措施,特别是保护儿童用户及防止非法内容传播。
多个组织,包括莫莉·罗斯基金会和国家防止虐待儿童协会,联名致信Ofcom,批评AI驱动的风险评估为“倒退且令人担忧”的举措,并强调完全依赖自动化可能不符合法案的“合适且充分”标准。Ofcom表示正在考虑这一关切,并明确要求相关服务披露风险评估的具体责任人。
Meta回应称,其并非单纯依靠AI进行决策,而是通过技术辅助专家团队识别产品合规性,同时在人类监督下提升有害内容管理能力。然而,有报道称,Meta正考虑将部分敏感领域的审查流程自动化,此举或增加用户风险,引发广泛争议。