据美国国家公共广播电台报道,Meta计划大幅调整内容审核策略,拟通过人工智能完成高达90%的产品风险评估,涵盖青少年安全、暴力内容及虚假信息等关键领域。内部文件显示,AI系统可对提交的产品问卷进行“即时决策”,但现任及前任员工担忧,AI可能遗漏人工团队能识别的复杂风险。
Meta前高管指出,过度依赖AI或导致风险管控削弱,负面效应更难提前拦截。公司回应称,仍保留人工团队处理“新颖且复杂问题”,仅将低风险决策交由AI。最新季度报告显示,政策调整后平台违规内容删除量下降,但霸凌及暴力内容有所增加。这一转变引发对AI审核效能与伦理边界的讨论。