在抖音2026安全与信任大会上,北京大学教授邱泽奇提出公众对算法“偷听”的普遍质疑,指出其根源在于算法运作机制不透明,形如“黑盒”。此类担忧折射出短视频平台算法已从技术议题升级为公共治理议题,涉及信息茧房、情绪极化、谣言传播等多重社会影响。
抖音发布首份《抖音安全与信任年度报告》,系统披露算法原理、治理数据及2026年治理计划。内容运营负责人李翔宇明确表示,推荐算法核心是预估用户对内容产生互动(如完播、点赞、分享)的概率,平台已通过“安全与信任中心”网站公开推荐机制基本逻辑,并集中回应高频公众疑问。
中国科学院软件研究所研究员张立波强调,算法本质是基于统计建模的工具,不具备理解内容社会意义或价值判断的能力。多位学者共识认为,算法风险主要源于规模化应用后的社会效应,而非技术本身;其透明度、应用边界与责任归属因此成为公共讨论焦点。
生成式AI普及带来新治理挑战。抖音内容运营业务代表唐跃指出,AIGC降低内容生产门槛的同时,也加剧了“以真乱真”式误导性信息传播。平台已部署大模型与智能Agent参与谣言治理,实现谣言识别响应时间由“天级”缩短至“小时级”,谣言曝光量较年初下降90%。平台正筹备新功能:用户可在评论区@抖音求真,描述具体困惑,触发AI分身进行真伪鉴别与即时解答。
抖音已推动AI生成内容元数据标识的读写能力,在推荐与搜索场景中向用户提示内容属性,旨在降低误导风险,而非否定AI创作。热点事件治理方面,平台建立分级分类研判机制,对事实不清、争议较大的热点标记风险,限制当事人不当变现,并强化权威信息分发。
报告数据显示,算法公开与平台治理已取得阶段性成效,但透明化进程仍需外部监督与内生动力协同推进。内容风险成因复杂,不仅关联技术机制,亦牵涉创作者动机与传播结构。抖音透露2026年治理重点包括:持续升级谣言治理Agent能力,建设更全面知识库,强化与媒体辟谣团的信息共享;推进“理性创作计划”,提供多元选题角度,加大优质内容流量倾斜;持续公开平台不鼓励的内容类型及管控措施,引导健康流量导向。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。



