Anthropic科学家警示AI失控风险

2025年12月13日,Anthropic首席科学家贾里德·卡普兰警告称,人类可能在2027至2030年间面临是否让AI自行训练的重大抉择。他指出,若AI进入“递归自我改进”阶段,可能引发智能爆炸,带来不可控风险。尽管AI有望提升效率并推动科技进步,但也可能导致失业加剧甚至人类失去控制权。卡普兰强调,目前尚不确定AI最终走向,决策窗口正在迅速关闭。同时,部分研究者认为当前AI或已接近瓶颈,实际效能仍有争议。

免责声明:本文内容由开放的智能模型自动生成,仅供参考。

最新文章
Copyright © DoNews 2000-2026 All Rights Reserved
蜀ICP备2024059877号-1