7月底的上海,一场声势浩大的国际性盛会刚刚落幕。这是WAIC(世界人工智能大会)举办以来规模最大的一次,不仅参展商数量暴涨了60%,连从未现身中国的AI教父辛顿也惊喜亮相,会场门票被炒至“单日千元”。人人试图复刻下一个“炸裂”时刻。
参展到半程,有大模型企业仍在深夜调试模型参数,临时决定发布。有现场参展企业向外界透露,与往年不同,今年WAIC吸引了大量外国观众,包括外媒等专业观众,这是中国大模型企业难得的近距离展示机会。
但技术可以复制,颠覆却难以模仿。想重走DeepSeek之路,一切并不简单。
01 重走DeepSeek之路
就在外界误读DeepSeek之际,又一个“DeepSeek时刻”从海外爆出。7月中旬,英国《自然》杂志网站称,中国AI模型Kimi K2发布后引发轰动,世界迎来“又一个DeepSeek时刻”。
Kimi于7月11日正式发布K2模型,采用优化后的万亿参数混合专家架构,总参数量达1.04万亿,激活参数仅320亿。很快人们发现,K2采用了与DeepSeek-V3相似的架构:多头注意力头数更少,MoE专家数更多,从而提高上下文和token使用效率。“Kimi K2基本上是DeepSeek V3,但拥有更少的头脑和更多的专家。”有从业者如此评价。
Kimi内部员工坦承,训练K2前进行大量模型结构实验,结果表明,与DSv3不同的结构无一能真正打败它。因此,Kimi最终选择不强行差异化,而是将参数拉到极限。考虑到Kimi是一家创业公司,资源有限,目前K2已达到其算力上限。
K2虽未大爆,但在海外短时间内获得极高关注度。7月中旬,据OpenRouter数据,Kimi K2调用量与马斯克的Grok4并列增长榜前两名,日调用量超100亿token,API价格仅为Claude Sonnet的五分之一。
这也就有了海外媒体报道的“又一个DeepSeek时刻”。7月28日凌晨,智谱发布其迄今参数最大的开源模型GLM-4.5,同样走开源路线,意图在海外引爆,思路与DeepSeek一致。
更早之前,Kimi、阶跃星辰、MiniMax等均重提基础模型研发。这与梁文锋追求AGI的理念一致。
02 下一个o1也很重要
AI从业者“AI Dance”形容当前AI发展为“草灰蛇线,伏脉千里”。如OpenAI在探索出RL范式后(指o1),又被DeepSeek R1揭示秘密,所有从业者一拥而上。当前coding Agent与大参数MoE模型均建立在DeepSeek-V3架构之上。
一位Kimi员工坦言:“K2先狠狠致敬DeepSeek,而不是刻意标新立异。更多创意将在K3、K4中实现。”
下一个引领浪潮的人尚未出现。甚至DeepSeek与梁文锋也在等待下一个强如o1的对手。
此前消息称,GPT-5将于2025年8月发布,作为GPT-4的升级版,不仅是版本更新,更是全方位技术跃迁。将从推理能力、多模态交互、智能代理到开放生态等多个维度重新定义AI可能性。
GPT-5将首次实现语言生成、逻辑推理、数学计算、多步规划等功能的深度融合,构建“统一智能”系统。无需手动切换模式,能智能判断任务需求,在复杂与简单任务间自动切换。
OpenAI CEO山姆·奥特曼在X上透露:“早上测试我们最新大模型,输入一个自己都不太理解的问题,它却给出了完美的回答。”
外部用户陆续捕捉到GPT-5的早期迹象。网友Yacine表示,试用某AI公司大模型后体验“震撼到难以置信”,并断言“没人能预料即将到来的风暴”。
另有用户反馈,使用OpenAI模型时被“灰度”到一个全新AI:无需提示,可连续思考3分钟并同步大量搜索。当用户选择“4o”模型时,ChatGPT直接进入思考状态,引发猜测——OpenAI是否已在悄然过渡至GPT-5?
GPT-5是否会成为下一轮国产模型的引爆点尚不可知。回想o1发布时,全球陷入算力内卷,而DeepSeek以算法革命对冲硬件依赖。
03 DeepSeek改变了什么?
在正式发布R1前,DeepSeek在业内已有不错口碑。业内较早看好DeepSeek,甚至最早的价格战就源于它。但因无融资需求,DeepSeek鲜少对接投资机构,也无专门的公共沟通部门。
梁文锋至今几乎不在公开场合露面。只存在于其他CEO的讲述中,如rokid创始人祝铭明提及梁文锋在他家聚餐,罗永浩则回忆梁文锋在春节前与其会面,“他从远处走来,像一个在读学生。”
DeepSeek也在不经意间影响了许多同行。比如让曾坚定闭源的百度等企业转向开源,开启了中国开源模型的新阶段。
相比于过去希望成为“中国版OpenAI”,越来越多企业想做下一个DeepSeek。Kimi已转向“研究为重”的内部氛围,杨植麟几乎不参与公开活动。阶跃星辰则在多模态技术上押注下一个范式。
字节的大模型研究团队正重点攻克技术。张一鸣本人频繁往返北京与新加坡,与不同技术从业人士交流。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。