AI应用的战争正在进入下半场。
在最近密集的模型更新中,无论是 Google 的 Gemini3,还是 OpenAI 的 GPT-5.1,都在发布时重点强调模型在应用中的集成。
与此同时,阿里以千问整合全部资源发力 C 端应用,蚂蚁则推出独立的灵光 App——一款基于代码能力的全模态通用AI助手,瞄准C端市场,提供全代码生成多模态内容的能力,可用自然语言在30秒内生成一个小应用。数据显示,灵光上线一天下载量突破20万。
各方来势汹汹,目标明确:抢夺AI时代的入口位置。
过去虽常提“入口”,但实质不同。上一阶段的AI应用起点是ChatGPT,它本质上是模型的出口,而非用户市场需求的入口。
DeepSeek 和 Kimi 同样如此,前者弱化应用建设,后者将重心回归模型。这些产品至今大多缺乏多模态能力。
用户显然需要多模态功能,而这些产品主打深度思考,更多体现模型能力,却非大众普遍需求。
它们仍是模型的出口,而非用户需求的入口。
如今,尽管AI应用层出不穷,落差仍存于AI产品与真实用户需求之间。
关键问题在于:被巨额投资支撑的 token 是否用于满足普通用户的实际需求?这成为当前AI入口争夺的核心。
因此,拥有大量用户的国民级平台此时纷纷出手,其思路与模型厂商截然不同。
蚂蚁新推出的灵光展现出与支付宝庞大生态联动的潜质,可能重塑用户与AI、与互联网入口的连接形态,开启服务交互新方式。
其与 Gemini3 的改造方向不谋而合:都将代码生成隐藏在后,利用代码和多模态能力为用户提供可交互结果。
灵光的两大主要功能——灵光对话和闪应用,分别对应 Gemini 的视觉布局(Visual layout)和动态视图(Dynamic View),前者呈现“像杂志一样”的富媒体加互动结果,后者快速构建App。
两者均面向普通用户提供“功能生成”级通用AI能力。
这一路线已获正向反馈。作为首个全代码生成AI助手,灵光凭借30秒生成可交互应用的独特功能迅速获得市场认可,上线即达20万下载量,为大量用户碎片化工具需求提供解决方案。
此前AI应用热潮中,许多产品因扮演“模型能力出口”角色,陷入“演示级应用”陷阱。
如何让普通用户通过AI形成生产力,成为本轮入口争夺的共性。
千问已现整合淘宝天猫等阿里系产品的雏形,旨在用AI解决实际需求;灵光策略同样清晰,倾向“日常实用化”。
使用灵光时感受明显不同:主页标注其目标为“让复杂信息变简单”,不强调长篇报告或编码开发,而是将复杂coding能力用于提供简单结果,用户无需查看代码,但可享受代码带来的新体验。
这是针对普通用户需求的设计思路。
例如,经常出差者希望有应用提醒航线上可见风景,使用灵光一句话即可创建闪应用,耗时不足30秒。
该过程突出交互性:无论在对话框还是闪应用中,问题具备交互性,生成的应用也必然可交互。
这种思路深受蚂蚁服务基因影响。支付宝的服务系统复杂,各类需求需通过多模态交互解决。
蚂蚁通过灵光尝试构建“需求-工具-服务”闭环,这对下一阶段AI入口竞争尤为关键。
在此闭环背后,服务分发逻辑被重构。过去仅高频、标准化头部需求值得做成独立App;海量长尾需求因开发维护成本高,只能藏于复杂菜单深处。
当通用大模型介入后,这些曾被视为“累赘”的琐碎需求,突然具备低成本、即时生成解决的可能。
经典“长尾理论”中,超级平台占据曲线左侧头部——如搜索、社交,以标准化产品满足共性需求。而蚂蚁所在领域恰是右侧漫长尾巴:交水电费、查社保、买票、分账等。
这些需求极其碎片、非标准化,难以用单一界面解决。过去二十年互联网只能“堆砌”入口覆盖,导致App越来越重,战线无限拉长。
AI尤其是大模型的通用性提供了新解法:将平铺的长尾图表“立”起来。
当模型足够通用,便能用一套逻辑动态生成千万种解决方案。原本分散在右侧、被认为无法形成“超级入口”的琐碎需求,现在可通过“功能生成”集中满足。
如同将漫长尾巴折叠累积,在AI赋能下形成与左侧头部同等高度的新塔。
满足此类需求的新方式,正是灵光等产品探索的“功能生成”。
当用户在灵光提出“做一个家庭出游分摊账本”这类高度个性化长尾需求时,系统不再从长尾中查找现成App推荐,而是通过“闪应用”即时生成可交互工具。
当长尾需求被技术“立”起成为新高地,入口定义也随之改写。
如果说上半场是为模型配对话框,争夺通往模型的“流量入口”;那么下半场则是争夺通往真实生活的“需求入口”。
在此阶段,当深谙用户需求的平台掌握模型能力,他们或许比任何人更接近真正的超级入口。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。



