在今日举办的智谱开放平台产业生态大会上,智谱正式开源新一代通用视觉语言模型 GLM-4.1V-Thinking。该模型引入“思维链推理机制”与“课程采样强化学习策略”,显著提升跨模态因果推理能力。
其轻量版 GLM-4.1V-9B-Thinking 参数控制在 10B 级别,在 28 项评测中 23 项达同类最佳,部分表现超越 72B 模型。该模型在图文理解、数学推理、视频分析、界面理解和视觉定位等任务中表现出高度稳健性与通用性,现已在 Hugging Face 与魔搭社区开源。
在今日举办的智谱开放平台产业生态大会上,智谱正式开源新一代通用视觉语言模型 GLM-4.1V-Thinking。该模型引入“思维链推理机制”与“课程采样强化学习策略”,显著提升跨模态因果推理能力。
其轻量版 GLM-4.1V-9B-Thinking 参数控制在 10B 级别,在 28 项评测中 23 项达同类最佳,部分表现超越 72B 模型。该模型在图文理解、数学推理、视频分析、界面理解和视觉定位等任务中表现出高度稳健性与通用性,现已在 Hugging Face 与魔搭社区开源。