中国科学院自动化研究所神经计算与脑机交互课题组与脑科学与智能技术卓越创新中心联合团队取得重大发现。该团队通过行为实验与神经影像分析证实,多模态大语言模型(MLLMs)能够自发形成与人类高度相似的物体概念表征系统。这一研究成果已发表在《自然・机器智能》期刊。
研究表明,多模态大模型不仅能识别物体的物理特征,还能理解其功能、情感价值和文化意义,这与人类的多维度概念表征方式高度相似。团队采用认知心理学经典的"三选一异类识别任务",分析470万次行为判断数据,首次构建了AI大模型的"概念地图"。
研究发现,多模态大模型在行为选择模式上与人类具有较高一致性,其内部存在66个高度可解释的"心智维度",这些维度与大脑特定区域的神经活动模式显著相关。这一突破为构建具有类人认知结构的人工智能系统提供了重要理论框架。