科技巨头谷歌将于2026年发布由AI驱动的智能眼镜,并在XR领域推出多项更新。
当地时间12月8日,谷歌在The Android Show活动上宣布,公司将推出两款搭载谷歌Gemini大模型的AI眼镜:一款采用无屏幕设计,内置扬声器、麦克风和摄像头,将于明年面世;另一款增加镜片内显示功能,支持导航与语音翻译等。
硬件合作伙伴包括三星、Gentle Monster和Warby Parker。该计划标志着谷歌正式重返智能眼镜赛道。今年5月,谷歌联合创始人Sergey Brin表示,已从谷歌眼镜早期失败中吸取教训,包括AI技术不足与供应链经验欠缺导致产品价格过高。
谷歌同时公布XR生态进展:与中国企业XREAL合作的有线XR眼镜Project Aura将于2026年发布;首款安卓XR头显三星Galaxy XR新增直连电脑功能;安卓XR系统开发工具全面升级。
谷歌强调,安卓XR的核心目标是构建开放统一的扩展现实平台,使AI融入真实世界的光线、空间与行为之中。Aura被描述为“最完整、最接近Android XR理想形态的硬件样本”。
Aura融合XREAL的光学、芯片与空间算法及谷歌的Android XR和Gemini AI,具备70°光学透视视场角,采用XREAL自研X1S芯片,集成多模态Gemini模型与摄像头、麦克风、环境传感器,实现语义理解、场景任务与自然交互。
相比传统眼镜,Aura更大更重,形态类似XREAL其他产品:AR投屏眼镜通过有线连接Android XR计算终端,终端可作触控板使用。设备支持手势交互与透视效果,界面投射于真实环境之上。
目前AI与XR眼镜竞争加剧。Meta持续活跃,凭借Ray-Ban和Oakley品牌获积极评价。今年9月,其推出首款带显示屏的消费级眼镜Meta Ray-Ban Display,配备神经腕带,售价799美元起。
此类眼镜多通过无线连接智能手机,依赖手机处理请求,如调用Gemini AI播放音乐或分析食材生成食谱,以减轻本地计算负担,保持轻便外观。
发布前的演示中,谷歌展示了两种内置显示屏原型:单目眼镜右镜片具单屏,双目眼镜每眼各一屏。均支持谷歌地图、Google Meet等应用的增强现实叠加界面,双目提供更大虚拟显示。
Snap首款面向消费者的AR眼镜预计明年亮相,苹果亦有布局。今年11月,阿里巴巴发布搭载千问大模型的夸克AI眼镜。Wellsenn数据显示,2024年全球AI眼镜出货约152万部,同比增长533%,预计2028年达3500万部,2024至2028年复合增速119%。
XREAL创始人兼CEO徐驰表示:“Agent不应仅是软件,更应是‘硬件化的Agent’,才能充分释放AI能力。眼镜作为最贴近人的设备,是承载下一代智能终端的天然载体,其带来的增量数据是AI通往AGI的必经之路。”
免责声明:本文内容由开放的智能模型自动生成,仅供参考。



