忘掉对 Google Glass 的怀旧情结吧——Android AR 是一个全新的强大存在。谷歌与三星紧密合作开发的这款 XR 平台,旨在成为下一代可穿戴设备的核心,融合了增强现实(AR)、人工智能(AI)以及设备间的无缝整合。与 Meta 的 Ray-Ban 智能眼镜主要专注于音频和摄像功能不同,谷歌则押注于一个更先进的生态系统。

谷歌项目负责人 Shahram Izadi 最近在 TED 演示了该设备。虽然这款原型机还没有一个响亮的产品名称,但它的技术目标十分明确:它看起来像一副普通眼镜,却巧妙地内置了微显示屏、摄像头、电池、扬声器以及一个强大的 AI 助手。没有可见的电缆,也没有笨重的模块——仅仅是一个外形简约、通过与智能手机配对完成高强度计算的轻巧设备。
显示、光学与系统架构
谷歌的 AR 眼镜在右侧镜片内嵌了一个微型显示器,而左前镜腿则巧妙地隐藏了一枚摄像头。所有计算密集型任务——如 AI 推理和 AR 渲染——都由连接的智能手机处理。这种架构让眼镜保持轻便且节能。
Gemini 记忆功能:真正会“记住”的上下文 AI
真正的突破点在于:谷歌的 Gemini AI,如今配备了“记忆”功能——一个持久的、具备上下文感知能力的层级,可以记录并回忆视觉与听觉信息。与传统助手不同,Gemini 不只是被动回答问题,它会主动观察、索引并从环境中检索数据。
在 TED 的演示中,Gemini 能识别书架上的书名,甚至能指出酒店房卡的位置——无需明确提示。这种持久性记忆层标志着上下文计算的重大飞跃,模糊了被动观察与主动协助之间的界限。想象一下你问:“我上次把护照放在哪?”然后得到一个精准的视觉答案。这正是谷歌的愿景——而且比你想象的更近。
多语言大师:实时语音与文字翻译
谷歌还在语言能力方面突破了界限。借助 Gemini,眼镜不仅能实时识别和翻译文字(这已经不稀奇),还可以处理多种语言的实时语音交流,包括印地语和波斯语。这不仅仅是基础翻译,而是双向、具上下文感知的交流,由本地 AI 模型驱动。
显示的局限性:原型仍有不足之处
不过,目前的一切还未完全达到量产水准。当前的微显示器虽然可用,但视野范围有限,边缘存在畸变,亮度也偏低。在演示中,导航指引和 3D 城市地图显示较小,边缘部分尤为像素化。
谷歌的路线图明确表明,未来将在光学和渲染方面持续迭代优化,但别期待奇迹——至少在首发的商用版本中,还不会完美无缺。