2025 年的今天,AI 眼镜越发成为焦点,大概咱们不错斗胆地臆想ag百家乐网站,改日的 AI 助手不是藏在手机 App 里,而是戴在你脸上、看你所看、答你所问。
4 月举办的 TED 大会上,Google 也给出了我方的谜底。在 TED 官方上周最新发出的视频中,初度公开展示了搭载 Android XR 的 AI 眼镜,如安在 Gemini AI 的加捏下何如运行:
不仅能听懂说话、即时翻译,还能「看见」天下,甚而记着用户曾看过的物体、识别书名、获胜播放唱片上的音乐、近似导航带领。

图/ TED
这场现场演示,也再次激勉了外界关于 AI 眼镜的世俗热议。诚然,这不是 Google 第一次作念眼镜,也不是第一款 AI 眼镜,但它背后是 Google 最新构建的 XR 系统平台 Android XR,亦然 Gemini 大模子初度与试验空间深度交融的成果。
尤其在 Meta、Rokid、雷鸟等厂商接连发布 AI 眼镜后,Google Android XR 的此次「下场」,也被视作 AI 眼镜「平台战争」的新军号。但 Android XR 能够复制 Android 在智高手机市集的到手吗?大概很难。
Google 作念的 AI 眼镜,到底有什么不相同?
在 TED 放出演讲视频《The next computer? Your glasses》中,能够很彰着看到 Google 打造的 AI 眼镜,很像一副平时眼镜。别扭曲,这是大势所向。

进行演示的 Google AI 眼镜,图/ TED
不同于 AR 眼镜夙昔的张扬联想,今天 AI 眼镜追求的便是越像平时眼镜越好,以便于破钞者在日常生存中无感地进哄骗用。包括 Google 这副看似朴素的智能眼镜,一启动大概不如 Vision Pro 那样炫技,但当 AI 启动着实「看懂」天下,它开释出的后劲,挥霍让东说念主再行思象 AI 眼镜的改日。
其中最激勉热议的,便是 Gemini 展示出的「挂念」才能。
咱们可能齐见过这么的演示:戴着 AI 眼镜对着某个画面接洽 AI。不外 TED 现场的演示中,Google 不仅仅展示了这类及时反应,让 Gemini 看着现场写俳句(日本的一种古典短诗)。
但更让东说念主惊喜的是,Google 职工 Nishtha Bhatia 仅仅轻轻瞥了一眼死后的书架,然后背身再等了一段时候,才接洽眼镜「后头架子上那本白色封皮的书叫什么?」,随后 Gemini 秒答:
那是詹姆斯·克利尔所著的《Atomic Habits》(中语版译名为《掌控风气》)。

Gemini 有挂念的才能,图/ TED
不仅如斯,Gemini 还能提前记着看过的信息,然后在之后的接洽中获胜告诉 Nishtha Bhatia 房卡放在了唱片控制。比较之前 AI 眼镜只可「问答」或「识图」,Google 此次展示的 AI 眼镜,在「贯穿性」和「高下文感知」方面,不错说迈进了新的维度。
这不是传统兴味上的图像识别,而是近乎具备了「视觉挂念」的 AI。用户视野依然离开,AI 却「记着了」也曾看到的物体。换句话说,它也不仅仅识别「是什么」,而是着实能会通「你在问什么」。不外 Google 也留住了一些疑问:
AI 眼镜上 Gemini 的「挂念窗口」能有多长?
但不管何如,这齐是咱们之前在统统 AI 眼镜中,没能看到的。自然,这主要如故收成于 Gemini 模子的才能,表面上跟着其他第三方大模子的迭代和开释,其他 AI 眼镜也能已毕。
AI眼镜=AI+AR,这亦然Google的观点
TED 现场的这场演讲之是以激勉世俗关爱,不仅因为 Gemini 的「挂念力」冲破,更因为 Google 此次交出的,是一副具备 AR 骄傲才能的 AI 眼镜。
关爱 Google Project Astra 项主见一又友可能还会谨记,2022 年谷歌官宣收购了一家名为 Raxium 的 MicroLED 骄傲屏公司,其时就激勉了诸多猜思。而在 TED 演讲中,Google XR 细密东说念主 Shahram Izadi 就潜入,现场演示的 AI 眼镜搭载了 MicroLED 骄傲屏。

Shahram Izadi 展示 AI 眼镜骄傲屏,图/ TED
从视频中的演示也不错看出,Gemini 的交互界面获胜出当今镜片中,不仅仅在耳边报告,还会透过光波导镜片展当今目前。这种形态 AI 眼镜的上风,咱们依然说过好多回:
中枢在于纯语音交互自然存在体验上的按捺,而视觉+听觉的交互体验,更合适东说念主类天生的默契和交互风气。
如故拿 Google 的现场演示来说,Gemini 能够在回复——不管是回答如故翻译获胜呈当今目前让东说念主阅读,ag百家乐九游会不仅动作不雅众的他者,就连进行演示的 Nishtha Bhatia 本东说念主也能绝顶高效地了解信息,而无谓恭候 Gemini 的逐词念出。更无谓说,嘈杂环境下,就连更连合耳说念的开放式耳机也很难,遑论 AI 眼镜。
除此以外,骄傲才能的加入也带来了更多的交互可能,比如最获胜的便是——AR 导航。通过将数字信息透过眼镜叠在目前,Google AI 眼镜能够进行在试验空间中进举止用户进行更直不雅的导航,包括本色的所在、距离和道路。
这种轻量化 AR 才能的加捏,自然也不仅仅 Google 一家在作念。

Rokid Glasses,图/ Rokid
事实上,雷科技屡次在 AI 眼镜报说念中提到的 Rokid Glasses 就率先取舍了这种 AI+AR 的道路,配备了双目 AR 骄傲,营救信息推送、空间导航、翻译字幕、AI 对话等功能。另一边,Meta 与雷一又(Ray-Ban)合作的下一代智能眼镜,也被英国《金融时报》爆料将在本年晚些时候加入 AR 骄傲功能。
但思要作念好 AI+AR 骄傲,并不简短,其实背后蕴含的是对空间感知、视觉识别和语义推理的整合才能,同期也代表了 AI 眼镜从「语音驱动」最初到「多模态交互」的紧要节点。
Google 欲再造Android遗迹,但很难
Google 此次带来的 AI 眼镜背后,是一个新名字——Android XR。自然披着 Android 的外套,但它其实是 Google 为 XR(扩张试验)竖立打造的一套全新操作系统架构,主打交融语音交互、视觉感知和空间定位等才能。
换句话说,它不是给手机用的 Android,而是 Google 思不才一代算计平台上,再复制一次 Android 的生态遗迹。
但试验是,今天的 AI 眼镜,不是 15 年前的智高手机。
回看 AI 眼镜行业的近况,咱们确凿看到每一家头部厂商齐在自研操作系统。Rokid 自研了空间操作系统 YodaOS-Master,这是专为空间算计与多模态 AI 交互联想的操作系统。Meta 也有我方的 Horizon OS,不仅强调空间操作系统定位,甚而野心向第三方开放。

YodaOS-Master,图/ Rokid
简短来说,公共早已不再指望 Android 给 XR 提供谜底。Google 推出 Android XR 时,自然能打出「兼容 Android 应用」的上风牌,但这张牌,试验里其实越来越轻了。
智高手机之是以需要操作系统圭臬,是因为它承载的是高频 App 使用场景:酬酢、支付、文娱、舆图……齐需要一个谨慎的生态容器。
但 AI 眼镜不是手机,它的中枢交互逻辑并不依赖「通达某个 App」,而是基于语音、图像和高下文会通的即时反应。在 TED 的演示中,咱们也不错看到,用户不需重心击任何图标,不需要跳转任何应用——唯有说出来、看夙昔、问一句,就能触发系统履行:
- 看到书架,问书名;- 看向唱片,播放歌曲;- 嘴里说「去哪」,导航就张开。
这些体验好多齐不太依赖雄伟的 App 生态,而更接近奇迹即操作、意图即履行的系统级合作。硬要说的,Gemini 或者说 AI 才是着实的枢纽。在这方面,Gemini 很强,但还远弗成「力压群雄」。
从 TED 演示的那副眼镜动身,咱们看到 Google 正试图用 Gemini 重构 AI 眼镜的交互样式,并借由 Android XR 再次发起一场平台级的紧要。它作念出了着实「看得见」的 AI 眼镜,也带来了挂念、导航、翻译等一整套杰出传统的体验。
但要构建一个着实兴味上的平台,靠炫主见演示还远远不够。Android XR 濒临的不仅仅本事挑战,还有群雄的市集花式,以及用户交互移动的巨大挑战。包括当用户不再「通达 App」,而是与 AI 获胜对话时,什么才是平台?
这亦然 Google 此前统统 XR 技俩持久未能落地的要害所在——它太擅长构建系统,却持久没找到下一个系统存在的原理。
但不管何如,AI 眼镜如实展现了成为新一代个东说念主算计平台的巨大后劲,至于 Android XR 能弗成成为阿谁界说圭臬的平台,如故需要咱们抱有耐烦,见证历史。