“安卓+Gemini”双核驱动!谷歌擘画XR领域全新战略蓝图
【CNMO科技消息】12月9日凌晨,在安卓XR特别直播活动上,谷歌正式揭晓其在扩展现实(XR)领域的宏大战略布局。依托“安卓操作系统+Gemini AI”的双核引擎,谷歌正全力构建一个覆盖沉浸式头显到全天候AI眼镜的统一“设备光谱”平台。此次发布会不仅带来首款安卓XR头显三星Galaxy XR的多项重要更新,还首次深度披露与中国创新企业XREAL合作的有线XR眼镜Project Aura的细节,并全面升级面向开发者的工具链,这标志着安卓XR生态已从概念阶段迈向规模化落地的关键节点。

谷歌安卓XR主管Shahram Izadi与三星XR负责人Kihwan Kim在开场环节,共同勾勒出安卓XR生态完整的“设备光谱”图景。该光谱的一端是性能强劲的XR头显,用于提供深度沉浸体验;另一端是轻便的AI眼镜,满足全天候信息获取需求;中间则是融合两者特性的XR眼镜。谷歌计划通过统一的安卓XR平台,为各类形态的设备提供一致的核心体验与开发环境,从根源上破解XR市场长期存在的生态碎片化难题。
作为首款安卓XR设备,三星Galaxy XR迎来重要升级。全新的“PC Connect”功能支持用户将电脑窗口直接“调取”至XR空间,实现跨设备办公与娱乐场景的无缝衔接。“Likeness”功能可生成高度逼真的用户虚拟形象,大幅提升视频会议等场景的社交临场感,其设计理念与苹果Vision Pro的“Persona”功能相近。此外,预计明年上线的“系统自动空间化”功能,能实时将普通2D应用、视频及网页转化为3D沉浸式内容,且全程在设备端运行,极大拓展了内容的沉浸潜力。

谷歌与XREAL合作的Project Aura作为有线XR眼镜的代表,首次对外披露更多细节。该设备采用光学透视方案,让用户既能清晰观察真实环境,又能叠加虚拟信息。它通过外接计算模块供电,该模块同时兼具触控板功能,有效保持眼镜本体的轻便性。Project Aura支持直连PC,并深度集成Gemini AI,用户可随时对屏幕显示内容进行视觉问答交互。这款产品预计于2026年正式发布。
谷歌还演示了与眼镜品牌合作开发的两类AI眼镜原型。其中带显示屏的原型机展示出实时翻译、视觉问答等实用能力。尤为引人注目的是,谷歌将轻量级图像编辑模型“Nano Banana”集成其中,演示了仅通过语音指令就能在实时拍摄画面中添加虚拟物体的功能,充分展现未来AI眼镜在增强现实交互领域的创意潜力。
此外,为加速XR应用生态的繁荣发展,谷歌宣布对安卓XR SDK与API进行全套升级,为开发者提供更完善的技术支持。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




