Meta发布AI新眼镜,疯狂堆放,真的可以“读懂世界”吗?

03-08 08:50

过去一年,AI 眼镜的趋势越来越生动。现在 CES 2025、MWC 2025 上雷科技都亲眼看到了,AI 眼镜备受关注。同时,最近身边越来越多的人开始关注甚至购买眼镜。 AI 眼镜。


就像打开这一波一样 AI 眼镜的「起点」,Ray-Ban Meta 出货量更加突破 200 万副,自然,下一代新产品的消息也是很多人关注的焦点。但是考虑到 Meta 发布节奏和习惯,Ray-Ban Meta 估计还要等到今年 9 月 Connect 2025 会议上。


在此之前,Meta 早些时候低调发布「次世代」的AI 眼镜——Aria Gen 2。



图/ Meta


尽管仅面向科研人员,并不推向消费市场,但是在这个眼镜上,我们仍然可以看到 Meta 对 AI 眼镜的构思和技术实力,甚至可以看到下一代 Ray-Ban Meta 的身影。


疯狂堆放 ,Aria Gen 2能「读懂世界」了?


顾名思义,Meta Aria Gen 2 并非一款横空出世的商品,第一代推出。 2020 2000年,定位为通过浏览尖端研究硬件和开源数据集、模型和工具,帮助研究人员加快机器感知和人工智能领域的技术转型。


五年后,Aria Gen 2 有了全方位的升级,甚至可以说是可以称之为「朴素」外表下,是一个疯狂的技术实验。



Aria Gen 2,图/ Meta


从外观看,Aria Gen 2 它仍然像原始商品一样疯狂,但与第一代相比,它有了非常明显的飞跃。正面镜框几乎和普通眼镜一样,重量控制在 75g,更大的问题是镜腿部分仍然很宽。


即使是这样,我们也要考虑到这一点。 Aria Gen 2 内置了包含 RGB 相机,6DoF SLAM(空间定位)相机,眼动跟踪相机,空间麦克风,IMU(双惯性测量单元)、气压计,磁力计和 GNSS一系列传感器,如卫星定位。


甚至鼻垫部分,Meta 还想方设法塞下一个测量心率的方法。 PPG 用于精确拾音和接触麦克风的传感器。



Aria Gen 2,图/ Meta


这种感知方面与感知方面几乎相同。「堆料」设计思路,体现出来 Meta 对智能眼镜未来形态的思考:只有眼镜能够像人类一样不断感知和理解周围的世界,才能真正走向下一代的计算平台。


这也是 Meta 在 Aria Gen 2 上述目标之一。


具体而言,通过 6DoF SLAM、RGB 摄像头与 IMU 紧密合作,Aria Gen 2 可以实时构建周围环境的精细三维地图,继续准确感知客户的位置和状态变化;触摸麦克风和心率传感器进一步拓宽了眼镜设备对用户状态的感知,缩小了与人类感知的差距。


包含 Ray-Ban Meta ,目前所有的 AI 几乎所有的眼镜都只依靠单一的眼镜来感知外界。 RGB 相机,相比之下 Aria Gen 2 多模态感知能力绝对可以称之为「感知全开」。



Aria Gen 2,图/ Meta


Meta 也说明感知不仅仅是收集不同维度的数据,更是通过结构化语言模型和端到端学习来实现真实世界的空间环境,最终准确有效地理解和理解世界。


同时,Aria Gen 2 不但支持手势跟踪,而且引入了新的 AI 个人助手 Ally 用于人机交互,还开放了各种接口,允许研究人员开发定制应用,以检测各种交互和交互。 AI 眼镜端的算法效果。


另外一个关键是,不管是什么, SLAM、眼动跟踪,手势跟踪,或语音识别与交互,都是围绕着眼动跟踪, Meta 低功耗专用定制 AI 芯片,运行复杂的机器学习模型,无需云连接。


没错,不是上一代骁龙。 835,也不是现在 AI 骁龙广泛使用眼镜 AR1 Gen 相当神秘的是1 Meta 定制芯片。


此外,与移动终端甚至云处理的计算方法相比,这种本土化处理具有明显的优势。除了在保证隐私和安全的同时实现全天候环境感知外,眼镜在日常体验中随时都有即时反应的能力,影响更直观。



Aria Gen 2,图/ Meta


值得注意的是,现在 75g 重量和疯狂的硬件堆放,Aria Gen 2 也实现了续航能力的提升,官方声称可以连续使用。 6–8 小时。对比一下,上一代 Aria 内置约 2.5 Wh 锂电池,只能在标准记录模式下继续工作。 1.5 小时。


这一表现,在某种程度上可能归功于更加有效的定制芯片和电池管理设计。当然,Aria Gen 2 没有配置支撑 AR 显示的光学显示模块,也是续航时间长的前提之一。


下一代 Ray-Ban Meta,AI 眼镜的新起点?


从 Aria Gen 2 从技术布局来看,下一代 Ray-Ban Meta 眼镜的技术定义已经开始显现。毫无疑问,最直观的可能来自芯片端。


就芯片选择而言,这一代 Ray-Ban Meta 使用骁龙 AR1 Gen 1 这个平台,就是现阶段的其它 AI 一般使用眼镜的平台,不仅提供了足够强大的平台 CPU 性能保证日常运行,也提供 ISP、NPU、GPU 等待计算模块,可以实现语音交互、图像拍摄、图像显示等功能。



Ray-Ban Meta,图/ Meta


但 AI 如果你想继续突破眼镜,你可能需要在各个方面走得更远,同时处理功耗和性能之间的平衡。从而 Aria Gen 2 搭载了 Meta 定制低功耗 AI 芯片来看,Meta 似乎也有目的开始摆脱对第三方芯片的限制,为下一代消费级商品打下基础。


也就是说,下一代 Ray-Ban Meta 或许将转为 Meta 定制的 AI 为了改善当地的芯片 AI 计算等能力,最大化匹配 Meta 商品端需求。


同样在感知方面,尽管可以预期,Aria Gen 2 所拥有的「感知全开」能力可能不会完全转移到消费产品上,但是一些核心技术很可能会被精简和整合,比如在现有手势识别能力的基础上扩展更具应用潜力的手势跟踪。


或导入接触式麦克风和骨传导技术,基于定制芯片的本地实现 AI 推理能力,实现更精确、更智能的人声拾音。实际上,这种功能组合将成为下一代。 Ray-Ban Meta 标准配置。



Ray-Ban Meta,图/ Meta


下一代当然可以 Ray-Ban Meta 最大的悬念仍然是「显示能力」介绍。虽然 Aria Gen 2 光学显示模块没有配置,但是这并不意味着下一代消费眼镜不会取得进步。


去年年底,英国《金融时报》向知情人士介绍,Meta 计划最早 2025 年是 Ray-Ban Meta 智能化眼镜导入显示屏,用于显示 Meta AI 通知回复、翻译等信息。



考虑到目前的显示技术,采用光波导方案实现简单的概率很大。 AR 显示功能。另外从 Ray-Ban Meta 产品策略和 Meta 与依视路陆逊梯卡(Ray-Ban 根据母公司之间的较量,或许下一代还是会保留没有显示的版本。


相比之下,外观设计可能是最不需要猜测的部分,前两代商品选择的概率仍然很高。 Ray-Ban 经典款式。


写在最后


自大型技术爆发以来,AI 眼镜是目前最具爆发力的硬件之一,Ray-Ban Meta 突破 200 万副的出货量就是力证之一。但是 AI 从产品范式、市场规模、用户认知等方面来看,眼镜还处于起步阶段。


是否需要添加显示器?AI 真的会成为消费者购买眼镜的核心动力吗?图像应该成为产品迭代的焦点吗?恐怕这些问题也很多。 AI 眼镜制造商感到困惑和纠结。


但是无论如何,AI 眼镜也干坤未定,率先引进。 AR 显示能力的 Rokid Glasses,还在路上。


本文来自微信微信官方账号“雷科技”,作者:雷科技,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com