苹果Siri将带来iPhone使用方式变革

08-15 06:27

苹果似乎在“憋大招”,对于当下的苹果而言,“憋个大的”比立刻推出平庸的个性化Siri更具价值。

在苹果AI团队的核心人员被Meta挖走后,苹果CEO库克出面安抚员工,强调要抓住此次AI革命的机遇。他指出,苹果并非最早涉足新兴技术的公司,举例称在Mac之前已有个人电脑,iPhone之前就有智能手机,iPad之前也存在很多平板电脑,iPod之前也早有MP3播放器。

动员大会的效果显著,在太平洋两岸都是如此。据彭博社记者、“苹果问题专家”马克·古尔曼报道,苹果可能即将推出新版Siri语音控制功能,用户可以通过基于Apple Intelligence的个性化Siri,直接控制iPhone上的大部分应用。

未来的Siri将具备强大的跨应用语音控制能力,用户无需触碰屏幕,就能完成在社交媒体发布评论、在购物应用中添加商品到购物车、制订出行计划并预约Uber等操作。该功能将通过App Intents接口实现,用户只需语音下达“在某应用中搜索某内容”等指令即可。

这或许解释了基于Apple Intelligence的个性化Siri难产的原因,仅语音控制能力,它就比现在的Siri有了质的提升。

早在iOS 12时,苹果就为Siri增加了“快捷指令”功能,用户可通过预设个性化短语让Siri驱动支持快捷指令的应用操作,还能串联多个指令实现更复杂操作。但个性化Siri的AI语音控制与“快捷指令”有本质区别,“快捷指令”只是通过预设指令实现自动化操作以简化流程,而个性化Siri则赋予Siri等同于用户的权限,能执行更复杂、精细的操作。

重要的是,个性化Siri的语音操作无需提前预设指令,用户用正常对话句式就能驱动。这是用户体验的重大提升,意味着即开即用,用户无需搜索“最实用的快捷指令及设置方法”等教程,直接向Siri说出需求即可。从iOS 12至今,快捷指令不温不火的原因就是过于复杂,很多用户不会使用。

人人都会的“傻瓜式操作”是互联网产品火的基础,比如短视频操作逻辑就只有“滑动”。

苹果能让用户通过语音驱动个性化Siri,关键在于iOS 16引入的开发者框架App Intents逐渐成熟,应用被解耦为意图 (Intent)、实体 (Entity)和应用快捷指令三个核心组件。

例如,开发者要定义应用意图(如“发送消息”)、实体(如联系人信息)和查询(如“查找特定照片”)。模块化设计并非苹果独有,谷歌也通过Android App Bundle实现了相同目的。将应用拆分成多个模块,能提高开发效率和灵活性,也便于Siri理解不同应用的功能,解决了跨应用用户体验一致性的难题。

这是目前国内手机厂商AI功能难以实现的。在苹果的Apple Intelligence还在规划时,国内手机厂商就实现了让用户通过手机AI点咖啡、订机票,但当外界期待将AI能力扩展到其他场景,如用微信给好友发相册图片时,却没了后续。

原因在于跨应用和单个应用环境不同,AI调用多个应用时易出现“上下文断裂”,即无法追踪不同应用状态,不能判断“下一步操作的前提”。解决此问题不仅需要应用开发者参与,还需系统底层实现跨应用数据共享,而这正是苹果在自家生态中的优势。

简单来说,如果把目前Android手机上的AI看作针对具体场景的特化智能体,苹果的个性化Siri则更像全能的通用智能体,除健康、银行等敏感应用外,能驱动几乎所有应用满足用户需求。在手机AI助手细分赛道,苹果有望后来居上。

除了弥补iPhone AI不足,苹果做AI语音操控设备应用可能是在“下一盘大棋”,探索适配未来硬件的交互逻辑。

苹果用桌面机器人、智能显示屏取代不温不火的HomePod基本已成定局,而语音是实现自然交互的最佳方式。当Siri能在iPhone上语音驱动不同应用,自然也能在Apple Watch、iPad、Vision Pro、Mac及桌面机器人上实现。用语音交互统一生态内不同硬件的体验,对苹果极具吸引力。

不过,Siri调用不同应用的“跨应用”问题仍是阻碍,苹果追求一步到位导致个性化Siri难产。在苹果AI业务落后的情况下,“憋个大的”比推出平庸的个性化Siri更易被用户接受。

本文来自微信公众号“三易生活”(ID:IT - 3eLife),作者:三易菌,36氪经授权发布。

本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com