iOS 十九全曝光,苹果自研AI来了,智障SIri得救了?
苹果iPhone 17系列曝光后,关于下一代iOS操作系统的新闻也将随之而来。
彭博知名科技记者马克·古尔曼近日表示,苹果将于明年6月在WWDC25上发布Siri的重大升级,可以像ChatGPT一样处理复杂的问题和需求。在Siri身上,苹果可能会选择自研AI大模型技术。
当前,Apple Intelligence依赖于第三方模型,ChatGPT在海外接入,而国内版本,从百度到字节再到腾讯,苹果的绯闻对象悬而未决,苹果智能能否落地中国也不得而知。

(图片来自苹果)
外界普遍不看好ChatGPT版的苹果智能,主要是感觉一般,有时生成的信息不是客户需要的。,而且SellCell的数据显示,近一半的iPhone用户在购买时会把设备是否支持AI功能作为关键因素,不过,在购买iPhone之后,73%的用户发现AI对手机的改善非常小。
在这种情况下,将ChatGPT等第三方模型改为第一方的“苹果牌AI”之后,Apple Intelligence的现状和口碑是否有可能扭转?
“苹果AI”即将到来。
自打Apple 在Intelligence推出之后,苹果iOS的主要升级点几乎围绕着它展开。
iOS最早 2024年6月30日,19系统曝光,当时距离iOS还很远。 马克·古尔曼在18次亮相后不到20天,就开始了新系统曝光的第一枪。他指出了iOS 19的代号为“Luck”中文意思是“幸运”。
接下来的几个月,iOS 直到最近,cultofmac和马克·古尔曼都带来了新消息,说iOS。 19将包含基于大预言模型的主要Siri升级,用户可以使用自然语言进行多轮对话,与ChatGPT相似的关键功能,可以满足更复杂的用户需求。
当Siri遇到超出其处理范围的问题时,这部分需求是通过对ChatGPT进行深度整合来完成的,并将提示词转移到ChatGPT处理,提供准确的答案和建议。在ChatGPT的帮助下,苹果的写作工具、视觉分析、个性化表达、办公等多种能力也得到了加强。
然后Apple Intelligence的大模型能力是否只是一个简单的购买方式?绝对不是,苹果还融合了一个约3亿参数的AFM,这是每个人都没有注意到的角落。-on-Device端侧模型,以及AFM-sever服务器模型,更多地用于适应用户的使用习惯,优化整机运行效率。
小雷猜测,苹果此举可能是为了取代ChatGPT和后来可能会加入的第三方大模型,将自己开发的“苹果牌”AI大模型整合到Siri功能中。说到底,按照苹果的想法,大概是不希望在核心技术上受制于人。
好消息是,iPhoneSoft报道称,苹果下一代操作系统更新的设备兼容性信息已经提前泄露,目前已经支持iOS。 iPhone18可以升级iOS 包含iPhone的19 XS和iPhone XR。假如消息准确,老iPhone客户又可以“决战一年”。

(图片来自苹果)
但是小雷对iOS 19系统并不十分乐观,新系统的支持,很有可能是基于“抽签”,换言之,iPhone没有办法体验iOSS,因为iPhone的年龄更大。 19系统的所有特性,部分动画渲染效果也有降级的可能。
另外,马克·古尔曼还强调,苹果公司分阶段发布iOS。 iOS战略是由18的策略引起的。 19的开发工作被推迟了。由于AI功能,苹果今年采用了分阶段更新的策略,通过各种小版本拓展iOS。 18的功能,但是过于碎片化的功能更新也直接导致了iOS 19项目进度放缓,或本应在iOS。 18上实装的新特性,估计要等到iOS。 19才有了。
尤其是Apple Intelligence,苹果曾在WWDC24上提到,苹果智能对其使用模式有严格的控制,正常运行至少需要8GB以上的运行内存,更不用说中国iPhone客户还没有使用苹果智能了。
任何事情都有例外,苹果在推出前调度功能时也强调了硬件的重要性,只是后来才降低了门槛,适应了更多的旧型号。也许,为了更快地传播苹果智能,官方也会允许不符合硬件要求的老iPhone使用部分能力。
“智障”Siri,要靠自研大模型解围?
最初,Siri技术起源于美国历史上最大的人工智能项目Cognitivee Assistant that Learns and Organizes,最初,Siri通过与世界上最大的语音识别制造商Nuance合作,促使Siri拥有语音识别能力。
2010年4月,苹果公司以约1.5-2.5亿美元的价格收购了Siri,并将Siri软件从App中获取。 在2011年10月发布的iPhone中,Store下架。 在4S中。当时,人工智能已经初具雏形,与手机深度绑定的语音助手可以在执行相应的指令之前将语音转换成文本。
但是当时的语音助手一般只能完成比较机械化的指令,遇到超纲问题基本都会跳转到网页搜索,被国内外网友嘲讽为“智障”,更多的是Siri听不到用户的唤起指令,另一种是“已读乱回”带来的尴尬。
在AI大模型时代,吐槽Siri的声音依然不断,一方面是Apple。 Intelligence功能不够成熟,对于日常使用的升级非常有限。另外一方面,用户普遍对苹果智能产生的摘要不满,主要是因为摘要中经常出现事实错误。
X网友@TheCrypReper直言苹果智能的感觉远不如谷歌Gemini,想要退掉iPhone。;@LearnOpenCV表示,苹果智能是苹果公司迄今为止最糟糕的产品更新,他仍然无法区分糟糕的旧版本Siri和新版本的Siri。;@thetechwhore的言论令人兴奋,称苹果智能是历史上最大的噱头和谎言。

(照片来自X平台)
只能说网友的吐槽并非空穴来风,反映出目前苹果智能存在许多不成熟之处。
另外,前面提到的Apple Intelligence的大模型生成能力主要是通过整合ChatGPT的AI大模型来实现的,从短期来看,苹果AI确实能够实现从0到1的飞跃。但是,它毕竟是一个“外部”模型,而不是iPhone。、iPad、硬件深度绑定的出现,如Mac,与AI大模型App的安装本质上没有太大区别。
此外,考虑到控制和中文支持等因素,苹果智能希望进入国内服务,寻找当地AI大型供应商的合作是最理想、最快捷的方式。最初,苹果与百度合作的消息传出。最近几天有消息透露,苹果正在接触腾讯、字节等公司。现在,与当地哪个大模型的合作还没有结束,苹果的智能进入中国有很大的阻力。
根据爆料信息,无论是国外还是国内,第三方大模型都可能是苹果的过渡计划。但是苹果自己开发的AI模型能否比第三方表现更好,能否完美结合苹果的软硬件生态,甚至改变使用习惯,小雷还是要问一个问号。
AIOS成为必然趋势,苹果这波无法平躺。
AI大模型技术的关键在于模型。如果模型性能不好,性能不全面,甚至漏洞百出,也会影响接入它的各种设备的感受。iPhone就是最好的例子。
归根到底,Apple Intelligence是苹果近两年来最大的升级点,也是最尴尬的升级点。
小雷曾经讨论过苹果国产版的AI。即使能顺利“落户”中国市场,也不是拯救iPhone创新的关键解药。虽然很现实,但是在这个阶段,Apple感觉一般,有点“搞心态”。 Intelligence,坦率地说,还不如大额补贴那么有吸引力。
现在看来,苹果AI的下一步计划可能是将ChatGPT等第三方模型替换为自研AI大模型,理论上来说,Siri的“外包任务”流程只是少了,有助于苹果更好地将生成服务融入系统,进行更深层次的软硬件联动。
说实话,小雷并不认为这种大幅度的改进可以让Siri重生。毕竟只是改变了一个方案,本质上是在原有的系统结构上进行的AI化改进,而不是原来的AIOS。最多只能完成复杂的指令,充分发挥生成大模型的基本特征。现在这种蛋糕并不好吃,但是苹果必须推出AI功能来保持竞争力。

国产AI手机走在前面,围绕系统底层重塑AI系统,使其能够进行更复杂的动作,如大规模并行计算。比如在荣耀Magic7系列发布会上,赵明通过YOYO自动操作,一口气点了2000杯咖啡。只要用户给出指令,AI系统就会在支付确定前自动完成操作部分。手机“自动驾驶”能从根本上改变用户的使用习惯,只需下达指令即可,这是传统系统架构难以实现的能力。
苹果还没有做好基本的生成模型访问和软硬件整合体验的充分准备,随着安卓系统的推出,一些iOS新版本的特点已经从领导角色转变为后续角色。的确,苹果仍然可以继续依靠iPhone和品牌主导市场,但未来智能手机将围绕“自动化系统”展开竞争。能否跟上国内大部队,取决于AI领域的修炼是否足够深入。
不管怎样,首先让国内用户使用Apple。 Intelligence吧。
本文来自微信微信官方账号“雷科技”,作者:雷科技AI硬件组,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




