彭博社消息引发科技圈关注,苹果在自研Siri大模型面临困境之际,选择付费委托谷歌定制基于Gemini的大语言模型,期望借此加速Siri智能化进程。这一合作采用“端云协同”创新模式,还将为Siri带来三大核心组件,分阶段推出新功能。然而,此次合作能否扭转Siri口碑,仍有待观察。
自研遇挫,苹果寻求谷歌助力
彭博社的马克・古尔曼在其Power On通讯中爆料,苹果在自研Siri大模型时遭遇瓶颈。早前报道指出,苹果工程师在开发Siri过程中面临挑战,特别是在各类应用程序(如银行等关键场景)中稳定、高效执行任务方面。为此,苹果调整策略,付费委托谷歌为其定制一款基于Gemini的大语言模型,旨在解决此前AI研发困境,弥补自身在复杂AI任务处理上的短板。
“端云协同”,兼顾智能与隐私
根据新的技术架构,Siri的AI任务处理将采用混合模式。对于相对简单的AI请求,系统会利用设备自身的计算资源在端侧完成;而对于更复杂的查询,则会通过加密的无状态数据,将其转交给部署在苹果“私有云计算”服务器上的定制版Gemini模型处理。这种“端云协同”的模式,既能发挥大模型的强大能力,又能最大限度地保护用户数据隐私,因为服务器不会存储任何个人信息。
三大组件,升级Siri交互体验
升级后的Siri将具备三大核心组件,以实现更智能的用户交互。 “查询规划器”能智能判断用户请求的最佳实现路径,决定是调用网页搜索、访问个人数据还是通过App Intents框架调用第三方应用功能。 “知识搜索系统”让Siri拥有一个通用知识库,能直接回答常识性问题。 “摘要器”能利用大模型能力,对通知、邮件、网页乃至音频内容进行高效总结。
分阶段推出,重塑Siri体验
苹果计划分阶段推出这些强大的AI新功能。预计在2026年春季发布的iOS 26.4更新中,用户将体验到包括应用内语音操控、基于个人上下文的精准服务等功能。而在2026年6月的全球开发者大会(WWDC)上,随iOS 27一同亮相的更新将带来更多“重大”的人工智能技术突破,彻底重塑Siri的用户体验。但古尔曼也指出,苹果押注新版Siri能扭转多年技术落后与口碑积累的“品牌损伤”,成效仍存在不确定性。
以上文章由 AI 总结生成




