苹果曾为 Siri 提供过升级,使其在 Apple Intelligence 的推出中能够更好地理解上下文并处理后续查询。然而,它仍然缺乏 ChatGPT 那样的强大智能和对话能力。
苹果为 Siri 开发全新 LLM
根据《彭博社》的一份最新报告,苹果正在努力为 Siri 开发一种“LLM”(大语言模型),让其像 Google Gemini Voice、Meta AI Voice 或 ChatGPT 的高级语音版本一样,可以进行对话。
苹果目前已经在使用一种设备端语言模型来支持 Apple Intelligence。但这种模型不足以支撑像 ChatGPT 这样的大规模对话式 AI,因为后者依赖云端更强大的模型。
据《彭博社》报道,新的 LLM Siri 将使用苹果全新的 AI 模型,并更广泛地利用 App Intents 功能。这些功能允许开发者为 Siri 开放应用程序内部的功能,使用户能够通过 AI 与应用互动。
为什么 Siri 需要 LLM 支持?
早前有评论指出,如果 Siri 集成 ChatGPT,那么其作为语音助手的作用几乎变得多余——所有创造性的需求都会转到 ChatGPT。
目前的 Siri 已因近期更新变得更好,但仍远不及 Google 的 Gemini Live,而这对苹果与 Android 的竞争来说是一个问题。给 Siri 配备独立的 LLM 和语音模式,可能需要依赖苹果自建的私有云,而不是在设备端运行。这种基础设施建设需要时间,特别是对全球范围内的语音助手而言。
根据 Mark Gurman 的报道,LLM Siri 初期可能会以独立应用程序的形式发布,用户将可以对其提供反馈。这项计划可能会在明年的 WWDC(全球开发者大会)上宣布,并在 iOS 19 和 macOS 16 中进行整合,但实际投入使用可能要等到 2026 年春季。
当前 Siri 的过渡措施
在 Siri 的 LLM 准备就绪之前,苹果计划扩大 Siri 对 ChatGPT 的集成,并引入其他合作伙伴,例如 Anthropic 的 Claude 和 Google 的 Gemini。这将成为一种过渡性措施,弥补现阶段的不足。
结语
苹果的这一举措展现出其致力于通过 LLM 提升 Siri 对话能力的决心。这不仅是为了追赶竞争对手,也是为了让 Siri 在语音助手市场中保持相关性。
关注公众号【真智AI】
TOP AI模型智能问答|绘图|识图|文件分析
每天分享AI教程、赚钱技巧和前沿资讯!