苹果把Siri员工送进AI「补习班」,黄仁勋的暴论开始应验了
苹果近期为重塑Siri,安排近200名工程师参与AI编程培训,以适应其在生成式AI领域的战略调整。这一动作表明,苹果正在迎头赶上AI技术变革的浪潮,尽管其大模型版Siri在WWDC25上跳票,但内部已全面启动AI能力补强计划。
背景:Siri的落后与苹果的AI觉醒
随着各大科技公司纷纷推出具备生成式AI能力的语音助手,如谷歌的Gemini、Meta的Llama系列、微软的Copilot等,Siri在智能化程度上逐渐显得滞后。苹果在AI大模型领域的进展缓慢,尤其是大模型版Siri未能如期在WWDC25上亮相,引发了市场对其技术路线的质疑。
苹果CEO蒂姆·库克在多个场合强调了AI对苹果未来产品体验的重要性,而这次为Siri团队开设“AI补习班”正是其战略转型的关键一步。此举也与NVIDIA CEO黄仁勋的言论相呼应,他曾公开表示:“没有AI能力的公司将在未来五年内被淘汰。”如今看来,苹果正在努力避免这种命运。
措施:200名工程师的AI技能重塑
为提升Siri的AI能力,苹果组织了一项内部培训计划,近200名Siri项目工程师参与其中。该计划涵盖大语言模型基础、推理优化、上下文理解、对话系统构建等核心内容,部分培训由苹果内部AI研究部门主导,也有外部专家参与。
培训内容主要包括:
- 大语言模型原理与应用:理解主流模型架构如Transformer及其变体。
- 对话系统设计:提升Siri在多轮对话、上下文理解中的表现。
- 推理优化技术:针对复杂问题处理,提高模型稳定性与准确性。
- 本地化AI部署:确保模型能在端侧高效运行,兼顾隐私与性能。
此举被外界视为苹果内部组织的一次“技术刷新”,标志着其AI战略从依赖外部合作转向深度自研。
苹果研究引发行业争议
与此同时,苹果发布的关于大语言模型推理能力的研究论文也引发了热议。该研究通过设计25个谜题实例,测试了Claude 3.7 Sonnet、DeepSeek-R1、o3 mini等模型的表现。结果显示,在处理高复杂度任务时,这些模型会出现“推理崩溃”,准确率甚至接近于零。
研究中还指出:
- 随着问题复杂度增加,模型出现“偷懒”行为。
- 在深度推理场景中,模型表现不稳定,依赖记忆和逻辑拆解的能力不足。
- 模型在非结构化任务中泛化能力较差。
该研究虽受到部分专家认可,但也遭到质疑,尤其是测试环境的“理想化”设定被认为脱离真实应用背景。
行业影响:AI助手的技术再思考
苹果的这一系列动作不仅影响了其内部产品节奏,也对整个AI助手行业带来了启示。首先,其培训计划表明,即便像苹果这样的科技巨头,也必须快速提升团队的AI素养以保持竞争力。其次,其研究论文为行业敲响了警钟,指出当前AI助手在处理复杂任务时的局限性。
这可能促使更多厂商重新审视以下问题:
- 大模型在端侧的部署是否足够稳定?
- AI助手是否应采用混合模型(轻量+云端)?
- 如何提升模型在高复杂度任务中的泛化与推理能力?
此外,苹果对本地化AI的重视,也与Google、Meta等公司推动云端大模型的趋势形成对比。
展望:Siri能否迎头赶上?
尽管Siri的更新节奏落后于市场预期,但苹果的资源和组织执行力不容小觑。通过系统性培训和模型研究,苹果正试图构建一个更稳定、更本地化的AI助手架构。结合其生态封闭性优势,未来Siri有望在隐私保护与智能化之间找到新的平衡点。
不过,要在2026年底或2027年初实现突破,苹果仍需面对多重挑战:
- AI模型训练与数据隐私之间的冲突。
- 大模型在移动端的推理效率优化。
- 用户对语音助手体验预期的不断提高。
黄仁勋的“暴论”是否应验,关键在于苹果能否在AI技术变革中完成自我革新,而这场“补习班”或许就是转折的开始。