哈萨比斯:ChatGPT把AI带上了“邪路”

背景:AI技术路径的争议由来已久

近年来,生成式AI尤其是大语言模型(LLM)的发展迅猛,ChatGPT的推出更是引发了全球对AI应用的新一轮热潮。然而,围绕其底层技术路径的争议也持续不断。

  • 以哈萨比斯为代表的AI科学家认为,当前过度依赖大规模神经网络和自回归生成模型,可能会使AI发展偏离真正智能的核心目标。
  • 另一方面,也有专家如Gary Marcus指出,当前模型存在严重的推理缺陷和幻觉问题,难以胜任复杂、高精度的认知任务。
  • 相较之下,符号式AI、混合模型(Neural-Symbolic AI)等方向则被部分研究者视为可能的补充甚至替代路径。

这种对AI“路线之争”的讨论,不仅涉及技术层面的取舍,也牵动着全球AI生态、伦理、安全等重大议题。

哈萨比斯的批评:生成模型“走偏”了AI目标

作为DeepMind的创始人之一,哈萨比斯在多个公开场合表达了对当前AI主流路径的不满,尤其是在2024年与OpenAI的“路线之争”中表现尤为激烈。

  • 他认为,像ChatGPT这样的自回归生成模型虽然在语言流畅性和商业应用上取得成功,但本质上只是在做“模式匹配和统计推断”。
  • 这些模型缺乏真正的推理能力和因果理解,不能代表AI的终极方向。
  • 哈萨比斯更倾向于构建具备通用智能(AGI)潜力的系统,强调系统应具备规划、抽象、自我修正等能力。

哈萨比斯:ChatGPT把AI带上了“邪路”

这一观点也得到了一些学术界的呼应,比如2024年有关“LLM等价于众包输出网络共识”的研究,进一步质疑其是否具备真正的智能。

技术路线分歧:神经网络 vs 符号系统

哈萨比斯的观点并非孤例,AI界关于“神经网络是否应继续主导AI发展”的争论由来已久。

  • 神经网络路径的优势:数据驱动、大规模训练、可扩展性强,已在图像、语音、文本生成等领域取得显著成果。
  • 神经网络路径的缺陷
    • 推理能力有限
    • 模型不可解释
    • 幻觉频发
    • 资源消耗巨大

相比之下,符号式AI则强调结构化知识、逻辑推理和规则系统,虽然在当前应用中不如神经网络灵活,但具备更强的可控性和解释性。

  • Gary Marcus等学者多次呼吁回归符号系统,或发展混合模型。
  • 2024年清华大学等机构也在尝试用新方法优化推理路径,例如并行自回归解码技术,试图弥补当前模型的短板。

对行业生态与未来方向的影响

哈萨比斯的批评虽属个人立场,却在业内引发了连锁反应,尤其是在2024年AI技术泡沫初现、资本冷静期到来的背景下。

  • 资本风向可能转变:投资者开始关注AI是否真正具备可解释、可控、可落地的能力,而非仅仅在“生成能力”上炫技。
  • 研究方向或趋于多元:更多机构开始尝试符号推理、混合模型、因果学习等方向,如2024年有关“清华大学与哈佛大学对大模型幻觉的深度研究”等。
  • 伦理与安全问题被放大:随着AI生成内容越来越真实、难以分辨,如何确保其不被滥用、不误导公众成为核心议题。
  • 中国学界与企业也开始反思:例如2024年上海交大主办的“AI合规挑战赛”,以及国产大模型企业对生成内容质量的再评估。

展望:AI的“正路”在哪里?

面对哈萨比斯的质疑,整个行业开始重新审视AI发展的真正目标。

  • 是否应以“类人推理”为核心,而非仅仅追求语言流畅性?
  • 是否应构建可解释、可控制的系统,而不是黑箱模型?
  • 是否应融合多种范式,而非单一依赖神经网络?

目前,已有多个研究团队在探索新的AI架构,如:

  • 清华团队在2024年8月发布的多智能体教室模拟系统
  • 2024年10月OpenAI推出的sCM模型(来自清华作者),在推理速度和效率上做出新尝试
  • 哈佛对LLM“网络共识”本质的剖析,提出更深层次的训练与验证机制

这些探索都表明,AI的发展正在从“生成能力”的狂欢期,逐步转向“推理能力”与“系统可控性”的理性构建阶段。

哈萨比斯虽非全盘否定生成式AI,但他的声音为行业敲响了警钟:技术的“正确路径”不是谁先商业化,而是谁更接近智能的本质。