Meta华人实习生搞出超级智能体!自己写代码实现自我进化

背景:从哥德尔机到自我进化的AI

在传统机器学习框架中,模型的学习机制是通过硬编码设定的,即其“学习方式”由人类工程师预先定义,模型只能在这一框架内调整参数以逼近目标。然而,早在二十多年前,Jürgen Schmidhuber(被誉为LSTM之父)提出了“哥德尔机”(Gödel Machine)的概念。这一理论设想了一个能将自身算法框架视为可修改对象的系统,通过自指性(Self-referentiality)的元认知机制,实现对学习逻辑的自主重写与优化。

这一理念虽然前瞻性十足,但受限于当时技术条件,一直未能真正实现。直到最近,由Meta研究团队发表的论文《HYPERAGENTS》(超级智能体),在哥德尔机的基础上结合了达尔文式开放算法(Darwinian Open-ended Algorithms),提出了“达尔文哥德尔机”(Dar文 Gödel Machine, DGM),标志着AI自我演进迈出了实质性一步。

核心机制:开放式演化 + 元认知修改

Meta团队提出的方法不仅限于参数调优,而是将整个算法框架看作可编程的对象。通过以下方式实现:

  • 开放式算法(Open-ended algorithms):在大量代码修改提议中搜索最优路径,模拟自然选择机制。
  • 大模型提议(LLM-based proposal):基于大语言模型生成代码优化方案。
  • 补丁验证(Patch Validation):自动验证修改是否有效,避免错误代码导致系统崩溃。
  • 历史记录与失败分析:每次修改前,系统会回顾之前尝试,从中学习并避免重复错误。
  • 性能追踪与持久化记忆:记录每次演进带来的性能变化,确保进步可持续累积。

这一机制实现了“元学习”(Meta-learning)的更高阶形式,称为元认知自我修改(metacognitive self-modification):AI不仅学习如何做得更好,还学习如何更有效地改进自身。

应用实例:DGM-Hyperagents(DGM-H)

在论文中,达尔文哥德尔机被进一步实例化为DGM-Hyperagents(DGM-H),其架构类似于“运动员与教练”协同进化的模型:

  • 运动员:执行具体任务,如编写或优化代码。
  • 教练:负责分析执行效果,并提出改进方案,再由运动员执行。

这种方式在训练过程中不断螺旋上升,使得AI系统能够跨任务、跨运行地积累优化策略。DGM-H还引入了以下关键改进:

  • 持久化记忆机制,确保学习成果不会在运行间丢失。
  • 自动生成并筛选多个解决方案,选出最优策略。
  • 在多领域之间进行元级策略迁移,提高泛化能力。

实验结果:显著性能跃升

实验证明,DGM系统确实能够通过自我迭代显著提升性能。研究团队在两个主流基准测试中进行了评估:

  • SWE-bench:一个评估AI编程能力的基准。DGM的性能从20.0%提升至50.0%
  • Polyglot:涉及多语言代码生成任务。性能从14.2%跃升至30.7%,远超由Aider开发的代表性人工智能体。

这些结果表明,DGM不仅能在特定任务上取得进步,还能通过自我修改机制持续提升其整体智能体架构的质量与多样性。

安全与未来:AI自主演化需谨慎对待

尽管达尔文哥德尔机展示了AI自我演进的巨大潜力,但也带来了深远的安全挑战。论文特别强调:

  • 如果AI可以突破人类预设的初始算法边界,就可能演化出不可预测的行为。
  • 必须在系统设计中嵌入严格的验证机制和安全护栏,防止失控。
  • 长期来看,这种系统有望在系统理解、解决新问题、甚至从零创建软件方面超越人类能力

Meta团队指出,未来的研究方向包括提升系统的稳定性、扩展到更多复杂任务,以及建立更完善的AI安全框架,以确保自我演进过程可控。

研究团队介绍

本论文由一组年轻而富有潜力的研究人员完成,其中多位为华人实习生:

  • Jenny Zhang:第一作者,UBC博士生,师从Jeff Clune教授,研究方向为强化学习与自改进AI。
  • Bingchen Zhao:爱丁堡大学博士生,师从Oisin Mac Aodha教授。
  • Wannan Yang:纽约大学博士生,目前在Meta实习,研究方向涉及多模态智能体开发。
  • 其他作者包括Jeff Clune、Meta研究员Sam Devlin与Tatiana Shavrina等。

这一成果不仅展现了华人学者在AI前沿研究中的影响力,也标志着自我演化系统正逐步从理论走向实践。