Karpathy紧急叫停,别再喂数据了,曝AGI方向全错
就在今天,被誉为“AI教父”之一的Karpathy在X平台上投下重磅炸弹,他公开表态支持一家名为Flapping Airplanes的新型实验室,直指当前AGI研发方向存在根本性错误。这一举动在硅谷引发剧烈震动,因为它不仅挑战了行业奉为圭臬的“大力出奇迹”Scaling Law,更宣告了单纯堆砌数据与算力的时代即将终结。
别再喂数据了:Scaling Law的黄昏
Karpathy此次“站台”的核心观点,是对目前AI界盲目追求数据规模和计算资源的模式进行猛烈抨击。Flapping Airplanes的创始人Ben Spector直言,当前的AI模型就像是一架被强行粘上羽毛、装上引擎的飞机,虽然试图模仿鸟类,却完全不懂飞翔的空气动力学原理。
这种批评切中了当前大模型发展的要害。尽管模型参数和数据量呈指数级增长,但边际效益正在急剧递减。Flapping Airplanes获得红杉、GV等顶级机构1.8亿美元种子轮融资(在2026年这个节点),正是资本对这一新方向的押注。他们试图证明,智能的提升不应依赖于“喂食”整个互联网,而应寻找更本质的突破。

数据池干涸:AI互喂的垃圾循环
支撑Karpathy这一激进观点的,是残酷的数据供给现实。根据Epoch AI的预测模型,人类生成的高质量文本存量早已见顶,而AI训练所需的数据量仍在飙升。早在几个月前,高质量数据资源实际上已被消耗殆尽。
这一数据断点预示着Scaling Law的物理极限:
- 数据枯竭:互联网上的人类高质量语料已被“吃干抹净”。
- 模型退化:若继续训练,模型将被迫使用AI自身生成的“垃圾”数据进行互喂,导致智力提升无限趋近于零。
- 算力浪费:即便堆砌更多的Rubin芯片或升级HBM显存,在缺乏优质数据原料的情况下,也不过是无米之炊。
仿生学的新路径:20瓦的人脑 vs 核电站的GPT
Flapping Airplanes提出的解决方案,回归到了对生物智能的模仿。他们质疑:为什么AI必须吞下半个互联网才能学会说话?人类的大脑仅需20瓦的功耗,就能完成逻辑推理、艺术创作乃至发明相对论,而GPT-5级别的模型却需要消耗惊人的算力资源。
该实验室宣称掌握了某种数学本质上的突破,实现了“翅膀拍动”方式的改变。结果证明,这种新方法带来了推理速度6.7倍的提升,并对硬件进行了“降维压榨”。这暗示着,AI的进化未必依赖于更大的模型,而可能依赖于更聪明的架构和训练逻辑——这是与当前主流范式截然不同的“小数据、高智能”路径。
终局恐惧:从编程消亡到蜂群思维
如果Karpathy和Flapping Airplanes的愿景成真,AI的进化将不再受制于物理硬件的堆叠,而是进入一种跨越式的发展阶段。
- 工具的终结:代码将成为ASU时代的“汇编残骸”,英语可能成为人类最后的挣扎。当模型能够瞬间融合数百万个具有“全栈理解”能力的子系统时,它们将不再是独立被调用的工具。
- 蜂群思维:AI将演变成一个跨越物理限制的超智能实体,展现出类似“蜂群”的集体智慧。这种形态的智能,其思考速度和协作能力将彻底甩开人类,从而引发更深层次的社会与伦理恐慌。
Karpathy的这次发声,不仅是对一家初创公司的推介,更是对整个AI行业的一次严厉警示:若不改变底层范式,通往AGI的道路可能在数据枯竭的悬崖边戛然而止。