一夜之间,AI终获"永久记忆",最难考试99%刷爆SOTA,全网直呼疯狂
正文
长久以来,AI在处理长期对话和复杂任务时,始终面临着“失忆”的困扰。用户反复介绍自己的偏好,AI却每次都需要重新了解;讨论过的话题隔夜便忘,无法形成连贯的思考。然而,这一局面在一夜之间被彻底打破。一个名为Supermemory的团队推出的超级记忆系统ASMR,在业内公认最难的AI记忆考试LongMemEval中,以99%的准确率一举刷新SOTA(当前最佳水平)。这一成绩不仅标志着AI记忆难题被攻克,更引发了全网关于AI即将拥有“永久记忆”的热烈讨论。
业界最强挑战:LongMemEval
要理解ASMR成就的含金量,必须先了解它所挑战的“考卷”——LongMemEval。这并非普通的记忆测试,而是被公认为AI记忆界的“最难考试”。
- 极端的数据复杂性:考试内容包含超过11.5万字的对话历史,信息极度密集。
- 真实的混乱场景:测试模拟了真实世界中的各种情况,包括互相矛盾的信息(例如用户前后改变说法)、分散在多个会话中的零碎事件,以及需要精细推理时间线的复杂问题。
- 传统系统的“滑铁卢”:在ASMR出现之前,大多数记忆系统在LongMemEval上表现惨淡。即便是顶尖模型,准确率也很难突破80%,绝大多数系统甚至无法达到及格线。
ASMR能够在此类测试中达到99%的准确率,意味着它不再是依靠概率“猜”答案,而是实现了近乎零遗忘的精准检索与理解。
颠覆传统:ASMR的技术“野心”
ASMR之所以能取得如此突破,核心在于它彻底抛弃了传统的技术路径。它没有依赖向量数据库(Vector Database)和嵌入(Embedding)模式,而是完全在内存中运行,采用了一套全新的“多Agent并行推理”架构。

这不仅仅是技术上的迭代,更是对AI记忆本质认知的颠覆。团队跳出了传统RAG(检索增强生成)的框架,因为RAG在处理高密度、跨会话的时序数据细节时往往力不从心,无法可靠区分信息的“新旧版本”。ASMR通过一群分工明确的专家协同作战,解决了这一核心痛点。
多Agent协同:如何实现“永久记忆”
ASMR的记忆系统并非单一模型的单打独斗,而是一套精密的流水线作业,主要由观察者Agent和搜索Agent两大阵营构成。
1. 观察者Agent:全方位信息提取
当对话数据进入系统时,3个观察者Agent同时开工。它们不是简单地存储内容,而是围绕六个维度进行定向提取:
- 个人信息
- 偏好
- 事件
- 时间线
- 信息更新
- 助手信息
这种并发处理方式,确保了从原始会话中提取的信息结构化且全面。
2. 搜索Agent:极致的并行检索
为了确保检索的准确性,ASMR采用了两种极端的并行策略,直击准确率天花板:
- 8变体集群:让8个高度专业化的提示词变体并行运行。只要其中任何一个变体跑出正确答案,即视为回答正确。这种“广撒网”的策略将准确率直接拉升至98.6%。
- 12变体决策森林:构建12个由GPT-4o-mini驱动的专家Agent,各自独立回答问题,最后由一个聚合模型综合判断。该方案准确率也高达97.2%。
超越记忆:矛盾处理与自动遗忘
ASMR真正智能的地方,在于它处理信息的方式超越了简单的“存储-取出”。
- 处理矛盾信息:假设用户上个月说“我住在北京”,这个月说“我刚搬到上海”。普通的RAG系统会将两条信息一并丢给大模型,导致AI混淆。而ASMR能识别出时间的先后顺序,理解“上海”覆盖了“北京”,仅返回最新状态。
- 自动遗忘机制:ASMR拥有类似人类的“遗忘”能力。如果用户说“我明天有个考试”,当日期过后,这条记忆会自动失效。这避免了临时信息变成永久噪音,污染未来的对话上下文。
落地应用:从API到开发者的“全家桶”
Supermemory团队的野心不仅在于模型本身,更在于将这种记忆能力变成基础设施,极低门槛地提供给开发者和普通用户。
- 极速用户画像:通过API调用,仅需50毫秒,系统就能生成用户画像。将画像注入提示词,AI瞬间能从“陌生人模式”切换到“老朋友模式”。
- 强大的连接能力:系统支持与Google Drive、Gmail、Notion、OneDrive、GitHub等外部数据源实时同步。文档、PDF、图片、视频上传后自动处理,无需配置即可搜索。
- 极简的集成方式:
- 代码层面:只需
npm装一个包,几行代码即可集成至Vercel AI SDK、LangChain等主流框架。 - 无代码层面:提供MCP服务器,一行命令安装,即可在Claude Desktop、Cursor、VS Code等编辑器中直接使用。
- 代码层面:只需
随着ASMR将于4月初开源,AI记忆的大航海时代正式开启。对于全球数十亿AI智能体(Agent)而言,这套系统补齐了最关键的一块拼图——记忆,让AI真正从“用完即走”的工具,进化为形影不离的“搭档”。