Claude 又又又又降智了,只有它自己不知道
自从 Anthropic 推出 Claude 系列模型以来,其 Opus 版本一度被誉为最强的代码生成和理解模型之一。然而,最近大量用户反馈称,Claude Code 和 Opus 4.6 出现了明显的“降智”现象,推理能力下降、代码理解变浅,甚至出现大量“幻觉”输出。这一系列问题引发了开发社区的广泛讨论,甚至有人指出,这或许是 Anthropic 为了节省算力而做出的隐性调整。
事件起因:AMD 工程主管的实锤爆料
- 爆料人:Stella Laurenzo(AMD 工程主管)
- 核心指控:Claude Code 已无法胜任复杂工程任务
- 证据来源:6852 个 Claude Code 会话、17871 个思考块、234760 次工具调用的分析数据
分析结果显示:
- 代码读写比从 6.6 降至 2.0
- 以前每修改一行代码平均读取 6.6 个相关文件
- 现在仅读取 2 次上下文,就开始输出代码建议
这一变化导致大量用户反馈:Claude 在不理解项目结构的前提下就开始写代码,甚至改坏了原本运行正常的模块。
Anthropic 的官方回应与争议
面对社区质疑,Claude Code 负责人 Boris Cherny 在 GitHub 上回应:
“redact-thinking 功能只是隐藏了思考过程,并未改变其行为。”
然而,这一说法并未平息争议。开发者指出:
- 即便将 effort 调至最高,Claude 依旧“摆烂”
- 3 月 8 日后,“懒惰钩子”频繁触发(173 次)
- AI 不再主动确认逻辑,而是直接猜测代码意图
Anthropic 还承认:
- 2月9日:引入“自适应思考”机制
- 3月3日:将默认思考等级调为“中级”
官方称此举是为了在“智能、延迟、成本”之间找到“甜蜜点”,但用户认为,这种调整并未提前通知,甚至带有“偷偷改配置”的嫌疑。
性能下降的量化数据
- 思考深度下降 67%
- 幻觉基准测试从 83.3% 降至 68.3%
- 响应时间从平均 8-12 秒降至 2-3 秒
这意味着:
- AI 更快给出回复,但更不准确
- 编程任务中出现大量“模式匹配失效”的问题
- 用户反复调试,导致 token 成本反而上升
一位用户描述了自己最近的体验:
- 让 Claude 重构一个模块,结果它把原本能运行的代码也改坏了
- 改回原版后,Claude 又引入新的 bug
- 最终只能回滚代码,手动修改
用户总结:与其花三小时和它拉扯,不如十分钟自己搞定。
开发者社区的反应与迁移
随着“降智”现象持续发酵,开发者社区掀起了迁移潮:
- X(原 Twitter)上大量帖子标题为 “Switched from Claude to Codex”
- 程序员开始回归“古法编程”:自己阅读代码、理解结构、手动修改
- 有人指出:这种“摩擦感”虽然痛苦,却让自己变成了更好的工程师
DBinary 在知乎上的回答引发共鸣:
“当AI开始乱改代码时,你必须亲自掌握每一个接口和每一行逻辑。”
而 Anthropic 的处理方式也被类比为“远程关掉豪车的发动机”,即:
- 用户为 Opus 的性能付费
- 却在不知情中,被悄悄换成了“低功耗版本”
- 不仅性能下降,关键时候还“靠不住”
OpenAI 的反攻与市场格局变化
就在用户对 Claude 感到失望之际,OpenAI 推出了新的订阅计划:
- ChatGPT Pro:100 美元/月
- 主打 5 倍 Codex 使用额度
- 推广期内提供 10 倍 Plus 额度
- 同时附送 GPT-5.4 Pro 和 GPT-5.3-Codex-Spark 等模型
此举无疑加剧了 AI 编程工具的竞争格局。许多原 Claude 用户表示:
- 尽管 Codex 更慢,但更可靠
- Plus 额度虽被削减,但仍在可接受范围
- 关键任务不再敢交给“打工人”式的 Claude
有开发者调侃:“Claude 变成了一个急于打卡下班的油条式员工。”
用户的诉求与行业反思
用户的核心诉求集中在两点:
- 透明性:模型性能变化应提前告知
- 可靠性:不能一边收费,一边降低服务质量
一位用户写道:
“我花200刀一个月,买的是智能,不是‘赛博油条’。”
更深层的问题在于:
- 订阅制 AI 模型是否应该保持版本一致性?
- 如果模型持续更新,是否需要明确版本号或性能指标?
- 用户是否有权“退回”性能下降的版本?
这个问题正在引发整个行业的讨论。有人建议 Anthropic 应该:
- 恢复原有版本的默认配置
- 提供“高性能模式”供付费用户选择
- 公开模型性能变动的路线图
结语:AI 工具的信任危机
Claude 此次的“降智门”不仅是一次性能调整,更是一场信任危机。它揭示了 AI 工具在商业与技术之间的矛盾:
- 平台想服务更多用户,但不能牺牲已有用户的核心体验
- AI 要更高效,但不能变得不可靠
- 模型要“省油”,但不能偷偷关掉雷达
正如有人总结的那句话:
“你不是不能变弱,但你得告诉我你变弱了。”
否则,用户将不再相信你承诺的“智能”,而是开始怀疑你是否在偷偷收取“脑力税”。