DeepSeek连夜改页面,免费的AI用不长了
背景:AI模型从“烧钱扩张”走向“成本焦虑”
过去几年,大模型行业以“规模优先”和“用户体验至上”为核心策略,各大公司争相推出免费版本吸引用户。然而,随着用户量激增,算力消耗呈指数级增长,行业开始面临前所未有的成本压力。2026年以来,DeepSeek已经发生7次服务中断,其中3月一次宕机持续12小时,暴露出底层基础设施的紧张。与此同时,AI算力耗电占全社会用电增速的46%,远超整体6.1%的增长水平,电力供给也成为瓶颈。在此背景下,模型厂商不得不重新思考商业模式,逐步从“免费扩张”转向“精细化运营”。
深度解析:DeepSeek上线分层模式的意图
4月8日凌晨,DeepSeek悄悄上线了新的分层界面,在网页版和App中新增“快速模式(Fast)”与“专家模式(Expert)”两个入口,并灰度测试“视觉模式(Vision)”。快速模式用于日常对话,响应速度快、延迟低;专家模式则处理复杂推理,响应时间更长;视觉模式则尚未全面开放,仅少量用户可体验。
这一变化被解读为DeepSeek为新一代V4模型做铺垫,但更关键的是它体现了一种“按需调用算力”的策略。通过将任务分层,把简单对话交给低成本路径处理,仅在必要时启用高算力资源,从而减少Token浪费,实现算力的结构性优化。此举也被视为向付费体系过渡的重要信号。

行业趋势:从“能力优先”到“成本控制”
Anthropic的Claude模型也进行了调整,自4月5日起,取消对部分第三方工具(如OpenClaw)的订阅覆盖,仅支持按需付费。此举背后的核心逻辑是控制成本——有用户每月仅支付200美元订阅费,却消耗了价值5000美元的算力资源,造成严重资源错配。
行业开始出现分化:OpenAI仍坚持“能力优先”,通过产品快速迭代和生态开放维持扩张节奏;而Anthropic则采取“工程优化”策略,强调成本结构和企业服务稳定性。罗福莉,小米AI负责人、前DeepSeek成员指出,全球算力供给已跟不上Agent所创造的Token需求,出路在于“高效Agent框架”与“强大模型”协同进化。
算力成本带来的连锁反应
随着算力成本上升,各大云服务商和模型厂商开始收紧免费策略。阿里云、腾讯云的算力价格最高上涨34%,智谱AI在发布GLM-5.1之际年内第三次提价。虽然这些厂商打着“恢复正常定价”的旗号,但本质是结束价格战、回归成本逻辑。
用户端也开始受到影响:回答更精简、调用频率受限、免费额度减少。这些并非模型“变懒”,而是系统在主动进行成本优化。每一次模型生成回复的背后,都有算法在权衡资源分配,Token不再是可以随意挥霍的“燃料”,而是被严格计量的“货币”。
Token经济学:AI商业化的关键转折点
Token的消耗与成本之间的巨大差距,成为行业“房间里的大象”。Anthropic的案例表明,200美元订阅用户可能消耗高达5000美元的算力,形成严重亏损。罗福莉指出,这种“天坑”式的资源错配必须通过工程手段解决。
DeepSeekR1曾凭借架构创新显著降低Token使用成本,但这种低成本策略迅速被后来者用作价格战工具,反而加剧了系统的负担。如今,DeepSeek的分层机制,意味着AI行业正在从“追求用户规模”转向“追求Token效率”。
未来,Token经济学将成为衡量AI商业模式是否可持续的核心指标。AI不再是单纯的技术实验,而是重资产运营下的商业现实。每一个Token的使用、每一次调用的权限,背后都是一场关于成本、效率与收益的博弈。