从降价60%到涨价400%,云厂商疯抢AI蛋糕

2026年3月,一场席卷全球云服务市场的涨价潮突如其来。短短10天内,谷歌云、亚马逊AWS、腾讯云、阿里云、百度智能云等国内外巨头相继宣布上调核心AI算力与存储服务价格,涨幅普遍在30%至50%。作为这场风暴的中心点,腾讯云宣布结束GLM 5、MiniMax 2.5等多款热门模型的免费公测,并将混元系列部分服务价格上调超过400%。更早之前,AWS已在1月悄然将EC2旗舰机型价格上调约15%,谷歌云也计划从5月起将北美地区数据传输费率翻倍。这股涨价浪潮打破了云行业长达二十年“只降价、不涨价”的铁律,也标志着AI算力正式进入了价值重估的全新周期。

十年降价与一夜涨价的背后

在大模型爆发之前,云计算市场遵循着一套残酷而高效的降价逻辑。自2006年AWS诞生以来,云厂商的核心战略就是通过“价格战”抢占市场份额。

  • 摩尔定律与零边际成本:早期云服务本质是售卖标准化的“数字水电煤”。受摩尔定律驱动,硬件成本持续下降;同时,由于数据中心建设属于巨额固定投资,而多服务一个客户的边际成本几乎为零,这使得云厂商具备了不断降价的底气。
  • 内卷化的生存法则:在阿里云、腾讯云等巨头参与的牌局中,降价成为一种本能防御。不主动降价就意味着将市场份额拱手让人,这种“低价换垄断”的飞轮效应持续了二十年,将原本昂贵的企业级IT设施砸成了白菜价,也孕育了繁荣的互联网生态。

从降价60%到涨价400%,云厂商疯抢AI蛋糕

然而,随着2026年AI大模型需求的井喷,这套运行了二十年的底层逻辑被彻底打破。

  • 算力需求的质变:传统的CPU或通用GPU已无法满足海量推理需求。企业将客服、数据分析乃至核心业务流全面接入大模型,个人用户也通过Agent产品高频调用AI。优刻得在公告中坦言,“核心硬件采购等基础设施成本出现显著且结构性的上涨”,言下之意是用户的算力消耗已远超供给极限。
  • 从训练到推理的硬件断层:当前的数据中心里,大量昂贵的通用GPU正被用于处理日常推理任务,这种“大炮打蚊子”的模式导致成本结构全线崩塌。市场急需从“练脑子”的训练芯片转向“干苦力”的推理芯片,而硬件迭代的空窗期,直接引爆了此次涨价潮。

飞轮反转:Token的廉价与智能的昂贵

涨价潮引发了一个核心问题:未来使用AI的成本是会越来越便宜还是越来越贵?答案呈现出一种分裂的景象:Token的单价会继续下降,但完成复杂任务的总账单将无限上涨。

1. 效率革命:Token为何越来越便宜?

硬件厂商正在全力填补“训练”与“推理”之间的鸿沟。未来的数据中心将大规模部署专门为生成Token设计的推理芯片(如英伟达整合LPU技术的新品、国产寒武纪芯片等)。这些新硬件砍掉了冗余算力,专攻数据吞吐,在同等能耗下,Token产出效率呈指数级提升。与此同时,模型架构也在优化,通过混合专家模型(MoE)等技术,让AI只唤醒解决问题所需的“那一小部分脑细胞”,大幅降低了单次推理的能耗。因此,单个Token的物理成本将持续走低。

2. 范式升级:为何总账单却在飙升?

真正的开销在于“智能”的复杂度。AI已从“一问一答”的对话框进化为能独立完成任务的“Agent智能体”。

  • 任务复杂度与Token消耗量成正比:当一个Agent被要求完成一份竞品分析或合同审核,它在后台会进行多步逻辑推演、反复调用搜索与数据库、甚至自我学习新技能。相比两年前的简单问答,这类任务的Token消耗量可能是几十倍甚至上百倍的增长。
  • 蒸汽机悖论:正如150年前蒸汽机效率提升反而导致煤炭总消耗量爆炸一样,AI效率的提升刺激了更高频、更复杂的调用需求。当全球数十亿Agent 7x24小时不间断工作时,整体算力需求不降反增,直接撞上了物理世界的能源天花板。

结语:昂贵的认知与消逝的平权

在古典互联网时代,技术是伟大的平权机器,信息获取的成本趋近于零。但AI时代正在重塑这一叙事。

当真正强大的AI能力成为少数人(或企业)才能负担得起的生产力工具时,一种极严酷的“阶层化”正在形成。资金充裕者利用高质量算力放大生产力,通过数据飞轮构筑更高的竞争壁垒;而普通人和中小企业只能使用被阉割的“低配版智能”。

云计算二十年的降价普惠已走到尽头,随之而来的是一个认知即权力的时代。廉价的依然是单纯的计算与信息,而顶级的认知与决策,将随着飙升的Token账单,成为一种新的、难以逾越的特权壁垒。