
图片来源@unsplash
本周,亚马逊、微软、谷歌相继发布新一季度财报。

与上一季度相比,市场反应出现明显分化:谷歌股价上涨4%至7%,微软则下跌2%。这与我们上一财年的预判基本一致——当科技巨头将资本支出与现金流的底牌亮出后,投资者开始为巨额AI投入的确定性回报投票。
但有一点也需要注意:当大部分计算需求如果仍然只是来自于OpenAI、Anthropic等少数头部大模型厂商,我们或许不应该那么乐观。
云厂商最近一个季度在忙什么?
从财报数据来看,三大云厂商在最近一个季度基本在做一件事:不计成本抢地建厂,并亲自下场兜售算力。
对于云厂商而言,建设GPU数据中心的投入成本其实在不断上升。
年初,我们注意到,亚马逊等五家头部科技巨头预计在2026年合计资本支出达到6000亿美元至7000亿美元。到这一季度,亚马逊第一季度资本支出高达442亿美元,并维持全年2000亿美元的预算高位。
截至一季度末,亚马逊自由现金流骤降95%至12亿美元,而去年同期为259亿美元,这是一个危险信号。亚马逊解释称是因为过去12个月,房地产和设备购置支出激增593亿美元,导致自由现金流减少。
谷歌和Meta则上调原本就已经相当高额的资本支出预期:谷歌预计在1800亿至1900亿美元,单季度支出高达356.7亿美元;Meta的预计高达1450亿美元。谷歌解释称这是因为收购了数据中心服务商Intersect,同时它还预计2027年资本支出将再次大幅增长。
相比之下,微软虽然在云业务上表现稳健,但其资本支出的回报成了投资者质疑的焦点。在与OpenAI的合作松绑之前,微软一直在大力投资建设和租赁新的GPU数据中心,以满足AI公司需求。
微软第一季度资本支出较上一季度减少了56亿美元。微软称,支出放缓是由于施工进度正常波动,而非需求下降。微软第一季度自由现金流为158亿美元,同比下降22%,公司将此归因于资本支出较去年同期增加。
大笔算力投入背后
整体来看,受益于生成式AI业务需求,同样是巨额投入,三大云厂商云业务增长却走出了不一样的路:以谷歌表现最为亮眼,反观亚马逊AWS和微软云,尽管增速依然客观,但在云积压订单上表现一般。
谷歌云:营收增长63%至200亿美元,远超上一季度的48%,AI产品和基础设施销售是主要动力。
积压订单几乎翻倍,飙升至4620亿美元,谷歌预计未来24个月内其中一半将转化为收入。这不仅是财务数字,更是未来收入的保证书。谷歌这一增长归功于TPU AI芯片的销售,谷歌不再仅自用,而是开始向其他公司出售。
AWS:第一季度营收增长28%至376亿美元,创近四年最快增速。积压订单为3640亿美元,环比增加1200亿美元。
CEO安迪·杰西指出,这些订单来自“相当广泛的”客户群体,且不包括Anthropic此前同意斥资1000亿美元购买AWS基础设施的交易。
微软:增速上升1个百分点至40%,略高于此前预测的37%-38%,但与谷歌和亚马逊相比显得逊色。
营收积压订单总额为6270亿美元,略高于上一季度的6250亿美元。其中25%(约1570亿美元)将在未来12个月内转化为收入。微软未披露OpenAI的具体贡献,而上一季度这一比例为45%。
不过,这些云厂商大部分激增的订单仍然来自于OpenAI、Anthropic等头部大模型厂商或拥有极强技术实力的科技巨头。虽然承接这些头部订单能迅速做大营收,但这对于云厂商也是一把双刃剑。
OpenAI与微软闹掰就是鲜明的案例。一方面,头部大模型厂商通常要求长期合同以锁定算力,但云厂商却因此要背负长期且沉重的数据中心建设成本。另外,为留住大客户,云厂商也因此要持续满足其越来越苛刻的算力规模和价格要求,这也进一步导致其资本支出居高不下,自由现金流持续恶化。
卷算力,从全栈AI下手
事实上,如今美国算力市场也进入短缺时代。正如谷歌CEO皮查伊在财报电话会上坦言:“我们在短期内算力受限”,并透露若产能充足,云业务收入本可更高。这种短缺甚至传导至下游,导致AI初创企业面临GPU配额收紧和成本飙升。
为应对短缺,各大云厂商除采购英伟达GPU外,正不约而同加大自研芯片部署力度。例如,亚马逊的用于AI训练的Trainium AI芯片,谷歌云早先推出的AI张量处理单元TPU,微软的AI加速计算的Maia 100芯片等,试图通过定制化硬件降低对单一供应商的依赖并优化成本。
云厂商提供AI专用芯片或许能够在GPU紧缺时满足客户一定诉求,如何满足当前市场对AI算力高涨的需求,对所有云厂商而言,都是一道必答题。
值得一提的是,谷歌计划向金融机构、前沿实验室等客户交付自研TPU,用于其自有数据中心,预计今年晚些将获得一小部分收入,2027年进一步放量。4月初,亚马逊的股东信里也明确表示将芯片自研做到“行业真正的领导者”,眼下之意则是不再为英伟达打工。
当然,云厂商很早就开启了芯片自研,但或许从来没有像今天这么重视过。谷歌打了翻身仗的成功之处,就在于将自研芯片TPU v7和自研模型Gemini 3实现了全栈式的能力打通。
而AWS过去的策略是:对于模型需要快速上线,希望选择英伟达的客户,会为其尽可能提供全面选择,对于有长期发展策略的AI企业,则为其提供SDK使用其自研芯片。
今天则变了,亚马逊与OpenAI、Anthropic达成合作,不仅仅是出租服务器,更是为了将Bedrock等AI平台植入客户开发流程。
云厂商或许也需要证明,自己的价值在于提供高效的模型微调工具、数据服务和API,从而锁定更广泛的客户,而不是仅仅把GPU显卡卖给Anthropic或OpenAI。
(本文作者 | 杨丽,编辑 | 杨林)
更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App