科技早报|2026年4月30日:AI 基础设施竞赛继续升温
一句话导读:4 月 29 日晚公布的微软、亚马逊最新财报,把企业级 AI 投入的热度再次拉高;而 AWS 与 OpenAI 的合作、Google 的 Deep Research Max 和第 8 代 TPU,则说明接下来真正决定胜负的,已经不只是模型参数,而是运行时、数据连接和推理成本。
今日要点
- 微软 2026 财年第三财季营收达到 829 亿美元,AI 业务年化收入跑到 370 亿美元,Azure 相关需求继续强势。
-
- 亚马逊一季度 AWS 收入同比增长 28% 至 376 亿美元,资本开支压力变大,但也说明企业并没有放慢 AI 上云节奏。
-
- AWS 与 OpenAI 扩大战略合作,把最新 OpenAI 模型、Codex 和 Bedrock Managed Agents 搬进 AWS,企业买 AI 正从"买模型"转向"买托管好的运行环境"。
-
- Google 把 Deep Research / Deep Research Max 推进到 Gemini 3.1 Pro、MCP 和原生图表层面,企业知识工作流的 Agent 化又向前走了一步。
-
- Google 第 8 代 TPU 直接拆成训练芯片 TPU 8t 和推理芯片 TPU 8i,云厂商在算力层面的分工开始越来越明确。
1. 头条:微软财报再次证明,企业级 AI 预算还没降温
事实:
4 月 29 日,微软公布 2026 财年第三财季业绩:营收 829 亿美元,同比增长 18%;微软云收入 545 亿美元,同比增长 29%;Azure 和其他云服务收入同比增长 40%。更关键的是,Satya Nadella 在财报中给出了一个很难忽视的信号:微软 AI 业务年化收入已经超过 370 亿美元,同比增长 123%。
影响:
这说明 AI 已经不是"前景故事",而是在真正转化成大额企业采购。对开发者和技术管理者来说,这背后有两层含义:第一,Copilot、Azure AI、模型托管与企业软件捆绑的打法,已经开始形成规模收入;第二,企业客户短期内不会因为成本焦虑就停止买单,反而会继续把预算压向能快速落地的云和 AI 平台。
我的判断:
微软这份财报最值得看的不是单个产品涨了多少,而是"AI 基础设施 + 企业软件"这个组合已经被验证能持续放大收入。短期看,微软依旧是企业级 AI 商业化的节奏标杆;长期看,真正的悬念不在需求,而在这种高投入模式能否持续维持利润率。
来源:
2. 亚马逊一季报:云增长更快了,但 AI 资本开支也更重了
事实:
同样在 4 月 29 日,亚马逊公布 2026 年第一季度业绩:总营收 1815 亿美元,同比增长 17%;AWS 收入同比增长 28% 至 376 亿美元,AWS 经营利润达到 142 亿美元。财报还特别强调,过去 12 个月自由现金流明显下滑,主要原因是人工智能相关的物业和设备采购大增;Andy Jassy 还提到,亚马逊芯片业务已经超过 200 亿美元年化收入规模,并保持三位数同比增长。
影响:
如果说微软财报回答了"企业愿不愿意为 AI 买单",那亚马逊财报回答的是"云厂商为了接住这波需求,得先烧多少钱"。对于技术团队来说,这意味着未来一年云端训练、推理、Agent 平台会更丰富,但价格体系、配额分配和区域可用性也会继续受到算力建设节奏影响。尤其是自研芯片、GPU 和托管模型服务,会成为采购与架构决策里的长期变量。
我的判断:
AWS 28% 的增速说明大客户的 AI 上云需求还在强化,但自由现金流被 AI 投资明显吞噬,也提醒大家:基础设施红利并不等于所有云服务都会同步降价。对团队来说,现在最重要的是保留迁移余地,而不是过早把模型、数据和工作流锁死在单一供应商上。
来源:
3. AWS + OpenAI:企业想买的,已经不只是模型,而是托管好的 runtime
事实:
4 月 28 日,AWS 与 OpenAI 宣布扩大战略合作。按官方说法,最新 OpenAI 模型会以 limited preview 形式进入 Amazon Bedrock,Codex 也会进入 Bedrock,同时还会推出由 OpenAI 驱动的 Amazon Bedrock Managed Agents。亚马逊在随后的季报中再次提到这件事,并补充说 OpenAI 已承诺未来通过 AWS 基础设施消耗约 2 吉瓦的 Trainium 容量,相关需求将在 2027 年开始爬坡。
影响:
这条消息比"某个模型上新"更重要。因为它意味着大型企业采购 frontier model 的方式,正在从单纯 API 采购,转向带安全、治理、运行时和企业接入能力的一体化交付。对于已经深度使用 AWS 的团队来说,未来接入 OpenAI 模型的阻力会更小;对于平台工程团队来说,模型层和基础设施层的边界会越来越模糊。
我的判断:
这更像是云厂商和模型厂商一起抢"企业默认入口"。短期内,它会加速多模型托管平台的普及;长期能不能形成强黏性,还要看 Bedrock 上的价格、可用区覆盖、Agent 调试体验,以及企业是否真的愿意把高价值工作流托管给预置 runtime。
来源:
4. Google Deep Research Max:研究型 Agent 开始从"会搜"走向"会接私有数据"
事实:
4 月 21 日,Google 发布 Deep Research 和 Deep Research Max。官方介绍显示,这套能力基于 Gemini 3.1 Pro,除了原有的研究型工作流外,现在加入了 MCP 支持、原生图表和信息图生成能力,还能把公开网络、远端 MCP、文件上传和连接的文件存储一起纳入分析。Google 还明确提到,Deep Research Max 适合异步、后台、长时任务,例如一夜跑完一份尽调报告;同时,Google 正与 FactSet、S&P Global、PitchBook 等数据提供方合作设计 MCP server。
影响:
这意味着企业知识型 Agent 的门槛又降了一截。过去很多"研究 Agent"本质上还是更高级的网页摘要器,但 MCP 和私有数据接入一旦成为标配,它们就更接近真正的企业工作流引擎。对开发者来说,这也再次证明:做 Agent,不只要关心模型效果,更要关心它能否安全连接企业内部数据源,以及输出能否直接进入业务流程。
我的判断:
Deep Research Max 代表的是一个更现实的方向:不是让 AI 在前台陪聊,而是让它在后台完成耗时、跨源、可追溯的知识工作。短期内最有价值的场景仍会集中在咨询、投研、法务辅助和企业知识库;能不能大规模普及,要看 Google Cloud 的交付方式、权限模型和定价是否足够"企业友好"。
来源:
5. Google 第 8 代 TPU:训练和推理开始彻底分家
事实:
4 月 22 日,Google 在 Cloud Next 上发布第 8 代 TPU,包括面向训练的 TPU 8t 和面向推理的 TPU 8i。官方称,TPU 8t 每个 pod 的计算性能相比上一代接近提升 3 倍,单个 superpod 可扩展到 9600 颗芯片和 2 PB 高带宽共享内存;TPU 8i 则更强调低延迟推理和 Agent 协同场景,官方给出的说法是性能/美元比上一代提升 80%,并计划在今年晚些时候正式可用。
影响:
这条消息最值得技术人注意的,是"训练芯片"和"推理芯片"被进一步明确拆开。未来模型训练、部署和 Agent orchestration 的算力栈,很可能不会再由同一类芯片包打天下。对于使用 Google Cloud 的团队来说,这会影响后续的推理成本、吞吐配置和框架适配;对整个市场来说,它也意味着 GPU 之外的竞争会越来越围绕具体工作负载展开。
我的判断:
Google 这次不是简单堆参数,而是在押注"推理时代的芯片分工"。如果 AI 产业的重心从训练继续转向大规模在线推理和多 Agent 协作,那么像 TPU 8i 这种专门为低延迟推理设计的产品,价值会越来越大。真正的看点,是它能否在开发体验和生态兼容性上缩小与通用 GPU 平台的差距。
来源:
快讯:还有这些值得看
- Vercel 披露 4 月安全事件 :Vercel 4 月 24 日披露,事件源头是第三方 AI 工具 Context.ai 被攻破,攻击者随后接管一名员工的 Google Workspace 账号并进入部分内部系统。Vercel 明确表示,未被标记为敏感的环境变量也应视为可能暴露并尽快轮换。对所有接入第三方 AI 工具的开发团队来说,这是一记很现实的供应链安全提醒。来源:Vercel April 2026 security incident
-
- Meta Account 开始统一更多设备与应用登录 :Meta 4 月 23 日推出 Meta Account,试图把 Facebook、Instagram、Quest、Meta Horizon 等应用和设备的登录入口进一步统一,同时把 passkey 扩展到 Instagram。对普通用户这是登录体验升级,对开发者和产品团队则是一个信号:消费互联网平台也在继续把身份系统向跨设备、无密码方向推进。来源:Meta Account: The Simpler Way to Access Your Apps and Devices
值得继续观察
- 云厂商的 AI 高投入能否稳定换来高利润:微软和亚马逊都证明了需求旺盛,但资本开支压力并没有减轻,接下来要盯的是利润率和客户续费质量。
-
- 托管 Agent runtime 会不会成为企业默认入口:AWS 把 OpenAI 模型、Codex 和 Managed Agents 打包放进 Bedrock,说明下一轮竞争在运行环境而不是单点模型能力。
-
- 推理芯片的生态战会不会比训练芯片更激烈:Google TPU 8i 的方向很明确,但开发者真正迁移,仍取决于框架兼容、调试体验和成本透明度。
今天的技术人提醒
- 如果你在做企业级 AI 方案,接下来要优先比较的是 模型 + 数据接入 + runtime + 安全治理 的整套交付能力。
-
- 如果你在评估云平台,不要只看模型名单,记得同时看配额、区域、推理延迟和后续迁移成本。
-
- 如果你在做 Agent,MCP、异步后台执行、可追溯引用和权限控制,已经比"会不会写 prompt"更重要。
-
- 如果你团队里有人在接第三方 AI 工具,今天就应该盘点一次 token、环境变量和员工侧账号权限。
-
- 如果你关心算力成本,今年下半年值得重点看训练/推理分层之后的定价变化。