ChipHub
AI算力 2026年3月12日

OpenAI 与 GPU 供应链再平衡:从“抢卡”到“算力结构优化”

过去一年大模型公司从绝对追求 GPU 数量,转向关注推理效率、功耗和部署密度,算力策略正在从短缺应对走向精细化运营。

来源参考: The Information

近期多家 AI 公司披露了相似趋势:训练集群仍在扩张,但预算重心已经明显向推理侧迁移。原因很直接,模型能力增长正在放缓,而用户调用量仍在快速增长。

关键变化

  1. 采购模型从“单一旗舰 GPU”转向“训练 + 推理混合架构”。
  2. 运维指标从 TFLOPS 变成“每千次请求成本”“延迟稳定性”“单位机柜吞吐”。
  3. 软件栈优化(编译器、KV cache、量化)带来的收益,开始接近一代硬件升级。

对产业链的影响

GPU 厂商仍处于强势位置,但云服务商和模型公司会更强调议价能力与多供应商策略。对创业团队来说,真正的门槛不再只是拿到算力,而是是否具备持续优化推理成本的工程能力。

编辑部观察

未来 12 个月,算力竞争的决定因素可能是“系统工程效率”而非“单卡峰值性能”。谁能把训练成果更便宜地转化为稳定的在线服务,谁更可能建立长期优势。