OpenAI这个Nvidia最大的金主之一,终于公开"叛变"了。据路透社消息,OpenAI自去年起就开始对部分Nvidia推理芯片表达不满,并秘密接触Cerebras、Groq等替代供应商。这不是简单的客户抱怨,而是一个标志性信号:AI算力市场维持了十年的单极垄断,正在从推理场景开始崩塌。
本质上,这是"后训练时代"的必然结果。 当行业重心从"训模型"转向"跑模型",Nvidia GPU的性价比神话就不成立了。GPT-4o这类模型的推理成本呈指数级增长,而GPU作为通用计算设备,在批量推理场景下的TCO(总拥有成本)根本打不过Cerebras的晶圆级引擎或Groq的LPU架构。更致命的是实时交互场景——语音、视频应用要求毫秒级延迟,Nvidia的 batch processing 架构在这方面天生残疾。说白了,OpenAI每天烧掉的推理成本已经高到让Sam Altman睡不着觉,而Nvidia的定价权建立在训练市场的CUDA护城河上,在推理市场这套逻辑行不通。
Nvidia的铁王座正在出现第一道裂痕。 训练市场它依然无可替代(CUDA生态+NVLink互联构成深沟高垒),但在占据AI算力需求70%以上的推理市场,其份额很可能从现在的80%滑落到60%甚至更低。软件层面的锁定正在松动:Triton、vLLM等开源推理引擎让模型部署不再依赖CUDA,硬件切换成本大幅下降。OpenAI带头拆墙, Anthropic和Meta很快会跟进。这对Nvidia的估值是致命打击——市场之前按"训练+推理双垄断"给它定价,现在必须砍掉推理业务的增长预期。
接下来12个月是关键验证期。如果OpenAI真的在ChatGPT服务中批量部署替代芯片(而不只是测试),将引发行业连锁反应。2025-2026年,推理芯片市场必将进入"一超多强"的碎片化格局。
AI算力竞赛的规则已经变了:从"谁囤的H100多"变成"谁每美元产出的token多"。对那些还在盲目抢购GPU的跟风者来说,这个消息来得正是时候——别再用训练的思维做推理了,那个靠堆卡就能赢的时代,已经过去了。
本文由 AI 辅助生成,仅供参考。