Meta在2月17日拿到英伟达GraceCPU、RubinGPU的全栈合作,又在2月24日给AMD砸下五年600亿美元的超级大单,还跟谷歌的TPU团队打了招呼,把PyTorch框架彻底适配好了。扎克伯格这么把三家都拉进来,是因为他不敢只信一家的技术。现在英伟达手里还有5000亿美元的没发货订单,Blackwell平台还是能占高端市场90%的份额,但谷歌TPUv5的产能已经冲到了百万级别,亚马逊的Trainium3能效比也做到了竞品的1.8倍。这局面就像量子比特一样诡异,一边是英伟达的垄断铁幕,一边是替代方案在偷偷发酵。 Meta这600亿美元买的不光是芯片,更是让三家互相制衡的底牌。AMD拿长约锁死了Meta的基础设施需求;谷歌TPU跑出了GPU方案20%的成本和50%甚至66%的降功耗;英伟达的GraceCPU+VeraCPU组合能降低40%的模型训练能耗。这三个打法正好把Meta的尖端研发、商业变现和基础设施全给护住了。 Salesforce那边也开始换人用了,Salesforce就不再玩ChatGPT,转投了Gemini3。这说明CUDA生态不是唯一的路。如果60%的AI企业都改投ASIC芯片,那英伟达75%的毛利率肯定就保不住了。现在这局面就像个薛定谔的猫,既让英伟达还坐在王座上,又为别人的进来留了口子。 等到自研芯片的成本比买别人的还高,等到分散管理的损耗比垄断定价还低的时候,裂痕就该变大了。现在AMD的性价比、谷歌的能效比、英伟达的全栈能力都在Meta的池子里搅动呢。唯一能确定的是,“一张GPU卡卖得和一辆Model 3一样贵”的日子,已经开始倒数计时了。