热门文章

人工智能芯片市场正迎来一场地震。据《The Information》报道,Meta考虑从2027年开始在其数据中心使用谷歌TPU(张量处理单元),这一潜在交易金额高达数十亿美元。与此同时,大空头Micheal Burry发布重磅文章,直指AI泡沫并将矛头对准英伟达。英伟达紧急向分析师发送备忘录,逐条反驳贝里的指控,试图稳定市场情绪。
芯片竞争格局生变,英伟达慌了
科技巨头Meta正考虑在其数据中心使用谷歌的张量处理单元,这一战略转变可能重塑整个AI芯片市场。据The Information报道,Meta可能在2027年开始部署谷歌TPU,并于明年从谷歌云部门租用TPU算力。
这一消息引发市场立即反应,英伟达股价下跌超6.5%,AMD跌超9%,而谷歌母公司Alphabet股价在周一上涨超过6%后,周二继续上涨近2%。谷歌云高管估计,若TPU进一步打开市场,谷歌有望从英伟达每年数百亿美元的收入中切走至少10%的份额。
这一潜在交易被视为谷歌十年TPU投入的关键性背书。目前,TPU的公开大客户包括Salesforce、Safe Superintelligence、Midjourney和Anthropic。尤其引人注目的是,AI初创公司Anthropic近期宣布与谷歌达成合作,将部署多达100万个谷歌TPU芯片以训练旗下AI大模型Claude,此次扩展计划价值数百亿美元。
屋漏偏逢连夜雨,电影《大空头》原型人物Micheal Burry发布题为《供给侧的暴食》的重磅文章,正式向AI热潮宣战,矛头直指英伟达。Burry在文中驳斥了“科技巨头盈利能力强,因此不存在泡沫”的主流观点,并直言“英伟达就是当年的思科”——思科股价在互联网泡沫破裂后暴跌超过75%。
Burry的核心论点是:当前AI热潮的关键问题在于“灾难性的过度供应和远远不足的需求”。科技巨头正在进行一场不可持续的资本支出狂欢。在会计层面,Burry指责科技公司通过延长AI芯片折旧年限来虚增利润。他估计,从2026到2028年,大型科技公司将因低估折旧而虚增1760亿美元的利润,其中甲骨文的利润可能被夸大26.9%,Meta的利润可能被夸大20.8%。同时他强调:“并不像人们以为的那样是由无利可图的网络公司驱动,1999年强劲的纳斯达克指数是由当时高利润的大盘股推动的”,他认为历史正在重演。
英伟达陷入自证困局
面对Burry的咄咄逼人,英伟达的反应既迅速又彻底。公司向华尔街分析师分发了一份详尽的备忘录,对贝里的指控进行了逐条反驳 。然而,英伟达的积极回应,反而在市场上引发了更多讨论。一些市场观察人士认为,这家AI芯片巨头可能已陷入了典型的 “自证陷阱” 。
英伟达的这一应对策略,与苹果、微软等老牌科技巨头面临批评时通常保持的沉默形成鲜明对比。真正的行业领导者往往明白,并非每一份批评都值得回应,企业的核心价值应由产品迭代与财务表现来证明。
摩根士丹利分析师在一份客户备忘录中曾点出类似处境下的关键:“巨头的脆弱性往往不在其财务数据,而在市场心理。”英伟达的迅速回应,本意是安抚市场,却意外证实了投资者对竞争加剧的忧虑具有合理性。
TPU可能改变行业格局
谷歌TPU(张量处理单元)的崛起正从根本上重塑AI算力市场竞争格局。其凭借显著的成本优势、卓越的能效表现及加速提升的市场渗透率,已成为英伟达GPU不可忽视的强劲对手。
成本优势
TPU的核心竞争力之一在于其显著的低成本结构,这主要源于谷歌通过自研ASIC芯片成功绕开了高昂的“英伟达税”。
摆脱垄断定价:在AI时代,云厂商若采购英伟达GPU,其高达75%的毛利会作为“英伟达税”被英伟达拿走,这导致云厂商的AI业务毛利从传统的50-70%骤降至20-35%。谷歌通过掌控TPU的全栈设计(前端RTL自主设计,博通仅负责后端物理实现),成功规避了这部分成本。
显著的每美元性能提升:一位客户的实际使用对比显示,在完成相同任务时,使用谷歌v5e Pod的每美元性能不仅高于使用8张H100 GPU的方案,而且随着谷歌推出新一代TPU,旧款TPU会变得极其便宜。该客户透露,若愿意适当延长训练时间,成本甚至可降至原来的五分之一。
供应链成本控制:与谷歌合作的博通,其毛利率远低于英伟达,这使得谷歌能够将算力成本压到极致。
能耗效率
TPU在能耗效率上实现了对GPU的“降维打击”,这主要得益于其底层架构的彻底革新。
架构根源性优势:与为通用图形处理设计的GPU不同,TPU采用独特的“脉动阵列”架构。此架构使数据能像血液一样在芯片内流动,极大地减少了对高带宽内存(HBM)的读写次数,从而将芯片的功耗更多地用于计算本身,而非数据搬运。这种设计从根源上解决了GPU面临的“冯·诺依曼瓶颈”问题。
代际能效飞跃:根据在Hot Chips 2025大会上公布的数据,第七代TPU Ironwood的每瓦性能(FLOPS/watt)相比第六代(Trillium)提升了100%。具体来看,Ironwood的能效达到4.2 TFLOPS/watt,这与英伟达旗舰GPU B200的4.5 TFLOPS/watt相比已极为接近,显示出其在能效上极具竞争力。
特定场景下的巨大优势:有前谷歌高管指出,针对特定应用,TPU能提供比GPU高出1.4倍的每美元性能。在处理如搜索类工作负载的动态模型训练时,TPU的速度甚至是GPU的5倍。
市场渗透率
TPU正以其技术和成本优势,迅速从谷歌自用芯片走向更广阔的市场,其渗透率提升已获得行业巨头订单和生态扩张的强力验证。
关键客户突破:Meta:计划最早于2024年从谷歌云租用TPU算力,并将在2027年启动高达数十亿美元的TPU硬件采购,用于其数据中心。若此合作达成,预计将使TPU在Meta数据中心的算力占比显著提升,并有望从英伟达每年数百亿美元的收入中切走至少10%的市场份额。
Anthropic:这家领先的AI初创公司宣布,将部署多达100万个谷歌TPU芯片来运行其大模型Claude,此次扩展计划价值高达数百亿美元。
市场规模与生态影响:摩根大通的分析师指出,TPU等定制化AI芯片正在“迅速缩小与领先GPU的性能差距”,这正推动超大规模云服务厂商加大在定制ASIC项目上的投资。谷歌云在2025年前九个月签署的云服务合同总额已超过过去两年的总和,其中TPU相关订单是核心增长驱动力。谷歌云自身也通过向企业客户开放TPU本地部署方案,成功吸引了众多对数据合规有严格要求的金融、高频交易等行业客户。
综上所述,谷歌TPU通过在成本、能耗和市场渗透三个维度的强劲表现,不仅证明了其作为专用芯片的商业与技术价值,也标志着AI算力市场正从英伟达一家独大,加速迈向一个更加多元化、竞争更激烈的全新时代。
然而,英伟达GPU的地位短期内仍不可撼动。研究机构Gartner的分析师Gaurav Gupta表示,尽管谷歌拥有自研芯片,但由于需要为客户保持灵活性,其仍然是英伟达最大的客户之一。与TPU相比,GPU能够处理更广泛的工作负载,可以适应客户的算法或模型的变化
总结
AI算力市场的竞争格局正在重塑。随着谷歌TPU获得Meta等巨头青睐,科技公司们正从单纯的硬件采购方,转变为英伟达的竞争对手。Burry在其文章末尾引用了查理·芒格的话:“如果你到处刺破气球,你是不会成为房间里最受欢迎的人的。”而今,英伟达与整个AI行业正面临这些“气球刺破者”的严峻考验。













