您的位置:首页 >> 行业研究 >> 文章正文

电子:谷歌Ironwood构建AI推理工厂,与Blackwell形成差异化竞争

加入日期:2025-4-11 2:08:14 銆愰《灏栬储缁忕綉銆�



鍒嗕韩鍒帮細



  顶尖财经网(www.58188.com)2025-4-11 2:08:14讯:

(以下内容从海通国际《电子:谷歌Ironwood构建AI推理工厂,与Blackwell形成差异化竞争》研报附件原文摘录)
事件:
2025年4月9日,谷歌在CloudNext大会上正式发布其第七代张量处理单元(TPUv7),代号Ironwood。与前代Trillium相比,TPUv7在性能与能效方面提升达两倍,并针对大模型推理任务进行深度优化。
点评:
Ironwood集群跻身全球最快推理平台,专为LLM与MoE优化。Ironwood最多可支持9,216颗TPU芯片组成集群,峰值算力达42.5ExaFLOPS,为当前已知全球最快的AI推理平台之一。TPUv7延续并加强了SparseCore、HBM高带宽内存及芯片间光互联(ICI)设计,专为运行大型语言模型(LLM)与专家混合模型(MoE)优化。
Google通过Ironwood强化AI芯片布局,借推理优势提升云服务吸引力。谷歌推出AI芯片Ironwood,持续加码与NVIDIA等竞争对手的芯片竞赛。但不同于英伟达的对外销售策略,Ironwood仅用于Google内部或通过其云服务对客户开放,未向市场直接销售。我们观察到,无论是大模型训练还是AI加速卡,当前的发展趋势正逐步向推理侧倾斜,Llama4的发布便是典型案例,其核心优化集中在推理性能上。
我们认为,Google正通过“硬件+云服务”的绑定策略在推理领域抢占先机:由于Ironwood无法单独采购,客户必须通过GoogleCloud才能使用其推理能力,这有望显著增强Google云服务的吸引力,并在未来推理需求爆发的背景下带动云业务增长。
TPUv7专注推理,Blackwell专注通用AI加速。尽管TPUv7在推理速度上实现突破,但其定位与NVIDIA于2024年推出的Blackwell架构(如B200、GB200)存在本质差异。TPUv7以推理为核心任务,仅在GoogleCloud内部部署,支持Gemini等大模型的商业化运行;Blackwell架构则提供从FP4到FP64的完整精度支持,兼顾训练与推理,面向通用AI应用,并可广泛部署于AWS、Azure等商用云平台。
TPUv7打造“推理工厂”,Blackwell凭通用性胜出。从算力层面看,TPUv7集群可提供高达42.5ExaFLOPS的峰值推理性能,折算单颗TPU约为4.61PFLOPS;而NVIDIAGB200单卡推理算力达到20PFLOPS(FP4),其NVL72整机架系统最高可实现1.44ExaFLOPS。尽管TPU在总算力上具备一定优势,但NVIDIA在精度灵活性、商业可获得性、以及开发者生态方面处于领先地位,具备更广泛的应用适配性。我们认为,TPUv7(Ironwood)集群更像一座专为推理打造的“AI推理工厂”,在特定场景下效率极高;而Blackwell架构则如一座通用型“高端AI工厂”,既能胜任训练,也擅长推理,适用于更全面的AI部署需求。
风险提示:1)AI需求不及预期;2)地缘政治环境干扰供应链;3)AI数据中心建造放缓





编辑: 来源:



    閮戦噸澹版槑锛氫互涓婁俊鎭负鍒嗘瀽甯堛€佸悎浣滄柟鎻愪緵锛屾湰绔欎笉鎷ユ湁鐗堟潈锛岀増鏉冨綊鍘熶綔鑰呮墍鏈夛紝濡傛湁渚电姱鎮ㄧ殑鐗堟潈,璇峰強鏃惰仈绯绘垜浠�,鎴戜滑灏嗙珛鍗虫敼姝o紒浠ヤ笂鏂囩珷鍐呭浠呬唬琛ㄤ綔鑰呬釜浜鸿鐐癸紝涓庨《灏栬储缁忕綉鏃犲叧銆傚叾鍘熷垱鎬т互鍙婃枃涓檲杩版枃瀛楀拰鍐呭鏈粡鏈珯璇佸疄锛屽鏈枃浠ュ強鍏朵腑鍏ㄩ儴鎴栬€呴儴鍒嗗唴瀹广€佹枃瀛楃殑鐪熷疄鎬с€佸畬鏁存€с€佸強鏃舵€ф湰绔欎笉浣滃嚭浠讳綍淇濊瘉鎴栨壙璇猴紝璇疯鑰呬粎浣滃弬鑰冿紝骞惰鑷鏍稿疄鐩稿叧鍐呭銆傛湰鏂囦笉浣滀负鎶曡祫鐨勪緷鎹�,浠呬緵鍙傝€冿紝鎹鍏ュ競,椋庨櫓鑷媴銆傚彂甯冩湰鏂囦箣鐩殑鍦ㄤ簬浼犳挱鏇村淇℃伅锛屽苟涓嶆剰鍛崇潃椤跺皷璐㈢粡缃戣禐鍚屾垨鑰呭惁瀹氭湰鏂囬儴鍒嗕互鍙婂叏閮ㄨ鐐规垨鍐呭銆傚瀵规湰鏂囧唴瀹规湁鐤戜箟锛岃鍙婃椂涓庢垜浠仈绯汇€�

椤� 灏� 璐� 缁� -- 涓� 鍗� 椤� 灏� 缃� 缁� 淇� 鎭� 鏈� 鍔� 涓� 蹇�
www.58188.com