AMD获Meta千亿美元芯片大单,AI芯片市场格局生变

财经达人 by:财经达人 分类:投资风向 时间:2026/02/26 阅读:5161
电子发烧友网报道(文/李弯弯)近日,Meta与 AMD共同宣布达成一项重磅的多年期协议。Meta将在其 AI数据 中心大规模部署6吉瓦的AMD GPU,并配套使用AI优化型 CPU,首批搭载MI450 GPU的AMD Helios整机柜服务器,预计于今年晚些时候开启交付。

AMD首席执行官苏姿丰称,交易价值每吉瓦达百亿美元级别,协议总金额或超600亿美元,甚至可能达到上千亿美元。双方在AMD EPYC 处理器方面合作也在拓展,Meta将成为第六代“Venice”和下一代“Verano”处理器主要客户,“Verano”处理器针对特定工作负载进行了优化,旨在提供卓越的每瓦性能。

作为协议的一部分,AMD向Meta授予了一份基于业绩的认股权证,最高可获1.6亿股AMD普通股,其授予与GPU出货量、股价阈值及关键技术和商业里程碑挂钩。苏姿丰称,很荣幸能与Meta拓展合作,助力其突破AI界限。她表示,此次合作将推动公司未来多年营收大幅增长,提升非GAAP每股收益,是公司实现长期财务模式的重要一步。

Meta大力推进AI数据中心建设

当地时间2月11日,Meta宣布作为大规模AI基础设施建设计划的一部分,已开始建设新数据中心。该数据中心位于印第安纳州莱巴嫩市,投资超100亿美元,容量超1吉瓦。它不仅承担公司AI相关工作负载,还兼顾核心产品业务。

据Meta数据中心副总裁蕾切尔·彼得森介绍,该数据中心占地约1500英亩、总建筑面积达400万平方英尺,预计2027年底或2028年初投入运营。彼得森还表示,对黎巴嫩园区的投资规模使该项目成为Meta迄今最大的数据中心投资项目之一,与位于路易斯安那州的“Hyperion”园区及俄亥俄州的“Prometheus”园区一同被列入重点项目名单。

去年7月,Meta首席执行官马克·扎克伯格表示,公司将在路易斯安那州建设规模庞大的Hyperion设施,其规模足以覆盖曼哈顿很大一部分区域,最终容量将超5吉瓦。Meta此前公布财报时称,计划2026年投入高达1350亿美元用于AI基础设施建设,而2025年支出为722亿美元。

面对谷歌与 亚马逊在算力领域的竞争压力,Meta采取提前超量建设的防御性策略,确保在下一代通用人工智能(AGI)研发中不因硬件瓶颈落后。目前,Meta拥有逾30座数据中心集群,部分已投入运营,部分正在建设中。

AMD Instinct GPU 技术优势

根据AMD官网介绍,AMD Instinct GPU基于AMD CDNA™架构,采用Matrix Core技术,全面支持多种数据类型。无论是高效的MXFP4和MXFP6(凭借INT8、OCP - FP8和FP16/BF16稀疏性支持加速AI计算),还是高性能计算中要求严苛的FP64,都能轻松应对。

AMD CDNA架构是AMD Instinct GPU和APU的专用计算架构。它采用先进封装技术,将AMD小 芯片技术与高带宽显存(HBM)相整合,实现高吞吐量的Infinity Fabric互连结构。此外,该架构采用先进的Matrix Core技术,支持多种AI和HPC数据格式,能有效降低数据传输开销并提高能效。

AMDInstinct MI350于2025年6月12日宣布推出。该系列基于3nm制程工艺,搭载CDNA 4架构,配备288GB HBM3E内存,带宽达8TB/s,支持FP4/FP6/FP8/FP16多精度计算,主要面向AI训练与推理市场。2月4日,在财报业绩会上,苏姿丰介绍第四季度各板块业绩的时候表示,数据中心板块营收同比增长39%,达到54亿美元,创历史新高,增长动力来自Instinct MI350系列GPU部署的加速推进以及服务器市场份额的提升。

优点方面,AMD CDNA 4采用增强型Matrix Core技术,与上一代架构相比,低精度矩阵数据类型的计算吞吐量提高了一倍。它带来更出色的指令级并行处理性能,扩展了共享LDS资源并实现带宽翻倍,还支持多种精度计算(包括MXFP4和MXFP6),同时针对OCP - FP8、INT8、FP16和BF16提供稀疏矩阵数据支持。

AMD CDNA 4引入了面向LLM的全新增强型AI加速功能。利用这些功能,可以降低延迟并提升GEMM性能,通过更低精度的数据格式实现能效优化,还能动态平衡模型精度、速度、能效三者的优先级,更灵活地处理需要使用混合精度的AI项目。

AMD Instinct MI系列部分GPU提供超大的256GB HBM3E显存容量,可支持更大的模型和所需的所有带宽,同时还支持共享显存和AMD高速缓存技术(Infinity Cache)(共享末级高速缓存),能够消除数据复制并降低延迟。

新一代AMD Infinity架构与AMD Infinity Fabric技术相结合,推动AMD GPU小芯片技术与堆叠的HBM3E显存在单个器件及多器件平台上实现统一整合,确保一致性和高吞吐量。该架构还提供增强的I/O,并支持PCIe® 5。

AMD Instinct MI450是AMD计划于2026年发布的下一代AI 加速计算卡系列,采用2nm制程工艺与CDNA 5架构,旨在为大规模AI训练与推理提供高性能计算能力。该系列预计2026年发布,并于2026年下半年开始量产部署。

MI450系列包括两款型号:面向大规模AI训练与推理的MI455X,以及面向主权AI与高性能计算的MI430X。其XCD核心模块采用台积电2nm(N2)工艺制造,是采用2nm工艺的加速器产品;AID中介层和MID媒体 接口模块则采用台积电N3P工艺。

MI450系列采用下一代CDNA 5架构,并采用3.5D封装技术。它支持第五代Infinity Fabric高速互连总线,并设计搭配采用2nm工艺、Zen 6架构的下一代EPYC Venice处理器,共同构成新一代AI计算平台。在计算性能方面,MI450在FP8精度下的峰值性能为20 PFlops(每秒2亿亿次浮点运算),在FP4精度下的峰值性能为40 PFlops(每秒4亿亿次浮点运算)。

内存配置上,配备432GB的HBM4高带宽内存,内存带宽达19.6 TB/s。该加速卡单一节点内的纵向扩展带宽为3.6 TB/s,不同节点间的横向扩展带宽为300 GB/s。在网络连接方面,每个GPU可配备多达3个800 Gbps的AMD Pensando “Vul cano” AI网络卡(AI - NIC)。

MI450AI推理运算能力较前代MI355X有10倍提升。MI450与代号为“Venice”的新一代AMDEPYC处理器协同,共同构成AMD新一代AI计算平台的核心,并支持AMD的“Helios”机架级解决方案,单个机架可集成72个MI450 GPU,形成高密度、液冷的预设计系统。

在2月4日的财报业绩会上,苏姿丰表示,有信心在未来三至五年内实现数据中心板块营收年均超60%的增长,并在2027年将 人工智能业务年度营收扩大至数百亿美元规模。她强调,对标竞品英伟达Bl ackwell芯片的AMD MI450系列研发进展顺利,对目前的进度非常满意,完全符合下半年推出并开始量产的计划。

合作 影响与 AI芯片 市场竞争格局

各云厂商纷纷大举投资 AI 基建,Meta并非唯一大举投资的科技公司。谷歌计划 2026 年支出 1800 亿美元,亚马逊预计今年支出达 2000 亿美元。这为 AMD、 英伟达等芯片厂商带来广阔市场空间,助力其提升业绩、扩大份额,但竞争也异常激烈。

云厂商不会仅采用一家芯片公司产品,并且,各厂商还积极自研 AI 芯片。如Meta,除了与AMD达成此次合作之外,此前,Meta 与英伟达也达成多年跨代际战略合作伙伴关系,涵盖本地部署、云端和 AI 基础设施,将规模化部署英伟达 CPU、数百万颗 Blackwell 与 Rubin 架构 GPU,并集成其交换机至自身平台。

Meta 全球基础设施负责人Santosh Janardhan称,公司雄心很大,将继续推进自研 AI 芯片计划,也会采购英伟达产品以支持不同计算负载,Janardhan表示,自研芯片、AMD、英伟达都有生存空间,不过尚未决定哪些数据中心将采用此次与AMD合作所交付的新芯片。

此前,云厂商多依赖英伟达 GPU,为摆脱依赖、降低成本,不少厂商自研芯片,引入更多供应商也是摆脱依赖的路径之一,与AMD合作也正是Meta的需求所在。

此次合作对 AMD 也意义重大,高盛指出,这显著提升了 AMD 在加速器市场的地位,也意味着AMD在与英伟达等巨头的竞争中取得了重要进展。这也为公司在 Tier- 1 超大规模 云计算服务商中的市场份额地位提供更大确定性,对英伟达和 博通会造成轻微负面影响。

不仅是与Meta,去年 10 月,AMD还与OpenAI达成类似协议,OpenAI 将在未来数年部署高达6吉瓦的 AMD Instinct GPU,AMD 向其发行最高 1.6 亿股认股权证,行权条件与芯片部署进度及股价里程碑挂钩。凭借这些合作,AMD有望在AI芯片市场中获得更大市场份额,在竞争中脱颖而出,实现更大发展。


TOP