在期待中,Meta 发布其 AI 芯片路线图

Dans l’expectative, Meta lâche une roadmap pour ses puces IA

Silicon.fr by Clément Bohic 2026-03-13 07:23 Original
摘要
Meta宣布了一系列与NVIDIA、AMD及可能的Google合作的AI芯片计划,同时透露其自研芯片MTIA的路线图。Meta与NVIDIA达成多年合作,计划部署大量GPU,与AMD的协议则涉及6GW的GPU部署,并可能与Google合作使用TPU。Meta计划到2027年推出两款专为生成式AI设计的芯片,这将显著提升其AI计算能力,增强其在AI领域的竞争力。

当然,有与NVIDIA的合同。也有与AMD的合同。或许还有与Google的合同。但仍有空间留给自家研发的AI芯片。

如果Meta不这样推进,很难忽视其宣布相关芯片路线图的背景。

与NVIDIA的公告在二月中旬发布。内容是一个“多年合作伙伴关系”。大致涉及Grace CPU的部署(可能在2027年是Vera)……尤其是“数百万个”Blackwell和Rubin GPU的部署。

一周后,Meta宣布已与AMD签署协议,部署相当于6 GW的Instinct GPU。初始阶段(1 GW)将在2026年下半年实施,基于定制的MI450。交易还附带Meta的一个选择权,即以每股1美分的价格购买1.6亿股AMD股票——约占资本的10%。

在与AMD的公告发布几天后,我们得知——尽管Meta未确认——可能与Google签署了一项协议,租赁或购买其TPU。尤其是,我们还了解到Meta因设计问题放弃了其最先进的自家芯片(Olympus)。

为了设计其芯片,Meta与Broadcom合作。后者在上周公布了其季度业绩。其CEO Hock Tan努力安抚投资者:“与近期分析师报告相反”,Meta的路线图“依然活跃”(“well alive”),并且正在进行交付。

两款“专用GenAI”芯片计划于2027年推出

Meta通过发布其MTIA(Meta Training and Inference Accelerator)芯片四代的部署前景来支持这些说法。

最早的(MTIA 300)已经投入生产,用于推荐模型的训练。

通过MTIA 300芯片,Meta将每个计算单元的矢量核心增加到两个。

MTIA 400,作为“通用”用途,正在部署中(实验室测试已完成)。

MTIA 450和MTIA 500,专注于GenAI推理,将在2027年推出(第一款在年初)。

通过MTIA 500芯片,Meta增加了一个PCIe芯片组。

Meta在2023年正式推出了其首款AI加速器。它是MTIA 100,配备了RISC-V Andes Technology AX25-V100核心。它强调其性能“几乎”达到GPU水平,并且相较于当时主要用于推理的CPU,成本更低(深度学习模型)。

两年后,推出了MTIA 200(现称为MTIA 2i)。这两代芯片结合,Meta部署了“数十万”芯片。

MTIA 100

MTIA 200

制程

7 nm

5 nm

面积

373 mm²

420 mm²

TDP

25 W

85 W

SRAM

128 MB

800 GB/s

256 MB

2.7 TB/s

DRAM

32-64 GB LPDDR5

176 GB/s

64-128 GB LPDDR5

204.8 GB/s

每个处理单元的内存

128 KB

400 GB/s

384 KB

1 TB/s

PCIe带宽

16 GB/s

32 GB/s

INT8

102.4 Tflops

354 Tflops

FP16

51.2 Tflops

177 Tflops

普及HBM和模块化设计

Meta强调MTIA 300与MTIA 500之间计算能力的“25倍”提升。实际上,这是MX8与MX4之间的差异。此比较旨在突出低精度格式在GenAI推理中的重要性。此外还有其他数据:MTIA 400与MTIA 450之间MX4提升75%,然后MTIA 500提升43%。

另一个为GenAI推理突出的元素是DRAM容量的增加(MTIA 400与MTIA 450之间翻倍,然后MTIA 500再次增加一半)。

在MTIA 100和200中,Meta依赖于大量的SRAM与LPDDR结合。从MTIA 300开始,转向HBM。

除了代际间的架构改进(片上网络、近存计算、特定消息引擎等),模块化设计仍然存在。每个芯片基于前一代,具有可移动的芯片组(计算、I/O、网络),旨在“每约6个月交付一款芯片”。并更好地适应工作负载的变化(模型架构、数据类型、推理技术等),同时更快地整合新的制程。

MTIA 400、450和500也使用相同的机箱、机架和网络基础设施。

MTIA 300

MTIA 400

MTIA 450

MTIA 500

TDP

800 W

1200 W

1400 W

1700 W

HBM

216 GB

(6.1 TB/s)

288 GB

(9.2 TB/s)

288 GB

(18.4 TB/s)

384-512 GB

(27.6 TB/s)

MX4

12 Pflops

21 Pflops

30 Pflops

FP8/MX8

1.2 Pflops

6 Pflops

7 Pflops

10 Pflops

BF16

0.6 Pflops

3 Pflops

3.5 Pflops

5 Pflops

scale-up带宽

2 TB/s

2.4 TB/s

2.4 TB/s

2.4 TB/s

scale-out带宽

400 GB/s

200 GB/s

200 GB/s

200 GB/s

面对Ironwood、MAIA和Inferentia

在AWS,最新的面向推理的自家芯片是Inferentia2,自2023年起商业化。TDP未公布(<a href="https://massedcompute.com/faq-answers/?question=What%20is%20the%20power%20consumption%20of%20NVIDIA%20A100%20GPU%20comp

Summary
Meta has announced a roadmap for its AI chips, the MTIA series, with plans to deploy four generations by 2027, including the MTIA 300 already in production and the MTIA 450 and 500 aimed at GenAI inference. The company has partnerships with NVIDIA and AMD for deploying GPUs, and possibly with Google for TPUs, while also collaborating with Broadcom for chip design. This strategic move positions Meta to enhance its AI capabilities and compete with other tech giants like AWS, Google, and Microsoft in the AI chip market.

Indeed, there is the contract with NVIDIA. With AMD too. And maybe with Google. But there is still room for in-house AI chips.

If Meta does not present things this way, it is difficult to forget the context in which it announces a roadmap for the chips in question.

The announcement with NVIDIA was made in mid-February. Subject: a "multi-year partnership." Which would involve, broadly speaking, the deployment of Grace CPUs (potentially Vera by 2027)... and especially "millions of GPUs" Blackwell and Rubin.

A week later, Meta announced having signed with AMD to deploy the equivalent of 6 GW in Instinct GPUs. The initial tranche (1 GW) is to be implemented in the second half of 2026, based on a custom MI450. The deal includes, for Meta, an option to purchase 160 million AMD shares – about 10% of the capital – at a unit value of 1 cent.

A few days after the announcement with AMD, it was reported – without confirmation from Meta – the possible signing of an agreement with Google to lease or even buy TPUs. It was also learned, in parallel, that Meta had abandoned its most advanced in-house chip (Olympus) due to design issues.

To design its chips, Meta partnered with Broadcom. The latter presented its quarterly results last week. Its CEO Hock Tan reassured investors: "contrary to recent analyst reports," Meta's roadmap is "well alive" and deliveries are underway.

Two "GenAI-specialized" chips planned for 2027

Meta supports these statements by communicating deployment prospects for four generations of its MTIA (Meta Training and Inference Accelerator) chips.

The oldest (MTIA 300) is already in production, for training recommendation models.

With the MTIA 300 chip, Meta moves to two vector cores per computing unit.

The MTIA 400, for "general" use, is on the way to deployment (laboratory tests completed).

For the MTIA 450 and MTIA 500, focused on GenAI inference, it will be in 2027 (early in the year for the first).

With the MTIA 500 chip, Meta adds a PCIe chiplet.

Meta had formalized its first AI accelerator in 2023. It was the MTIA 100, equipped with RISC-V Andes Technology AX25-V100 cores. It emphasized at the time on performances "almost" at the level of GPUs for its workloads. And on the lower cost compared to CPUs, which were then its main inference vehicle (deep learning models).

Two years later, there was the MTIA 200 (since renamed MTIA 2i). These two generations combined, Meta has deployed "hundreds of thousands" of chips.

MTIA 100

MTIA 200

Fabrication

7 nm

5 nm

Area

373 mm²

420 mm²

TDP

25 W

85 W

SRAM

128 MB

800 GB/s

256 MB

2.7 TB/s

DRAM

32-64 GB LPDDR5

176 GB/s

64-128 GB LPDDR5

204.8 GB/s

Memory per processing unit

128 KB

400 GB/s

384 KB

1 TB/s

PCIe bandwidth

16 GB/s

32 GB/s

INT8

102.4 Tflops

354 Tflops

FP16

51.2 Tflops

177 Tflops

Generalized HBM and modular design

Meta highlights the "25-fold increase" in computing power between MTIA 300 and MTIA 500. This is actually the difference between the first in MX8 and the second in MX4. A comparison intended to highlight the importance of this low-precision format for GenAI inference. It is accompanied by other figures: +75% in MX4 between MTIA 400 and MTIA 450, then +43% with the MTIA 500.

Another element highlighted for GenAI inference: the increase in DRAM capacity (doubled between MTIA 400 and MTIA 450, then further increased by half with the MTIA 500).

With the MTIA 100 and 200, Meta had bet on a large amount of SRAM associated with LPDDR. Starting from MTIA 300, it switches to HBM.

Beyond architectural improvements between generations (network on chip, near-memory computing, specific messaging engines...) modularity has remained. Each chip builds on the previous one, with removable chiplets (compute, I/O, network) intended to "deliver a chip approximately every 6 months." And to better adapt to the evolution of workloads (model architectures, data types, inference techniques...) while integrating new fabrication processes more quickly.

The MTIA 400, 450, and 500 also use the same chassis, the same racks, and the same network infrastructure.

MTIA 300

MTIA 400

MTIA 450

MTIA 500

TDP

800 W

1200 W

1400 W

1700 W

HBM

216 GB

(6.1 TB/s)

288 GB

(9.2 TB/s)

288 GB

(18.4 TB/s)

384-512 GB

(27.6 TB/s)

MX4

12 Pflops

21 Pflops

30 Pflops

FP8/MX8

1.2 Pflops

6 Pflops

7 Pflops

10 Pflops

BF16

0.6 Pflops

3 Pflops

3.5 Pflops

5 Pflops

Scale-up bandwidth

2 TB/s

2.4 TB/s

2.4 TB/s

2.4 TB/s

Scale-out bandwidth

400 GB/s

200 GB/s

200 GB/s

200 GB/s

Facing Ironwood, MAIA, and Inferentia

At AWS, the most recent in-house inference-oriented chip is Inferentia2, marketed since 2023. The TDP is not disclosed (some <a href="https://massedcompute.com/faq-answers/?question=What%20is%20the%20power%20consumption%20of%20NVIDIA%20A100%20GPU%20comp

Résumé
Meta a annoncé une feuille de route pour ses puces IA MTIA, avec des collaborations stratégiques avec NVIDIA, AMD, et potentiellement Google, tout en développant ses propres puces en partenariat avec Broadcom. Les nouvelles puces MTIA, dont les générations 450 et 500 sont prévues pour 2027, visent à améliorer les capacités d'inférence pour l'IA générative, avec une augmentation significative de la puissance de calcul et de la capacité mémoire. Cette stratégie pourrait renforcer la position de Meta dans le domaine de l'IA face à des concurrents comme AWS, Google et Microsoft, en optimisant les coûts et les performances des charges de travail d'IA.

Certes, il y a le contrat avec NVIDIA. Avec AMD aussi. Et peut-être avec Google. Mais il y a encore de la place pour des puces IA maison.

Si Meta n’avance pas les choses ainsi, difficile d’oublier le contexte dans lequel il annonce une feuille de route pour les puces en question.

L’annonce avec NVIDIA était tombée mi-février. Objet : un « partenariat pluriannuel ». Qui impliquerait, dans les grandes lignes, le déploiement de CPU Grace (potentiellement Vera à l’horizon 2027)… et surtout de « millions de GPU » Blackwell et Rubin.

Une semaine plus tard, Meta déclarait avoir signé avec AMD pour déployer l’équivalent de 6 GW en GPU Instinct. La tranche initiale (1 GW) doit être mise en place au deuxième semestre 2026, sur la base d’un MI450 custom. Le deal s’assortit, pour Meta, d’une option d’achat de 160 millions d’actions AMD – environ 10 % du capital – à une valeur unitaire de 1 centime.

Quelques jours après l’annonce avec AMD, on apprenait – sans confirmation de la part de Meta – la possible signature d’un accord avec Google pour lui louer voire lui acheter des TPU. On apprenait surtout, en parallèle, que Meta aurait abandonné sa puce maison la plus avancée (Olympus) à cause de problèmes de conception.

Pour concevoir ses puces, Meta s’est rapproché de Broadcom. Ce dernier présentait, la semaine dernière, ses résultats trimestriels. Son patron Hock Tan s’est employé à rassurer les investisseurs : « à rebours de récents rapports d’analystes », la roadmap de Meta est « bien en vie » (« well alive ») et des livraisons sont en cours.

Deux puces « spécial GenAI » prévues pour 2027

Meta vient appuyer ces propos en communiquant des perspectives de déploiement pour quatre générations de ses puces MTIA (Meta Training and Inference Accelrator).

La plus ancienne (MTIA 300) est déjà en production, pour l’entraînement des modèles de recommandation.

Avec la puce MTAI 300, Meta passe à deux cœurs vectoriels par unité de calcul.

La MTIA 400, à usage « général », est en voie de déploiement (tests en laboratoire bouclés).

Pour les MTIA 450 et MTIA 500, axées inférence GenAI, ce sera en 2027 (début d’année pour la première).

Avec la puce MTIA 500, Meta ajoute un chiplet PCIe.

Meta avait officialisé son premier accélérateur IA en 2023. Il s’agissait du MTIA 100, doté en cœurs RISC-V Andes Technology AX25-V100. Il insistait alors sur les performances « presque » au niveau des GPU pour ses workloads. Et sur le moindre coût par rapport aux CPU, qui constituaient alors son principal véhicule d’inférence (modèles de deep learning).

Deux ans plus tard, il y eut le MTIA 200 (devenu depuis MTIA 2i). Ces deux générations confondues, Meta a déployé des « centaines de milliers » de puces.

MTIA 100

MTIA 200

Gravure

7 nm

5 nm

Surface

373 mm²

420 mm²

TDP

25 W

85 W

SRAM

128 Mo

800 Go/s

256 Mo

2,7 To/s

DRAM

32-64 Go LPDDR5

176 Go/s

64-128 Go LPDDR5

204,8 Go/s

Mémoire par unité de traitement

128 ko

400 Go/s

384 ko

1 To/s

Bande passante PCIe

16 Go/s

32 Go/s

INT8

102,4 Tflops

354 Tflops

FP16

51,2 Tflops

177 Tflops

HBM généralisée et conception modulaire

Meta met en avant la « multiplication par 25 » de la puissance de calcul entre MTIA 300 et MTIA 500. Il s’agit en fait de la différence entre le premier en MX8 et le second en MX4. Une comparaison destinée à mettre en lumière l’importance de ce format faible précision pour l’inférence GenAI. Elle s’accompagne d’ailleurs d’autres chiffres : + 75 % en MX4 entre MTIA 400 et MTIA 450, puis + 43 % avec le MTIA 500.

Autre élément mis en relief pour l’inférence GenAI : l’augmentation de la capacité DRAM (doublée entre MTIA 400 et MTIA 450, puis encore accrue de moitié avec le MTIA 500).

Avec les MTIA 100 et 200, Meta avait misé sur une grande quantité de SRAM associée à de la LPDDR. À partir des MTIA 300, il bascule sur de la HBM.

Au-delà des améliorations architecturales entre générations (réseau sur puce, calcul near-memory, moteurs de messagerie spécifiques…) est restée la modularité. Chaque puce s’appuie sur la précédente, avec des chiplets amovibles (calcul, I/O, réseau) censés permettre de « livrer une puce tous les 6 mois environ ». Et de mieux s’adapter à l’évolution des workloads (architectures des modèles, types de données, techniques d’inférence…) tout en intégrant plus vite les nouveaux processus de gravure

Les MTIA 400, 450 et 500 utilisent aussi le même châssis, les mêmes racks et la même infra réseau.

MTIA 300

MTIA 400

MTIA 450

MTIA 500

TDP

800 W

1200 W

1400 W

1700 W

HBM

216 Go

(6,1 To/s)

288 Go

(9,2 To/s)

288 Go

(18,4 To/s)

384-512 Go

(27,6 To/s)

MX4

12 Pflops

21 Pflops

30Pflops

FP8/MX8

1,2 Pflops

6 Pflops

7 Pflops

10 Pflops

BF16

0,6 Pflops

3 Pflops

3,5 Pflops

5 Pflops

Bande passante scale-up

2 To/s

2,4 To/s

2,4 To/s

2,4 To/s

Bande passante scale-out

400 Go/s

200 Go/s

200 Go/s

200 Go/s

Face à Ironwood, MAIA et Inferentia

Chez AWS, la plus récente des puces maison orientées inférence est Inferentia2,commercialisée depuis 2023. Le TDP n’est pas communiqué (des estimations autour de 100 W circulent). Elle embarque 32 Go de mémoire HBM (820 Gio/s). Performances annoncées : 380 Tops en INT8, 190 Tflops en FP16/BF16/FP32 et 47,5 Tflops en FP32.

Chez Google, la dernière en date exploitée pour l’inférence est la 7e génération des TPU Ironwood, lancée en 2025. Pas non plus de TDP communiqué, mais des estimations autour de 600 W. La puce embarque 192 Go de HBM (7,4 To/s), pour une bande passante scale-up de 2,4 To/s. Performances annoncées : 4614 Tops en FP8 et 2307 Tflops en BF16.

Chez Microsoft, la petite dernière est la puce MAIA 200. Officialisée début 2026, elle est pour le moment réservée à des services internes. Gravée à 3 nm pour une surface de 836 mm² et un TDP de 750 W, elle embarque 216 Go de HBM3e (7 To/s). La bande passante scale-up atteint 2,8 To/s. Les performances, 10 145 Tops en FP4, 5072 Tops en FP8 et 1268 Tflops en BF16.

Illustrations © Meta

The post Dans l’expectative, Meta lâche une roadmap pour ses puces IA appeared first on Silicon.fr.

AI Insight
Core Point

Meta在外部采购NVIDIA/AMD/可能Google算力的同时,公开了自研MTIA AI芯片路线图,表明其仍在推进内部AI加速器以降低长期算力依赖并优化GenAI推理成本。

Key Players

Meta — 美国加州门洛帕克;社交平台与AI基础设施公司。

NVIDIA — 美国加州圣克拉拉;GPU与AI芯片供应商。

AMD — 美国加州圣克拉拉;CPU/GPU与数据中心芯片供应商。

Google — 美国加州山景城;云与AI基础设施公司,TPU开发者。

Broadcom — 美国加州圣何塞;半导体与定制芯片设计供应商。

Industry Impact
  • Computing/AI: High — 大型AI训练/推理芯片自研与外采并行,影响算力供应链与推理架构选择。
  • ICT: High — 超大规模数据中心算力部署与网络/机架标准化需求上升。
  • Terminals/Consumer Electronics: Low — 主要影响服务器端,不直接波及终端市场。
Tracking

[Strongly track] — Meta自研AI芯片路线图与NVIDIA/AMD/Google采购并行,直接关系到AI算力格局和供应链份额。

Related Companies
Google
mature
neutral
Meta
mature
positive
neutral
AWS
mature
neutral
Nvidia
mature
positive
AMD
mature
positive
Broadcom
mature
neutral
Categories
半导体 人工智能
AI Processing
2026-03-26 11:03
openai / gpt-5.4-mini