La maison mère de Facebook, Instagram et WhatsApp vient d’entamer une mise en œuvre sélective de sa toute première puce dédiée à l’entraînement de systèmes d’intelligence artificielle. Meta commence donc une grande mue avec deux objectifs en ligne de mire : réduire sa dépendance aux fournisseurs externes comme NVIDIA ; son principal fournisseur (les GPU H100) ; et maîtriser ses coûts d’infrastructure qui explosent sous le poids de ses investissements colossaux dans l’IA.
TSMC et Meta : un mariage de raison
Cette nouvelle puce est un « dedicated accelerator », autrement dit un composant spécialisé, conçu spécifiquement pour une tâche ou un type de calcul particulier. C’est justement cette spécialisation qui lui confère deux avantages par rapport aux GPU traditionnellement utilisés pour encaisser les charges de travail en intelligence artificielle : il est moins énergivore et plus performant.
Bien évidemment, Meta ne se lance pas seule dans l’aventure. Le groupe se paye le luxe de collaborer avec le fabricant taïwanais TSMC, roi indétrônable de l’industrie des semi-conducteurs, mais également des puces dédiées à l’IA.
Le projet est déjà arrivé à l’étape du « tape-out » : une phase critique du développement qui consiste à vérifier et à envoyer la puce à une fonderie de semi-conducteurs. Cette seule étape représente déjà un investissement considérable, de l’ordre de plusieurs dizaines de millions de dollars, un cycle de production de trois à six mois, assorti d’un risque de non-conformité aux spécifications.
Un échec obligerait donc Meta à diagnostiquer d’où vient problème et à répéter l’opération, ce qui serait certainement un cauchemar pour le groupe.
L’efficacité computationnelle, nouvelle priorité de l’IA
La pression financière qui pousse Meta vers cette autonomie technologique est presque insoutenable : l’entreprise prévoit des dépenses totales de 114 à 119 milliards de dollars pour 2025, dont jusqu’à 65 milliards en dépenses d’investissement, principalement destinées aux infrastructures IA. On comprend un peu mieux pourquoi Meta cherche l’autonomie : dépendre de fournisseurs externes, l’expose aux fluctuations du marché et aux pénuries potentielles.
Cette nouvelle puce fait partie du grand programme Meta Training and Inference Accelerator (MTIA). Après des débuts mitigés, Meta a récemment mettre en service sa première puce MTIA dédiée à l’inférence dans ses systèmes de recommandation pour Facebook et Instagram.
L’inférence (nous vous en parlions dans cet article), différente de l’entraînement, est la phase d’exploitation du modèle d’IA : c’est le processus qui permet au système de générer des résultats lorsqu’un utilisateur interagit avec lui, nécessitant moins de puissance, mais davantage de réactivité.
Aujourd’hui, les modèles traditionnels d’expansion de l’IA sont remis en question : de plus en plus de chercheurs doutent désormais que l’ajout perpétuel de données et de puissance de calcul (le « scaling ») suffise à rendre l’IA plus « intelligente ». L’émergence de DeepSeek a confirmé cette tendance : des modèles à faible coût qui privilégient l’efficacité computationnelle via l’inférence plutôt que la puissance brute d’entraînement. Dans les années à venir, il est fort probable que le secteur connaisse sa plus grande transformation depuis qu’il a explosé : l’optimisation des ressources viendrait supplanter la course à la puissance pure.
Meta joue donc très gros sur ce coup-là : développer ses propres solutions hardware maison est un pari extrêmement risqué, mais potentiellement très rentable au long terme. Le groupe de Zuckerberg s’engage ainsi sur une voie semblable à celle empruntée par Apple il y a quelques années avec ses puces Apple Silicon. Une stratégie qui lui a permis de reprendre le contrôle de son écosystème, de booster les performances de ses appareils et de se démarquer fortement de la concurrence. Si le géant des réseaux sociaux arrive à bout de son projet ; ce qui n’est pas garanti ; il pourrait passer du statut d’acteur influent à celui d’acteur dominant.
- Meta développe sa propre puce IA pour réduire sa dépendance à NVIDIA et maîtriser ses coûts.
- L’entreprise s’est associée à TSMC pour concevoir un accélérateur dédié à l’entraînement des modèles, optimisé pour la performance et la consommation énergétique.
- Face à des coûts d’infrastructure en forte hausse, Meta cherche à optimiser ses ressources et à rester compétitif dans la course à l’IA.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.