Afin de proposer les modèles d’intelligence artificielle générative, les entreprises doivent utiliser des puces spécialisées très coûteuses (une catégorie sur laquelle Nvidia est aujourd’hui le leader). Mais pour optimiser ces coûts, certains groupes ont développé des alternatives qu’ils utilisent en partie dans leurs centres de données. Google Cloud, par exemple, utilise déjà des puces appelées Cloud Tensor Processing Units qu’il a développé, en combinaison avec les puces Nvidia. En 2023, Microsoft a officialisé sa puce Maia 100, qu’il peut utiliser sur une partie de ses serveurs Azure. Quant à Meta, il a aussi développé les puces MTIA dans le même objectif.
OpenAI emboiterait le pas
Et visiblement, OpenAI, la société qui a créé ChatGPT, devrait aussi recourir à une stratégie similaire, afin de diversifier ses sources. Dans un article publié récemment, Reuters indique qu’OpenAI aurait abandonné un projet initial de créer sa propre fonderie de puces. Néanmoins, celui-ci développerait toujours une puce conçue en interne qu’il pourrait produire, plus tard avec la société américaine et le fabricant taiwanais TSMC. La production de ces puces serait prévue pour 2026, et il serait possible qu’OpenAI travaille avec d’autres acteurs sur ce projet.
Objectif : réduire les coûts de l’IA ?
L’objectif du créateur de ChatGPT serait d’avoir des centres de données qui s’appuient sur différents fournisseurs de puces. En effet, tout en continuant à utiliser des puces Nvidia, celui-ci voudrait aussi ajouter des puces AMD, ainsi que ses puces conçues en interne. Actuellement, l’équipe chargée de développer les puces d’OpenAI serait composée de 20 personnes et inclurait d’anciens employés de Google qui ont travaillé sur ses puces Cloud Tensor Processing Units. Mais, bien entendu, pour le moment, ces informations sont à considérer avec prudence. Néanmoins, il est logique qu’OpenAI cherche à réduire les coûts de l’entraînement et de l’exploitation de ses modèles d’IA. Alors que l’entreprise n’est toujours pas rentable, le coût de la puissance de calcul et de l’énergie constituerait aujourd’hui le gros de ses dépenses.
- Les chatbots comme ChatGPT ou Gemini utilisent des puces spécialisées dans l’IA qui sont très coûteuses pour fonctionner
- Pour réduire ces coûts, certains groupes ont décidé de développer leurs propres puces au lieu de s’appuyer exclusivement sur les puces de Nvidia (qui est le leader de ce marché)
- Et OpenAI envisagerait d’emboiter le pas, en s’appuyant sur un partenariat avec Broadcom et TSMC
- Les puces IA d’OpenAI pourraient arriver en 2026
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.