Passer au contenu

Qui est Groq, la start-up qui ambitionne de devenir le prochain géant des puces d’IA ?

En voulant concurrencer Nvidia, cette jeune pousse s’attaque à un très gros morceau.

La start-up Groq vient de lever 640 millions de dollars, portant sa valorisation à 2,8 milliards de dollars. Elle développe des puces dédiées à l’intelligence artificielle (IA), et compte bien venir bousculer le leader incontesté du secteur : Nvidia.

Des puces dédiées à l’inférence

Rien à voir avec Grok, l’agent conversationnel de xAI, l’entreprise d’Elon Musk. Groq a été fondée en 2016 à Mountain View, au cœur de la Silicon Valley, par Jonathan Ross. Cet ancien ingénieur de Google est considéré comme le père du TPU (Tensor Processing Unit), la première puce d’IA de Google.

Cela a son importance, car Groq se spécialise dans le développement de processeurs d’inférence pour l’intelligence artificielle. Ce type de semi-conducteur permet aux modèles pré-entraînés d’utiliser leurs connaissances pour faire des prédictions ou prendre des décisions basées sur de nouvelles données. Actuellement, les GPU de Nvidia dominent allègrement ce marché.

L’offre de la jeune pousse se distingue par deux éléments. Elle a développé des processeurs baptisés Language Processing Unit (LPU), spécifiquement conçus pour le traitement du langage naturel. Ils sont 10 fois plus efficaces que les GPU traditionnels et 10 fois moins énergivores, assure la société.

Ensuite, GroqCloud permet aux clients de Groq d’accéder à ces LPU sans avoir à acheter physiquement les puces. La plateforme, accessible via une API, prend en charge des modèles ouverts renommés à l’instar de Llama de Meta.

Groq voit grand

Cette nouvelle levée de fonds marque une étape significative dans le développement de Groq, et reflète au passage le vif intérêt des investisseurs pour les puces d’IA. En parallèle, la start-up a annoncé la nomination de Stuart Pann, ancien cadre supérieur de chez Intel et HP, au poste de directeur de l’exploitation.

Yann LeCun, l’éminent scientifique en chef de Meta spécialisé dans l’IA, a pour sa part été nommé comme conseiller technique. Une manœuvre stratégique, alors que la maison mère de Facebook investit massivement pour renforcer ses capacités dans l’intelligence artificielle.

Groq prévoit de déployer 108 000 LPU d’ici à la fin mars 2025, ce qui représenterait plus de 20 % de la quantité de GPU H100 expédiée par Nvidia en 2023, rapportent nos confrères de L’Usine Digitale.

Les puces, secteur galvanisé par l’essor de l’IA

De plus en plus d’entreprises veulent profiter de l’essor de l’IA. Si des géants comme AMD et Intel travaillent sur leurs propres puces, de nombreuses start-up sont elles aussi dans la course. Il faut dire que le potentiel gain est alléchant. Depuis 2023, la capitalisation boursière de Nvidia a grimpé de manière exponentielle, en faisant l’une des sociétés les plus valorisées au monde, au même titre qu’Apple ou Microsoft.

La firme est aujourd’hui considérée comme l’une des grandes gagnantes de la ruée vers l’IA mais, dans le même temps, les fabricants ne souhaitent pas dépendre d’un seul fournisseur de puces. En plus d’entraîner une escalade des prix, cette situation est plus susceptible d’engendrer des ruptures de stock. Et pour l’heure, Groq semble bien partie pour grappiller des parts de marché au mastodonte de l’industrie.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech