Passer au contenu

Comment l’IA pourrait (enfin) arrêter d’exploser la facture d’électricité

Quand la course à l’innovation rencontre le mur de l’énergie.

L’euphorie autour de l’intelligence artificielle masque une problématique environnementale qui commence à faire parler d’elle : l’explosion de la consommation électrique des data centers, indispensables pour l’entraînement des chatbots. En 2024, alors que la planète fait face à des problématiques environnementales sans précédent, la multiplication des modèles d’IA toujours plus volumineux interroge sur leur viabilité écologique.

Dans cette course au gigantisme menée par les gros groupes du secteur tech ; Meta, Google et OpenAI en tête ; une nouvelle vague d’entrepreneurs et de chercheurs français et européens explore des voies alternatives, privilégiant l’efficience à la puissance brute.

La face cachée d’une révolution énergivore

L’appétit insatiable des grands modèles de langage comme GPT-4 et ses 2 000 milliards de paramètres inquiète, et il y a de quoi. Une simple requête sur ChatGPT engloutit dix fois plus d’énergie qu’une recherche Google traditionnelle et sa consommation électrique est tout simplement gargantuesque.

Les projections de Wells Fargo sont alarmantes : d’ici 2030, la consommation électrique de l’IA aux États-Unis pourrait être multipliée par 80. Cette situation pousse les géants technologiques à des solutions extrêmes, comme Microsoft qui prévoit de réactiver un réacteur nucléaire à Three Mile Island pour alimenter ses centres de données.

Le problème, c’est qu’un grand nombre de sociétés qui utilisent l’IA comme solution interne ne sont pas conscientes de cette impasse.  « Beaucoup d’entreprises perçoivent les LLM comme des outils extrêmement puissants qu’elles se doivent de déployer pour être dans la course à l’innovation, et la plupart n’ont pas encore de recul sur la surconsommation énergétique que cela engendre. Mais, cela va probablement devenir un vrai sujet en 2025-2026 » explique Frédéric Brajon, cofondateur du cabinet Saegus, une entité spécialisé dans la transition IA pour les professionnels.

Freiner l’essor de l’IA semble actuellement très compliqué tant celle-ci est devenue indispensable ; la recherche d’alternatives ou l’optimisation des technologies existante est donc un chemin que l’on devra emprunter à tout prix.

L’émergence des alternatives frugales

Face à cette démesure, des jeunes entreprises tracent une voie différente. La start-up Illuin, en collaboration avec CentraleSupélec, a développé « Croissant LLM », un modèle 200 fois plus léger que ChatGPT. Dans le domaine du hardware, Ampere Computing, une entreprise américaine, repense l’architecture des processeurs pour l’IA, atteignant une efficacité énergétique trois fois supérieure aux GPU traditionnels. Notamment ceux du géant NVIDIA, qui trône aujourd’hui au sommet de l’intelligence artificielle.

En France, le programme PEPR-IA (Programme et équipements prioritaires de recherche pour l’IA), fédère les efforts de l’Inria, du CNRS et du CEA pour développer des solutions plus économes, visant à multiplier par 1 000 l’efficacité énergétique des IA génératives. Un projet soutenu par une enveloppe de 73 millions d’euros provenant de l’État français.

Cette quête de sobriété énergétique n’est pas qu’une préoccupation environnementale, car la réglementation européenne va bientôt s’en mêler. Dès 2025, la directive CSRD (Corporate Sustainability Reporting Directive) contraindra les entreprises à dévoiler leur empreinte carbone, incluant leur utilisation de l’IA. Son objectif principal : « Encourager le développement durable des entreprises et d’identifier celles qui sont disciplinées en la matière. Les informations récoltées permettront de mieux évaluer l’impact de l’entreprise et de son activité sur l’environnement » peut-on lire sur le site officiel du gouvernement.

Cette évolution réglementaire, couplée à l’augmentation prévisible des coûts d’utilisation, pourrait accélérer l’adoption de solutions plus respectueuses de la planète. Toutefois, certains experts redoutent un effet rebond : ces technologies plus efficientes pourraient paradoxalement démocratiser l’usage de l’IA, augmentant finalement la consommation globale d’énergie. L’équation entre sobriété énergétique et performance sera certainement très longue à résoudre.

  • Les modèles d’IA consomment des quantités énormes d’électricité incompatibles avec les enjeux environnementatux contemporains.
  • Plusieurs start-up et programmes européens développent des solutions plus légères et économes.
  • Dès 2025, les entreprises devront dévoiler leur empreinte carbone sous le joug de la directive CSRD.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech