Passer au contenu

Eau, électricité : le coût énergétique ahurissant des IA comme ChatGPT

Ce côté énergivore est de plus en plus pointé du doigt.

Le fonctionnement de ChatGPT et de ses rivaux repose avant tout sur de gigantesques centres de données qui tournent en permanence pour répondre à nos requêtes. Pour y voir plus clair, le Washington Post a justement publié une infographie très instructive. Les journalistes ont notamment repris les travaux de Shaolei Ren, chercheur à l’université de Californie, afin d’évaluer les coûts en eau et en électricité de ces technologies. Ils ont ensuite croisé ces données avec divers rapports établis sur la consommation énergétique aux États-Unis.

Des consommations d’eau et d’électricité gigantesques

Par exemple, une réponse de 100 mots générée par l’IA nécessite un peu plus d’une bouteille d’eau. L’addition des prompts, qui se chiffrent par millions, a en effet tendance à faire surchauffer les data centers. Pour les protéger, il faut transporter cette chaleur hors des bâtiments via des tours de refroidissement. D’après les défenseurs de l’environnement cités par le média américain, les centres de données sont souvent parmi les plus gros consommateurs d’eau dans les villes où ils sont installés.

Concernant l’électricité, l’exemple donné est encore plus impressionnant. Un seul message de 100 mots du chatbot équivaut à la consommation de 14 ampoules LED allumées pendant une heure.

C’est particulièrement flagrant dans l’État de la Virginie où on retrouve la plus grosse concentration de data centers au monde. Sur place, des citoyens se sont d’ailleurs mobilisés pour dénoncer ce gouffre énergétique et ces bâtiments très bruyants qui ne génèrent qu’assez peu d’emplois, tout en détruisant la valeur de leurs logements.

Les géants de la Tech se défendent

Critiquées, les grandes sociétés technologiques indiquent avoir pris des mesures pour rectifier le tir. Par exemple, Craig Cincotta, directeur général de Microsoft, a déclaré que sa société « restait déterminée à réduire l’intensité avec laquelle nous retirons des ressources ». Il ajoute que la firme de Redmond planche sur des méthodes de refroidissement des centres de données qui « élimineront complètement la consommation d’eau ».

Des études ont déjà signalé ce danger

Ce n’est d’ailleurs pas la première fois que le côté énergivore de ces chatbots est pointé du doigt. C’est par exemple le cas d’Alex de Vries, employé de banque centrale des Pays-Bas et créateur du site Digiconomist. Ce portail permet de mesurer et d’alerter le grand public sur l’impact énergétique des nouvelles technologies.

D’après lui, les IA pourraient suivre la même trajectoire que les cryptomonnaies : « Cité par le New Yorker, le spécialiste soulignait ainsi : « J’ai vu qu’elle avait une capacité similaire et qu’elle avait le potentiel d’avoir une trajectoire de croissance similaire dans les années à venir, et je me suis senti immédiatement poussé à m’assurer que les gens soient conscients qu’il s’agit également d’une technologie à forte consommation d’énergie ».

Mentionnons pour finir cette étude réalisée en 2023 par des scientifiques américains. Ils estimaient que l’entraînement de GPT-3 dans les data centers de Microsoft a nécessité 700 000 litres d’eau douce, ce qui équivaut à la quantité hydrique nécessaire pour le refroidissement d’un réacteur nucléaire.

Hasard ou non, les géants de la Tech lorgnent justement sur cette source d’énergie et sur des innovations pour assurer l’approvisionnement de leurs centres de données. Pour en savoir, n’hésitez pas à consulter notre analyse ici.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech