OpenAI ne publie pas de détails sur ses émissions de carbone ni sur la consommation d’énergie liée à ses modèles d’intelligence artificielle. Cependant, depuis le début de la course à l’intelligence artificielle entre les acteurs de la tech, les émissions et la consommation d’énergie causées par cette technologie sont régulièrement pointées du doigt. On lit souvent qu’une requête sur les outils d’IA comme ChatGPT consommerait 10 fois plus d’énergie qu’une simple recherche sur Google.
Mais aujourd’hui, l’étude sur laquelle cette estimation est basée est remise en question par une publication d’Epoch AI, un institut de recherche. En effet, d’après les calculs de celui-ci, une recherche typique sur ChatGPT, en utilisant le modèle GPT-4o, ne consommerait que 0,3 watt heure, ce qui est dix fois moins que l’ancienne estimation. Pourquoi cette différence ? D’après Epoch AI, les nouveaux modèles d’intelligence artificielle et le matériel utilisé pour exploiter ceux-ci ont une meilleure efficacité. Mais la publication pointe aussi du doigt “une estimation trop pessimiste du nombre de jetons dans l’estimation initiale”.
Notons néanmoins que l’estimation de 0,3 watt heure ne concerne que les usages typiques de ChatGPT avec le modèle GPT-4o. Et Epoch AI explique que plus le prompt envoyé à ChatGPT est long, plus le coût énergétique est élevé. D’ailleurs EpochAI, lorsqu’on utilise la capacité maximale de ChatGPT, la requête peut consommer 40 watts heures, selon les estimations de l’institut de recherche. C’est deux fois plus que la consommation moyenne, par minute, d’un ménage américain.
Mais cela reste une estimation
Bien entendu, ces données sont à considérer avec prudence, car il s’agit aussi d’une estimation. “Une plus grande transparence de la part d’OpenAI et d’autres grandes entreprises d’IA permettrait d’obtenir une meilleure estimation. […] Il peut être difficile pour les entreprises d’IA de révéler ces données en raison de secrets commerciaux, mais il me semble que la confusion du public sur ce sujet (y compris les nombreuses impressions exagérées du coût énergétique de l’utilisation de l’IA aujourd’hui) n’est pas non plus dans l’intérêt des développeurs d’IA”, explique l’analyste qui a rédigé la publication d’Epoch AI.
En tout cas, l’intelligence artificielle générative a augmenté les besoins en énergie des acteurs de la tech. Preuve en est, de nombreuses sociétés se tournent désormais vers le nucléaire pour alimenter leurs centres de données avec de l’énergie propre.
- Un nouveau calcul remet en question l’estimation selon laquelle une requête sur les IA comme ChatGPT consommerait 10 fois plus d’une simple recherche Google
- Mais bien que cette nouvelle étude est un peu plus optimiste, il s’agit aussi d’une estimation
- L’idéal serait que les laboratoires d’IA soient plus transparents sur le sujet
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.