L’intelligence artificielle consomme de l’énergie. Et afin d’alimenter la puissance de calcul qui permet de traiter nos demandes à l’IA, certaines entreprises envisagent de lancer des centres de données dans l’espace, afin d’exploiter l’énergie solaire de manière optimale. Google a déjà commencé à travailler sur un projet de ce type. Et, récemment, Elon Musk a aussi indiqué qu’il compte envoyer des centres de données dans l’espace, ce qui justifie la fusion entre SpaceX et le laboratoire d’intelligence artificielle xAI.
Mais, de son côté, Sam Altman, le CEO d’OpenAI, a un avis divergeant sur ce sujet. Lors d’une conférence organisée par The Indian Express, celui-ci a indiqué que, dans le contexte actuel, l’idée d’envoyer des centres de données dans l’espace est “ridicule”. “Cela aura du sens un jour”, a-t-il expliqué. Mais, pour lui, dans cette décennie, les centres de données en orbite n’auront pas d’importance à grande échelle. “[…] si l’on fait un calcul très approximatif des coûts de lancement par rapport au coût de l’énergie que nous pouvons produire sur Terre, sans parler de la manière dont on va réparer un GPU défectueux dans l’espace et ils tombent encore souvent en panne, malheureusement, nous n’en sommes pas encore là”, a précisé le patron d’OpenAI.
Sam Altman is clear: the world needs massive AI compute — and building it in space makes zero financial sense. Watch the recent video below 👇
AI infrastructure needs to be built on Earth, at scale, and efficiently. The problem? We don’t have enough data centers.
That’s where… pic.twitter.com/jeF7im8RWe
— investing (@DollarCostAvg) February 21, 2026
“Totalement faux” : Sam Altman évoque aussi la consommation d’eau
Durant le même événement, Sam Altman s’est également exprimé au sujet de la consommation d’eau des centres de données. Celui-ci explique que les informations suggérant que les centres de données consomment beaucoup d’eau étaient vraies autrefois, lorsqu’on utilisait des refroidisseurs par évaporation. Mais la technologie a évolué et, d’après le patron d’OpenAI, les rumeurs sur la consommation d’eau de ChatGPT sont fausses.
#ExpressAdda | Sam Altman, in conversation with Indian Express’ @anantgoenka addressed some of the viral claims around #artificialintelligence (AI) data centres and resource use, saying numbers shared online about “17 gallons of water per query” do not reflect how most modern… pic.twitter.com/QYU9u8iH59
— The Indian Express (@IndianExpress) February 22, 2026
En ce qui concerne l’énergie, Sam Altman a admis que l’IA en consomme beaucoup. Néanmoins, celui-ci défend son entreprise en expliquant que ce n’est pas parce que les requêtes sont gourmandes en énergie, mais parce que le monde utilise beaucoup l’intelligence artificielle (donc, une consommation élevée d’énergie à cause du volume des requêtes). Par ailleurs, le patron d’OpenAI indique qu’il faut basculer vers le nucléaire, l’éolien ou le solaire très rapidement.
Sam Altman a également démenti la rumeur selon laquelle une requête sur ChatGPT consommerait la même quantité d’énergie qu’une recharge complète d’iPhone (ou une et demi). “C’est impossible que ce soit aussi élevé. C’est bien moins. Vraiment beaucoup moins”, a-t-il répondu, lorsqu’il a été interrogé à ce sujet.
- Comme Google, la société SpaceX d’Elon Musk veut envoyer des centres de données dans l’espace pour optimiser l’exploitation de l’énergie solaire
- Mais Sam Altman, patron d’OpenAI, indique que, pour le moment, cela n’a aucun sens (si on compare le coût d’un lancement et celui de l’énergie qu’on peut produire sur Terre)
- Sam Altman a aussi démenti les rumeurs sur la consommation d’eau de l’IA et a expliqué que la forte consommation d’énergie de ChatGPT est due au volume de requêtes
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.