Passer au contenu

Et si le cerveau humain était la clé pour empêcher l’IA de détruire la planète ?

Et si la sobriété énergétique était l’avenir de l’intelligence artificielle ?

Les centres de données qui hébergent nos intelligences artificielles ressemblent à ces SUV gargantuesque qui engloutissent 15 l/100 km pour transporter une personne et son chien. Tenter de reproduire l’intelligence humaine avec les chatbots modernes ; ChatGPT ou Gemini, par exemple ; reste encore bien trop dispendieux. Pendant ce temps, notre cerveau – 1,4 kg de matière grise nichée dans notre boîte crânienne – jongle avec des informations complexes, des émotions et des souvenirs en consommant l’équivalent énergétique d’une ampoule LED. Une disproportion qui prêterait presque à sourire si elle n’était pas aussi catastrophique pour notre avenir énergétique.

C’est ce constat qui a poussé Suin Yi, professeur à la Texas A&M University, à repenser complètement notre approche de l’IA. Son équipe vient de créer un système baptisé « Super-Turing AI », une alternative plus économique et intelligente que les solutions IA actuelles. Leur travaux, publiés au mois de février dans la revue Science Advances, sont consultables dans leur intégralité sur cette page.

Le neuromorphisme ou l’art d’imiter le cerveau sans se ruiner en électricité

Comprendre le Super-Turing AI, c’est d’abord saisir pourquoi nos IA actuelles sont des gouffres énergétiques. Elles fonctionnent comme un restaurant où la cuisine (le traitement) serait séparée de la salle de stockage des aliments (la mémoire) par plusieurs kilomètres. À chaque plat préparé, il faudrait faire des allers-retours incessants entre les deux lieux. Épuisant, non ? Les données doivent constamment transiter entre les unités de traitement et la mémoire, et la consommation d’énergie explose.

« Ces centres de données consomment de l’énergie en gigawatts, alors que notre cerveau n’utilise que 20 watts. On parle d’un milliard de watts contre à peine 20. Les centres de données qui engloutissent cette énergie ne sont pas viables avec les méthodes informatiques actuelles. Par conséquent, si les capacités de l’IA sont impressionnantes, le matériel et l’alimentation électrique nécessaires pour la maintenir sont toujours indispensables », explique Suin Yi.

La magie du Super-Turing AI réside dans sa capacité à imiter l’intégration naturelle du cerveau, où les synapses – ces petites connexions entre neurones – jouent à la fois le rôle d’autoroutes de l’information et d’entrepôts de stockage. Pour reprendre l’analogie précédente du restaurant, c’est comme si l’on avait décidé d’installer la salle de stockage des aliments directement devant les fourneaux.

Comment économiser en s’inspirant de nos connexions neuronales ?

Le cerveau humain ne s’encombre pas de cette usine à gaz qu’est la rétropropagation – ce processus complexe et énergivore qui permet aux IA traditionnelles d’apprendre. Il fonctionne selon un principe beaucoup plus simple, que l’on peut résumer par l’adage « les neurones qui s’activent ensemble se connectent ensemble ». Une sorte de loi d’attraction neuronale que Donald Hebb, un psychologue canadien, a formulé dans sa théorie, baptisée règle de Hebb.

En d’autres termes, lorsque deux neurones sont activés simultanément de manière répétée, la force de la connexion synaptique entre eux se renforce. C’est un mécanisme essentiel que l’on pense être à la base de l’apprentissage et de la mémoire dans le cerveau.

« Ce que nous avons fait, c’est résoudre l’invraisemblance biologique présente dans les algorithmes d’apprentissage actuels », détaille Suin Yi. « Notre équipe explore la plasticité dépendante du temps d’impulsion – ces mécanismes qui permettent aux neurones de renforcer leurs connexions d’une façon étonnamment similaire à la façon dont nos cerveaux apprennent », continue-t-il.

Pour prouver que leur théorie était valable, l’équipe a réalisé un test, et les résultats se sont révélés bluffants. Un drone équipé de leur circuit a navigué dans un environnement complexe sans aucun entraînement préalable, apprenant au fil de ses erreurs comme un enfant qui apprend à marcher. Le tout avec une consommation énergétique dérisoire.

Une approche biomimétique qui va complètement à l’encontre des autres géants de l’IA, qui se livrent une course sans fin au modèle le plus massif, sans nécessairement se soucier de la question énergétique ; si on exclut la start-up DeepSeek. « Beaucoup réduisent l’IA à du software, mais sans hardware adapté, l’IA n’est qu’un concept théorique », rappelle le chercheur. « L’IA moderne comme ChatGPT est fascinante, mais son prix énergétique est prohibitif », conclut Yi. « Nous voulons créer une IA qui ne nous forcera pas à choisir entre innovation et survie de notre planète ».

La solution pour bâtir une IA en adéquation avec les impératifs écologiques de notre époque se trouve peut-être là : s’inspirer de nous-mêmes pour contourner ses propres limites. Par le passé, le biomimétisme a déjà fait ses preuves dans de nombreux domaines ; robotique, aviation, textile, dispositifs médicaux ; la voie exploratoire empruntée par ces chercheurs de la Texas A&M University apparaît donc parfaitement pertinente. S’inspirer de Dame nature pour la sauvegarder est aussi une reconnaissance d’une certaine forme de sagesse : celle de l’évolution, du temps long, de l’interconnexion et de l’optimisation des ressources ; des stratégies de survie et d’équilibre éprouvées au fil de milliards d’années.

  • Des chercheurs texans ont développé une IA radicalement plus économe en énergie en s’inspirant du fonctionnement du cerveau humain.
  • Leur système, capable d’apprendre comme un être vivant, réduit drastiquement les besoins en calcul et en consommation électrique.
  • Cette approche pourrait offrir une alternative durable face à la course actuelle aux modèles toujours plus gros et énergivores.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech