L’IA va-t-elle mettre le monde sans dessus-dessous ? Alors qu’une certaine panique relative s’était emparée de pas mal de monde à la sortie de ChatGPT-4, et que Ray Kurtzweil n’a sans doute jamais autant vendu de copies de son livre “Singularity” (on vous le conseille…), des limites du modèle actuel ont vite été mises en évidence.
De facto, GPT-4 ressemble pour l’heure plus à une forme d’avertissement, et à une découverte d’usages qui sont appelés à devenir la norme, plutôt qu’une révolution totale, accomplie. En vérité, les craintes autour de l’IA menacent de réellement se concrétiser dès ChatGPT-5 ou itérations ultérieures, dans un futur qui se rapproche extrêmement vite.
Prévenir les risques des prochaines IA “plus intelligentes” que les humains
OpenAI donne en tout cas l’impression d’être conscient de ces dangers, même si il y a quelque chose d’amusant dans cette dialectique aux airs de pompier-pyromane. La firme de Sam Altman annonce ainsi la création d’une nouvelle équipe destinée à “suivre, évaluer, prédire et protéger” l’humanité contre des problèmes potentiellement majeurs de futurs modèles…
…dont le risque de “menace nucléaire” ! En effet, OpenAI sait que des IA plus avancées nous rapprochent de ce que l’auteur cité plus haut appelle la Singularité (un point de bascule théorique au moment duquel la croissance de ces IA deviendra incontrôlable et irréversible, avec une intelligence à des années-lumières de celle de l’humanité).
Il est alors facile d’imaginer, par exemple, une super-IA observer l’action de l’humanité sur la planète et décider que “toutes choses égales par ailleurs”, une planète Terre sans humains, uniquement peuplée d’autres animaux, de nature, et de robots intelligents serait sans doute une meilleure option que de se laisser diriger par des humains aux capacités intellectuelles limitées, eux-mêmes dominés par leurs émotions et leurs pulsions.
Du coup, OpenAI veut au moins développer des méthodes pour limiter le risque de menaces “chimiques, biologiques et radiologiques” que pourraient poser de futures IA. Autre risque : celui que des IA apprennent seules à se répliquer pour se défaire des règles imposées par les humains, ou encore, la capacité d’IA particulièrement intelligentes à tromper les humains ou à mener des cyberattaques de large ampleur.
Sam Altman a fait beaucoup de déclarations depuis le lancement de GPT-4. Selon lui, les gouvernements devraient traiter l’IA “avec autant de sérieux que les armes nucléaires”. Dans une déclaration il a également appelé à prendre conscience que “limiter le risque d’extinction posé par l’IA devrait être une priorité au niveau mondial”.
Cette nouvelle équipe sera dirigée par le directeur du Centre for Deployable Machine Learning la division spéciale IA du célèbre MIT. Outre les efforts décrits plus haut, cette équipe aura pour mission de mettre à jour une politique autour du développement des IA qui prenne en compte ses risques intrinsèques.
“Nous croyons que les modèles d’IA avant-gardistes, qui surpasseront les capacités actuellement présentes dans les modèles existants les plus avancés, ont le potentiel de bénéficier à toute l’humanité. Mais ils posent également des risques de plus en plus graves”, reconnaît OpenAI.
Pour l’heure aucun calendrier précis n’a été annoncé pour le développement du modèle GPT-5. Il semble que la formation de cette équipe est toutefois l’un des préalables avant de commencer l’entraînement de la prochaine version du modèle le plus avancé de la firme.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
“Il est alors facile d’imaginer, par exemple, une super-IA observer l’action de l’humanité sur la planète et décider que “toutes choses égales par ailleurs”, une planète Terre sans humains, uniquement peuplée d’autres animaux, de nature, et de robots intelligents serait sans doute une meilleure option que de se laisser diriger par des humains aux capacités intellectuelles limitées, eux-mêmes dominés par leurs émotions et leurs pulsions.”
–
“Serait sans doute une meilleure option”. Mais à quel titre ? Voila bien la question que je me pose. Tout choix implique des priorités : faudrait-il alors envisager que l’être humain saurait ne plus être la priorité d’une IA et que cette relégation de priorité serait inhérente à la “Singularité” ? “La mort du père” appliquée à l’IA ? A l’horizon, pourquoi pas ainsi des experts formés à la psychologie d’entités IA ? Tout cela dépasse l’entendement, en tous les cas le mien.
C’est marrant de se poser la question de “Comment faire en sorte que l’IA ne détruise pas l’humanité parce qu’elle détruit la planète ?” plutôt que “Comment ne pas détruire la planète ?”.
Il n’y en a qu’une des 2 qui peut vraiment sauver la planète, et donc l’humain.
ChatGPT n’est pas de l’intelligence artificielle. C’est du machine learning. De l’algorithmique. Elle ne peut représenter aucun danger pour l’humain autre que celui voulu par ses programmeurs humains, comme c’est toujours le cas en informatique.
Ce nom “d’intelligence” artificielle qu’OpenAI lui donne complaisamment est une escroquerie. Une vraie intelligence comprend ce qu’elle fait et peut l’expliquer, elle est capable de dialoguer en langage courant avec ses utilisateurs comme le spécifiait Turing dès 1950 (“Test de Turing” !), elle est accessible à tous et non aux seuls informaticiens, elle écrit les programmes et les modifie sans recourir à des langages informatiques abscons, elle aborde des domaines inaccessibles à l’informatique actuelle (vérification logique d’idées et de machines, conversationnels, extraction des connaissance inconscientes, programmation instantanée, logiciels pédagogiques, détection automatique de pannes sur plans, etc.) Toutes choses dont “l’IA” américaine est incapable.