Vous avez bien lu. Alors que ChatGPT se répend comme une trainée de poudre dans tous les pans de notre vie, l’IA d’OpenAI serait une menace contre votre intelligence. C’est en tout cas ce qu’affirme Dominique Boullier, professeur à Sciences Po et spécialiste des technologies cognitives, au Parisien dans une interview accordée le 30 novembre 2025. Accessible à tous, l’outil conversationnel ne demande aucune compétence technique. Il peut même se muer en interlocuteur pouvant remplacer l’humain. De plus en plus d’adolescents le prennent par exemple comme confident afin de résoudre leurs problèmes existentiels.
Pour Dominique Boullier, cette utilisation de l’IA présente plusieurs risques. Le premier est précisément lié à son ton systématiquement empathique. ChatGPT encourage, soutient, flatte, donne le sentiment d’être compris, mais ne contredit presque jamais frontalement l’utilisateur, sauf sur des points factuels évidents ou quand ses garde-fous sont explicitement déclenchés.
Or, dans une relation humaine, le désaccord, la résistance, le conflit même, participent à la construction du jugement critique. Si personne ne vous dit jamais que vous avez tort, vous finissez soit par vous méfier de l’interlocuteur, soit (plus grave) par vous enfermer dans une bulle où vos biais ne sont jamais contestés. Avec un chatbot conçu pour être aimable et accommodant, l’utilisateur risque de s’habituer à un monde où sa vision n’est plus jamais sérieusement bousculée.
Le deuxième danger, plus profond, tient à la perte progressive de compétences et d’« appétences », c’est-à-dire du désir même de chercher, comprendre, formuler par soi-même. À force de demander à ChatGPT de rédiger, synthétiser, planifier, décider, l’utilisateur n’a plus envie de consacrer du temps à ces tâches mentales, puisqu’une machine semble les exécuter plus vite, sans effort apparent. “ChatGPT peut aussi entraîner, à force d’être utilisé, une baisse des capacités cognitives jusqu’à vous rendre plus bête”, explique le sociologue.
Dominique Boullier compare ce phénomène à l’usage systématique du GPS : à force de suivre docilement la voix qui indique chaque tournant, nombreux sont les automobilistes qui perdent complètement le sens de l’orientation et la capacité à se repérer dans l’espace. De la même façon, une dépendance quotidienne à l’IA pour structurer ses idées, ses envies, ses projets pourrait conduire à une véritable baisse des capacités cognitives, au point de rendre l’utilisateur moins apte à penser par lui-même.
Plus inquiétant encore, l’outil ne se contente plus de répondre, mais commence à suggérer ce qu’il faudrait vouloir, faire, explorer. En se déchargeant sur ChatGPT de la formulation de ses choix (qu’écrire, que dire à un proche, comment répondre à un recruteur, quel voyage organiser) l’utilisateur finit par laisser la machine pré-structurer ses désirs.
Idiocratie
L’hypothèse la plus alarmante avancée par le sociologue est celle d’une véritable atrophie cognitive à l’échelle collective. Comme pour le GPS, où l’on constate déjà chez certains une incapacité à se repérer sans assistance, un usage massif et non régulé de l’IA pourrait aboutir à des générations moins enclines à lire longuement, à argumenter, à mémoriser, à faire des liens complexes. En gros, les générations futures pourraient être encore plus bêtes que les générations actuelles.
Vous trouvez tout ceci un peu alarmiste ? Détrompez-vous. Les signaux faibles existent déjà, explique le sociologue. Par exemple, les étudiants externalisent de plus en plus leurs devoirs, les professionnels confient des mails sensibles à un modèle, des individus fragiles se réfugient dans des conversations avec un chatbot plutôt que de chercher de l’aide humaine. « Dans deux ou trois ans », prévient-il, les autorités publiques risquent de découvrir des comportements « bizarres » liés à cette délégation mentale excessive, sans y avoir posé assez tôt de garde-fous.
Pour limiter cette dérive, Dominique Boullier plaide pour de vraies limites d’usage, au-delà des simples conseils de bon sens. Il évoque l’idée de plafonner le temps passé ou le nombre de requêtes quotidiennes (une heure par jour ou trois ou quatre interactions par exemple), pas seulement au niveau individuel, mais via des régulations imposées aux plateformes elles-mêmes, y compris dans ses versions payantes.
Selon le sociologue, l’utilisation de l’IA doit devenir un sujet de santé publique : au même titre que les écrans pour les enfants ou les jeux d’argent, l’IA conversationnelle pourrait nécessiter un encadrement légal lorsque son usage devient massif. Selon lui, il revient au gouvernement d’intervenir pour protéger les citoyens, plutôt que de laisser des acteurs privés définir seuls les règles d’un outil qui touche directement à la structure même de nos esprits.
- Un sociologue spécialisé dans les technologies cognitives alerte sur les conséquences dramatiques d’un usage intensif de ChatGPT.
- Le ton hyper-empathique et jamais vraiment contradictoire de l’IA encourage la dépendance, affaiblit l’esprit critique et finit par déléguer à la machine la formulation même de nos désirs.
- L’expert appelle à des garde-fous concrets (limites de temps, quotas de requêtes) et à une intervention des pouvoirs publics.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.