Faut-il craindre l’arrivée de l’IA sur les systèmes politiques démocratiques ? Doit-on craindre une instabilité dans les décennies à venir ? L’avènement d’internet et des réseaux sociaux a déjà induit des risques bien documentés dans divers espaces politiques. De la cyberguerre aux fake news, jamais, depuis les années 1930 la question de la propagande et de ses effets sur la société ne s’était posée avec autant d’acuité.
Gina Neff, professeure de technologie à l’Université de Cambridge (Royaume-Uni) revient sur les risques perçus de l’IA sur l’exercice démocratique dans un podcast de la BBC. Elle commence par revenir sur la plainte récente du New York Times contre OpenAI. La firme dirigée par Sam Altman tente depuis plusieurs mois de nouer des accords avec les grands groupes de presse pour permettre à ses modèles de baser légalement leur entraînement sur des articles et contenus abonnés normalement placés derrière un paywall.
Les sociétés démocratiques (et les journaux) résisteront-ils aux IA génératives ?
De facto les derniers modèles de la firme sont étonnamment capables de régurgiter des versions de ces articles sans autorisation. L’accord entre OpenAI et le New York Times n’est pas arrivé à son terme, et le groupe de presse vient d’annoncer avoir déposé plainte contre le leader mondial de l’IA, tout en arguant, explique-t-elle, que ChatGPT “porte atteinte à l’exercice démocratique”.
En cause : un manque à gagner direct pour le New York Times et d’autres groupes qui risque d’impacter leur rentabilité, et donc la possibilité à délivrer une information de qualité indépendante. Toutefois, l’experte craint que le problème ne soit en réalité déjà plus profond : “toutes les plus petites entreprises qui cherchent à baser leur création de contenus sur l’intelligence artificielle doivent s’intéresser à ces questions de propriété intellectuelle”.
Avec pour l’heure, comme seul horizon, les tribunaux qui devraient prochainement trancher le sujet. Mais aussi, demain, sans doute – et cela nous l’ajoutons au-delà de cet extrait – la question de quels acteurs, dans l’entraînement de ces modèles, auront le plus d’influence dans les points de vue repris dans les articles générés sur des sites de presse de taille modeste, qui font partie, globalement, des plus lus sur internet.
Autre problème : celui de la véracité des données reprises par ces systèmes génératifs. On constate en effet que quelques erreurs, parfois difficiles à déceler, se glissent dans ce type de contenus générés par des IA à partir de prompts d’internautes. Erreurs qui peuvent être reprises et amplifiées par les internautes eux-mêmes sur les réseaux sociaux. Au point de créer de vrais mouvements inquiétants.
Or, même si des garde-fous (au demeurant contournables dans bien des cas), sont présents pour l’éviter, l’autre grand danger des chats génératifs est leur capacité à permettre à des acteurs de générer rapidement un grand nombre de contenus à des fins malveillantes – sans que cela ne nécessite de lourds investissements, ni même de soutien, qu’il s’agisse de soutien étatique ou celui d’acteurs fortunés.
Toute la question est de savoir si les sociétés (et les internautes) sont prêts à faire la part des choses, alors que les fausses informations les plus outrancières jouissent déjà, parfois, d’une viralité inquiétante – et que d’autres techniques permettent de mettre des mots dans la bouche de politiques et personnalités respectées de façon bluffante.
Entre nouvelles opportunités et potentiel destructeur, l’IA ressemble par bien des aspects – pour le secteur de la communication – à l’avènement d’une nouvelle ère, comparable à l’âge atomique. “Jusqu’ici tout va bien… l’important n’est pas la chute, c’est l’atterrissage”. L’extrait complet de la BBC est disponible via le lien en source de cet article.
- Dans un podcast de la BBC une experte pose ce qui, sont selon, elle les dangers de l’IA pour l’exercice démocratique.
- Avec en ligne de mire, pour l’instant, la question de la propriété intellectuelle des articles utilisés pour l’entraînement des modèles d’intelligence artificielle comme ChatGPT.
- toutefois l’IA pose également d’autres vrais dangers sans qu’il ne soit vraiment certain que les internautes soient prêts à séparer le bon grain de l’ivraie.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
“Jusqu’ici tout va bien… l’important n’est pas la chute, c’est l’atterrissage”
–
“Quand tu tombes c’est la chute, quand tu chutes c’est la tombe” comme disent les montagnards.
L’atterrissage signera-t-il la fin, la mort, la tombe de la démocratie ?
Perso il me semble que la démocratie a pris un coup dans l’aile bien avant l’avènement de l’IA tous azimuts.
Nous avons des institutions démocratiques, nécessaires mais pas suffisantes. Il existe bel et bien un totalitarisme démocratique, celui qui n’astreint pas par la force mais par l’endoctrinement, le forcing, l’abrutissement, la propagande et dorénavant la “fake news” ; celui de la “communication” au sens large, à savoir tout discours et pratique qui tente d’entourlouper le citoyen. La différence — de taille — avec le totalitarisme non démocratique (celui qui met à mal les institutions) c’est qu’in fine le citoyen peut avoir le dernier mot … pour peu qu’il soit suffisamment éclairé pour discerner le vrai du faux et cela requiert une indépendance intellectuelle, une “liberté de penser” : pas de démocratie accomplie sans éducation dans un premier temps, sans un effort permanent ensuite à éviter le “oui” comme le “non” systématiques (le “oui” de la crédulité, le “non” du cynisme au demeurant souvent alimenté par les théories farfelues du complotisme).
–
In fine c’est bien moins les outils de désinformation, d’intoxication que le manque de clairvoyance de chacun d’entre nous qui met la démocratie en péril. La liberté, in fine, c’est peut-être bien moins empêcher le méchant d’être méchant (quand lui peut affirmer être gentil et que l’empêcher c’est mettre en question sa liberté) que de savoir l’affronter sans l’escamoter, avec lucidité et détermination. La vie, en somme.