Suivez-nous

Vidéo

Le nombre de vidéos complotistes en baisse sur YouTube

Sur les quinze derniers mois, le nombre de vidéos complotistes diminue, même si on peut noter une hausse plus récemment.

Il y a

  

le

 
youtube
© Unsplash / Christian Wiedige

En janvier 2019, YouTube a fait une promesse très nette : celle de modifier son algorithme pour moins mettre en valeur les vidéos contenant de la désinformation et des théories du complot. Un an auparavant, la plateforme avait déjà usé d’une autre tactique pour endiguer le phénomène. Le site a effet prévu une fonctionnalité qui vise à publier un extrait de Wikipedia et un lien vers l’article sous certaines vidéos liées à des théories du complot.

Une étude publiée par des chercheurs de l’Université de Berkeley permet d’évaluer la réussite de ces tentatives. Selon ces derniers, YouTube est bien parvenu à réduire très largement le nombre de vidéos complotistes dans ses recommandations. C’est d’autant plus important que c’est par ce biais que la plupart des vidéos sont vues.

YouTube serait toujours une plateforme propice à la radicalisation

Concrètement, les scientifiques ont créé un algorithme capable d’estimer si une vidéo contient une théorie du complot en examinant sa description et les commentaires. Leur travail a permis d’examiner plus de 8 millions de recommandations sur les 15 derniers mois. Ces renvois vers des contenus problématiques ont baissé de 70 % entre janvier et mai 2019. Plus inquiétant, ils ont par la suite un peu remonté. Ces derniers ne seraient désormais que 40 % moins courants que lorsque YouTube a pris ses engagements.

Les plus belles réussites concernent les vidéos indiquant que le gouvernement américain a aidé à organiser le 11 septembre ou que la terre est plate. Ces contenus ne sont quasiment plus recommandés. En revanche, les publications climatosceptiques semblent quant à elles beaucoup prospérer.

Cette recherche est donc plutôt encourageante pour YouTube, mais il reste encore beaucoup de travail à accomplir. La plateforme reste souvent accusé de favoriser la radicalisation. Une étude récente parvient à ce type de conclusion. Les chercheurs soulignent en effet que les algorithmes de recommandations exposeraient les utilisateurs à des contenus favorisant l’extrême droite.

Cliquez pour commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les bons plans

Dernières news

Newsletter 🍋 Inscrivez-vous à la newsletter tout juste sortie du four, rien que pour vous

Les tests