Suivez-nous

Vidéo

Pourquoi YouTube est accusé de radicaliser les internautes

Une récente étude suggère que YouTube contribue largement à radicaliser les internautes en les exposant à des contenus favorisant l’extrême droite. Les algorithmes de recommandations auraient largement contribué à ce résultat.

Il y a

  

le

 
Article 13 YouTube
© Pexels / Pixabay

Si YouTube indique qu’il fait de nombreux efforts pour lutter contre certains effets néfastes de la plateforme, une nouvelle étude accuse cette dernière de radicaliser les internautes. À l’occasion de la conférence ACM FAT de Barcelone, des chercheurs ont dévoilé le résultat d’un rapport portant sur la façon dont le service de Google contribue à cette évolution de pensées des internautes.

Pour construire leur étude, les chercheurs ont analysé environ 331 000 vidéos issues de plus de 349 chaînes YouTube. Ils ont classé les vidéos en quatre catégories : Media, Alt-lite, Intellectual Dark Web et Extrême droite, —faisant de même pour les 72 millions de commentaires sous les contenus, classés de « peu radicalisant », « radicalisant » à « très radicalisant ».

Les résultats de l’étude suggèrent que les utilisateurs de YouTube qui regardent des vidéos classées Alt-lite et Intellectual Dark Web ont tendance à se tourner de plus en plus vers le contenu d’extrême droite dans le temps. Ils sont ainsi plus favorables à commenter ce dernier. Cette relation n’a pas été établie entre ceux qui regardent des vidéos classées dans la catégorie Media.

Cette étude fait suite à un article daté de 2018. En mars, un sociologue du nom de Zeynep Tufekci publie un article dans lequel il explique comment YouTube devient un moteur de radicalisation. Si la thèse se veut désormais populaire, les auteurs de la dernière étude semblent étoffer cette théorie.

L’algorithme de recommandations de YouTube en cause ?

Toutefois, les chercheurs ne savent pas expliquer exactement comment les adeptes de YouTube passent des contenus Alt-lite à ceux de l’extrême droite. Ceux-ci ont laissé de côté la personnalisation pour leur étude, sachant que cette dernière adapte les recommandations de contenus aux habitudes des utilisateurs.

De plus, les auteurs du rapport indiquent avoir été capables, sans personnalisation, « de trouver un chemin dans lequel les utilisateurs pouvaient trouver des contenus extrêmes provenant de grands canaux médiatiques ».

Horta Ribeiro, un des chercheurs, explique qu’il est difficile de déterminer si YouTube est vraiment responsable de ces résultats, au même titre que son algorithme de recommandations. Malgré tout, il explique que la plateforme a une responsabilité, car elle accueille ces types de vidéos.

Depuis l’article de Zeynep Tufekci, plusieurs études s’intéressent à l’algorithme de recommandations de YouTube, surtout quand est utilisé à propos de vidéos portant sur des sujets comme la radicalisation ou les théories du complot.

Newsletter 🍋 Inscrivez-vous à la newsletter tout juste sortie du four, rien que pour vous

Cliquez pour commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les bons plans 🔥

Dernières news

Newsletter 🍋 Inscrivez-vous à la newsletter tout juste sortie du four, rien que pour vous

Les tests