L’algorithme de recommandation de TikTok a largement contribué à son succès mondial. Mais aujourd’hui, cet algorithme est dénoncé par Amnesty International, qui vient de publier deux études sur les pratiques du réseau social. En résumé, l’ONG accuse le fil “Pour toi” de TikTok de pousser les enfants et les jeunes vers du contenu dangereux en lien avec la santé mentale.
L’une des nouveautés apportées par TikTok, par rapport à ses concurrents, est que son algorithme principal tient surtout compte du contenu qui intéresse l’utilisateur, et de ses abonnements. Lorsque vous vous intéressez au sport ou à la cuisine, cela peut être une bonne chose. Mais selon Amnesty International, lorsqu’une personne commence à s’intéresser à la santé mentale, les choses peuvent prendre une autre tournure.
“Les résultats d’une enquête technique menée conjointement avec nos partenaires – l’Algorithmic Transparency Institute (National Conference on Citizenship) et AI Forensics – montrent comment les enfants et les jeunes qui regardent des contenus relatifs à la santé mentale sur la page « Pour toi » de la plateforme sont rapidement entraînés dans des « spirales » de contenus potentiellement dangereux, notamment des vidéos qui idéalisent et encouragent les pensées dépressives, l’automutilation et le suicide”, explique l’ONG.
Un effet “spirale”
Dans le cadre de l’étude, Amnesty International a réalisé des simulations avec des comptes automatisés, représentant des comptes d’enfants de 13 ans. Au bout de cinq à six heures, “près d’une vidéo sur deux était relative à la santé mentale et potentiellement nocive, soit un volume 10 fois plus important que celui présenté aux comptes n’ayant indiqué aucun intérêt pour le sujet.” Et ce phénomène était encore plus accentué lorsque le compte revisionnait manuellement des vidéos en lien avec la santé mentale.
Luis, 21 ans :
« C’est une spirale infernale. Si une vidéo capte ton attention, même si tu ne l’aimes pas, elle t’est présentée quand tu ouvres TikTok. Parce qu’elle te semble familière, tu la regardes à nouveau et son apparition dans ton fil augmente de façon exponentielle. »
— Amnesty International France (@amnestyfrance) November 8, 2023
Lisa Dittmer, chercheuse à Amnesty International, évoque une conception “manipulatrice et addictive” dont le but est de capter l’attention de l’utilisateur le plus longtemps possible. Et selon elle, l’algorithme de TikTok “expose les enfants et les jeunes adultes ayant déjà des problèmes de santé mentale à de graves risques.”
Il est à rappeler qu’en Europe, pour respecter le DMA, TikTok a déjà apporté des modifications à son fonctionnement. Les recommandations personnalisées (celles qui sont dénoncées par Amnesty) sont devenues optionnelles. Et les utilisateurs peuvent choisir un flux “Pour toi” qui ne tient plus compte des données personnelles, mais uniquement des contenus populaires dans le lieu de résidence.
- Amnesty International dénonce l’algorithme “Pour toi” de TikTok
- L’ONG accuse le réseau social d’entraîner l’utilisateur dans une spirale lorsque celui-ci s’intéresse à du contenu en lien avec la santé mentale
- En Europe, pour respecter le DMA, TikTok permet déjà de désactiver ces recommandations personnalisées
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
