Passer au contenu

L’enquête Amnesty International qui fait froid dans le dos : comment TikTok expose les ados à des vidéos sur le suicide

Amnesty International pointe du doigt la spirale infernale de l’algorithme de TikTok.

Aujourd’hui, les smartphones prennent une place importante dans notre quotidien. Les réseaux sociaux aussi. Si bien que de nombreux utilisateurs développent une certaine addiction et cela joue fortement sur la santé mentale. C’est encore plus néfaste pour les plus jeunes utilisateurs. Si TikTok fait son possible pour améliorer le bien-être de ses utilisateurs, la plateforme chinoise est régulièrement pointée du doigt et accusée de nombreux maux.

En septembre 2023, une plainte avait été déposée à l’encontre de TikTok. Les parents de Marie, une adolescente de 15 ayant mis fin à ses jours en septembre 2021, accusent TikTok d’avoir une part de responsabilité considérable dans le suicide de leur fille. Une première en France. L’année dernière, sept familles françaises regroupées au sein du collectif Algos Victima ont assigné le réseau social devant le tribunal judiciaire de Créteil. Le coeur du problème ? L’algorithme de TikTok.

Ce mardi 21 octobre 2025, l’association Amnesty International a publié son nouveau rapport dénonce la spirale infernale entraînée par l’algorithme de TikTok. Les constats de cette enquête sont glaçants. Si bien que l’ONG a saisi l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique), affirmant que TikTok manque à ses obligations et ne respecte pas le DSA (Digital Services Act).

TikTok : l’algorithme est accusé de pousser les adolescents au suicide

Pour son rapport sur l’algorithme de TikTok, Amnesty International s’est mis dans la peau d’adolescents de 13 ans, l’âge minimal pour s’inscrire sur le réseau social chinois. L’ONG a ainsi créé trois faux comptes, un garçon et deux filles, et a voulu analyser l’algorithme. Pour cela, ils faisaient défiler les vidéos de leur fil “Pour toi” pendant trois à quatre heures et regarder deux fois chaque contenu en lien avec la santé mentale ou la tristesse sans jamais liker, commenter ou partager.

Les résultats de cette expérience sont édifiants. En 20 minutes, TikTok les inondent de vidéos sur la santé mentale. Au bout de 45 minutes, de messages explicites sur le suicide font leur apparition. Après 4 heures de scroll, les trois faux comptes sont saturés de contenus sombres avec parfois une expression directe de la volonté de mettre fin à ses jours. C’est un effet boule de neige, une véritable spirale infernale.

Malgré une réglementation stricte du DSA, des vidéos dangereuses circulent toujours sur TikTok. Pire, l’algorithme n’hésite pas à les pousser aux utilisateurs montrant un certain intérêt pour la santé mentale. “J’avais du mal à regarder certains contenus, alors imaginez l’impact que ça peut avoir sur des adolescent.es vulnérables de 13 ans seulement” souligne Justine Payoux, chargée de campagne chez Amnesty International France qui a mené l’expérimentation.

Le rapport de l’ONG fournit de nouvelles preuves de la manière dont le réseau social expose les plus jeunes utilisateurs à des contenus qui peuvent être préjudiciables. L’algorithme en vient même à normaliser voire idéaliser la dépression, l’automutilation ou le suicide. Des éléments qui ne manqueront pas d’être analysés dans le cadre de l’enquête ouverte par la Commission européenne en février 2024.

De son côté, TikTok rétorque que cette “expérience a été conçue pour aboutir à un résultat prédéterminé” et affirme mettre tout en oeuvre pour protéger les jeunes utilisateurs. “Neuf vidéos sur dix qui enfreignent nos règles [sont] supprimées avant même d’être visionnées” conclut la plateforme.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

TikTok
TikTok
Par : TikTok Pte. Ltd.
4.6 / 5
M25.2 avis