Passer au contenu

Roblox accusé de mettre en danger ses jeunes joueurs : la plateforme revoit tout en urgence

Vous pensiez que Roblox était inoffensif ? Lisez ça avant d’y laisser jouer vos enfants.

Encore une grosse claque pour Roblox, plateforme de jeu en ligne et de création détenue par l’entreprise américaine Roblox Corporation. Déjà pointée du doigt par le passé pour des motifs très douteux (modèle économique « discutable », ou reproduction virtuelle de tueries de masse), elle se retrouve dans le viseur de plusieurs plaintes déposées aux États-Unis.

Se retrouvent au cœur des accusations des motifs très problématiques : un environnement jugé insuffisamment sécurisé pour les enfants, où comportements inappropriés, scènes à caractère sexuel ou détournements à visée prédatrice auraient pu prospérer. Face à la pression judiciaire, notamment celle du procureur général de Louisiane, Roblox a dû réagir ; et très rapidement.

Un ménage de fond en comble : Roblox serre la vis

Dans un billet publié le 15 août sur son site, la société annonce une série de changements radicaux. Premier coup de balai : l’accès aux « expériences non classées » (des jeux créés par les utilisateurs sans évaluation de contenu) sera désormais réservé aux développeurs et à leurs collaborateurs directs. Jusqu’ici, ces contenus pouvaient accessibles par n’importe quel utilisateur de 13 ans et plus. De vastes zone grise, dans lesquelles les protections étaient complètement inexistantes.

La firme explique : « Pour offrir ces expériences au plus grand nombre, les développeurs doivent remplir notre Questionnaire sur la Maturité et la Conformité. Ce questionnaire leur permet d’obtenir un label de maturité, facilitant ainsi le choix des utilisateurs et des parents quant au contenu adapté pour eux et leurs enfants ».

Autre restriction désormais imposée : les jeux de type « social hangout » (salons virtuels censés servir d’espace de discussion) seront désormais limités aux utilisateurs de 17 ans et plus… dès lors qu’ils simulent des lieux sensibles comme des chambres, des salles de bain, des clubs ou des bars. Le principe est de limiter l’accès aux environnements propices aux dérives, sauf si l’utilisateur fournit une preuve d’identité.

Là encore, l’entreprise se justifie : « Dans certains de nos social hangouts, où l’objectif principal est de discuter avec d’autres utilisateurs via son avatar, nous avons constaté que des comportements inappropriés peuvent survenir lorsque certaines fonctionnalités sont activées. Même si ces paramètres ne sont pas contraires à nos règles actuelles, nous avons observé qu’ils entraînaient plus souvent des dérives. C’est pourquoi nous avons décidé d’en limiter l’accès aux plus jeunes ».

Un nouvel outil de détection automatique de scènes problématiques voit le jour, pour repérer en temps réel les comportements problématiques et les contenus violant les règles. Si le nombre d’infractions sur ces serveurs est trop élevé, ils seront supprimés.

Doit-on vraiment prendre ces tentatives de reprendre la main au sérieux ? On ne peut nier le fait que l’entreprise met en place des outils de modération pour sauver sa crédibilité, mais on ne peut pas non plus nier l’image que donne au public Roblox. Celle d’une plateforme ingouvernable, un bac-à-sable devenu trop difficile à contrôler, alors même que 60 % de son public est constitué de mineurs.

Dans un message officiel, l’entreprise affirme « qu’aucun système n’est parfait » et se défend de toute complaisance face aux abus. Mais il est aujourd’hui difficile d’ignorer que le problème est fondamentalement structurel : son architecture même rend toute modération efficace presque illusoire. Des milliers d’univers voient quotidiennement le jour ; comment courir en permanence contre les abus et ceux qui contournent les règles ?

  • Roblox renforce l’accès aux jeux créés par les utilisateurs, les réservant aux développeurs.
  • Certains salons de discussions virtuels sont désormais limités aux utilisateurs de 17 ans et plus dont l’identité est vérifiée.
  • Un nouvel outil de détection automatique est mis en place pour repérer et supprimer les serveurs dans lesquels prolifèrent les contenus problématiques.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech