Modération: Facebook s’excuse et promet de s’améliorer

Après une enquête du site ProPublica, Facebook a du faire amende honorable en reconnaissant de sérieuses défaillances dans sa gestion de la modération.

« Un bon musulman est un musulman mort ». « Mort aux musulmans ». En apparence, ces deux commentaires publiés sur Facebook n’ont pas beaucoup de différences et représentent des appels à la haine, allant contre les standards de la communauté. Pourtant, si le second a été supprimé, le second a lui été autorisé par la modération du réseau social. Pourquoi ?

Facebook promet de faire des efforts pour la modération des contenus racistes ou des appels à la haine

Le pure player spécialisé dans les enquêtes d’intérêt public s’est penché en fin d’année 2017 sur la modération du réseau social Facebook. La rédaction a récupéré 49 exemples de publications à caractères haineux. Au choix : racisme, sexisme, appel à la haine… Sur les 49 cas, le réseau social a été forcé de reconnaître pas moins de 22 erreurs, soit presque 50 % d’erreurs selon l’enquête.

Comment expliquer cette situation ? Tout d’abord par l’ampleur de la tâche. Des millions de commentaires chaque jour et seulement 7.500 modérateurs. Raison pour laquelle le réseau social a promis de faire des efforts en 2018.

Faut-il y voir un vœu pieux ou une bonne résolution pour l’année 2018 ? Difficile de savoir pour l’instant. Mais, le réseau social a commencé par présenter des excuses. « Nous sommes désolés pour les erreurs commises, elles ne sont pas le reflet de la communauté que nous voulons construire. Nous devons faire mieux » a détaillé Justin Osofsky, le vice-président de Facebook.

Comment va se concrétiser cette promesse ? Tout d’abord par une politique d’embauche massive. L’équipe devrait être doublée en 2018. Attention, il ne s’agira à priori pas seulement de modérateurs mais de profils plus variés afin de répondre aux différents défis que pose la modération d’un réseau de plus de deux milliards d’utilisateurs actifs.
La solution réside probablement du côté des algorithmes. En effet, difficile de rompre de façon efficace le biais humain. Selon l’enquête de ProPublica, les modérateurs font souvent des choix différents sur des contenus similaires et ont du mal à respecter les directives complexes de Facebook, afin de ne pas tomber non plus dans la censure.


4 commentaires

  1. À mon avis ce passage mérite correction….
    « Pourtant, si le second a été supprimé, le second a lui été autorisé par la modération du réseau social. Pourquoi ? »
    Lequel est autorisé, lequel a été supprimé??? Là, dans les deux cas il n’est question que du « second »!!

  2. Les personnes bien élevées ne « s’excusent’ pas (elle-mêmes) elles présentent leurs excuses.

    Je suis également très dubitatif sur l’accent mis sur les algorithmes pour contourner (rompre ?) le biais humain : une matière aussi complexe et subtile que la modération nécessite justement plus d’humanité que d’automatisme pour ne pas tomber dans … Les pièges tendus par les biais de l’automatisme

  3. oui moi j’ai fait des sites sur e-monsite.com ils mon fermer au total 6 a 7 sites réaliser chez eux ils font leur pub sur Facebook ils veulent ni rembourser et plus me voir je suis tellement enévée que la haine racial je sais ce que sais j’ai demandez a Facebook de faire quelque choses je leurs pourrie leurs page et jusqu’à même que ca dégénère.

  4. Émile Pointdevue on

    Facebook se permet de fermer un compte dont le contenu n’a ABSOLUMENT aucun commentaire raciste ou contraire à la loi sans explication et réclame ensuite un justificatif d’identité !!! Prétexte ? Utiliser son nom et pas un pseudo 😎 Certains peuvent utiliser un pseudo, d’autres non, drôle de conception de la liberté d’expression. Je ne présente mes justificatifs d’identité que à la police ou à la justice, des entités dûment assermentées.
    Avec ou sans Facebook vivons heureux

Répondre