Un véritable déferlement de désinformation. Suite à l’élection du 3 novembre dernier aux États-Unis, Facebook a dû agir très vite pour contrer les nombreuses opérations de manipulation initiées par Donald Trump et ses partisans. Pour modérer ces propos qui indiquaient sans preuves que les démocrates avaient triché, la firme de Mark Zuckerberg n’a pas hésité à supprimer des groupes très populaires comme « Stop the Steal » qui comptait déjà plus de 300 000 membres. Un blocage de hashtags tels que #riggedelection et #ElectionMeddling a également été opéré.
Mais l’entreprise est allé bien au-delà de ce qu’on imaginait. À la suite d’une longue enquête, le New York Times indique ainsi que des employés ont proposé à Mark Zuckerberg une modification en urgence de l’algorithme de la plateforme. Une demande acceptée par le dirigeant et on a ainsi assisté du jour au lendemain à une modification de ce que voyaient les 2 milliards d’utilisateurs de Facebook.
Tristesse et honte
Concrètement, cela s’est traduit par une amélioration de la visibilité des médias grands publics réputés fiables tels que CNN, le New York Times ou NPR. En revanche, les publications de Breitbart, un site proche du parti républicain, et de Occupy Democrat situé à la gauche de l’échiquier politique américain étaient bien moins mis en valeur.
Ce changement a semble-t-il été très efficace et il aurait permis de rendre Facebook plus calme et moins conflictuel qu’il ne l’était. Forts de ce résultat prometteur, de nombreux employés appellent de leurs vœux à un maintien de cette mise à jour sur la durée. Cela ne semble pas vraiment être dans les plans de la direction. Cité par le média américain, Guy Rosen précise justement : « Il n’y a jamais eu de plan pour rendre ces modifications permanentes ».
Ces échanges parfois vifs entre la direction et certains employés illustrent bien la conflictualité qui règne chez Facebook autour de la politique de modération. En mai dernier déjà, les propos de Mark Zuckerberg avaient choqués certains salariés. Invité de la chaîne Fox News, il expliquait : « J’ai simplement la conviction que Facebook ne devrait pas être l’arbitre de la vérité de ce que les gens disent sur Internet. »
Sur la messagerie de l’entreprise, un employé avait alors confié ressentir « de la tristesse et de la honte ». « J’espère qu’il y aura toujours quelqu’un quelque part pour dire comment et pourquoi cela incite clairement à la violence ».
Facebook n’utilise pas à plein ses outils anti contenus haineux
Depuis, le débat n’a jamais vraiment cessé en interne et les ingénieurs de Facebook ont finalement été autorisés à plancher sur un algorithme à même de réduire la visibilité des contenus haineux et de la désinformation. Problème : ils ont alors constaté que le nombre de sessions, c’est à dire la fréquence à laquelle les utilisateurs ont ouvert Facebook, a diminué. C’est un des indicateurs les plus scrutés par les dirigeants car il détermine les futurs résultats du réseau social. Une subtile modification a alors été engagée afin de rétrograder un peu moins fortement ces publications jugées répréhensibles et ainsi de ne pas trop faire chuter les connexions.
Le New York Times mentionne aussi le fait qu’un outil qui permet de rétrograder les « appâts haineux », soit les contenus qui ne violent pas les règlements mais sont connus pour générer un flot de commentaires violents, n’a pas été utilisé à plein régime par Facebook. La compagnie a choisi de limiter son utilisation aux groupes et non aux pages.
L’entreprise semble donc arbitrer en permanence entre la nécessaire modération des publications et des critères plus économiques. Interrogé par le journal américain, Joe Osborne, le porte-parole de Facebook, se défend de cette arrière-pensée et précise : « Aucun changement de produit de fil d’actualité n’est jamais effectué uniquement en raison de son impact sur le temps passé en ligne ». De nombreux employés de la firme ne semblent pas du même avis.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
