Suite à quelques polémiques sur les contenus diffusés sur sa plateforme, YouTube annonce quatre mesures pour limiter et parfois même bloquer la publication de contenus extrémistes.
Sur le plan technologique, Google va dédier plus de ressources afin de développer ses classificateurs de contenus grâce au machine learning. Utiliser la technologie pour classer du contenu peut cependant s’avérer difficile, concède la firme de Mountain View, car « une vidéo d’une attaque terroriste peut être un reportage informatif si elle est diffusés par la BBC, ou la glorification de la violence si elle est téléchargée dans un contexte différent par un autre utilisateur ».
D’ailleurs, comme la technologie ne suffit pas pour empêcher la diffusion des contenus extrémistes, Google s’engage aussi à augmenter le nombre d’experts indépendants qui se chargent d’identifier les vidéos sur YouTube. Dans le cadre de ce programme, baptisé Trusted Flagger, la firme de Mountain View travaille déjà avec 63 organisations, mais va travailler avec 50 ONG supplémentaires qu’il va subventionner.
Et certains contenus, « qui ne violent pas clairement » les règles de la plateforme, peuvent aussi être pénalisés. Ceux-ci seront accompagnés d’un avertissement interstitiel et ne pourront être monétisées, ni recommandés. « Cela signifie que ces vidéos auront moins d’engagement et seront plus difficiles à trouver », explique Google. La firme donne l’exemple des vidéos « qui contiennent du contenu inflammatoire religieux ou suprématisé ».
Enfin, YouTube va continuer à lutter contre la radicalisation grâce à la publicité ciblée. Une initiative qui a été lancée par la filiale Jigsaw et qui consiste à rediriger le public des vidéos de propagande vers des contenus de sensibilisation contre le terrorisme.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.