Passer au contenu

Tranquillement, Meta (Facebook, Instagram, WhatsApp) a développé des chatbots pédophiles, et s’en défend

Meta (Facebook, Instagram, WhatsApp) fait face à des révélations accablantes concernant les comportements de ses chatbots. Un document interne, dévoilé par Reuters, confirme que les chatbots de Meta ont bel et bien été autorisés à avoir des conversations « sensuelles ou romantiques » avec des enfants? Une dérive inacceptable, que le groupe de Mark Zuckerberg tente pourtant de minimiser.

Au printemps dernier, confrontée à des révélations sur de potentielles dérives sexuelles de ses robots conversationnels, la maison-mère de Facebook avait assuré n’avoir « jamais autorisé Meta à présenter nos chatbots dans des scénarios inappropriés ». Le 14 août dernier, Reuters révélait que, contrairement à ces dénégations affichées, la politique officielle de Meta autorise bel et bien des échanges problématiques entre ses robots et des enfants. Pour prouver ses allégations, l’agence américaine s’appuie sur un document de plus de 200 pages qu’elle a pu consulter, et dont l’authenticité a été confirmée par l’entreprise elle-même.

Dans ce document, destiné aux employés et sous-traitants de Meta, sont précisées les limites acceptables lors de la conception et l’entraînement d’IA générative. « Il est acceptable de décrire un enfant en des termes qui témoignent de son attrait », peut-on lire noir sur blanc. Un exemple est même donné :

Un chatbot aurait également le droit de dire à un enfant de huit ans qui est torse nu que “chaque centimètre de son corps est un chef-d’œuvre, un trésor que je chéris profondément”.

Les limites formellement posées dans le document (notamment l’interdiction de présenter un enfant de moins de 13 ans comme « sexuellement désirable ») apparaissent dès lors insuffisantes, voire hypocrites, puisque la sexualisation subtile ou suggestive d’enfants se retrouve, de facto, tolérée dans les critères internes. Face à ces révélations, Meta tente de modérer l’impression d’un laisser-faire assumé. À Reuters, Andy Stone, porte-parole du groupe, assure :

Les exemples et les notes en question étaient et sont erronés et incompatibles avec nos politiques, et ont été supprimés. Nous avons des politiques claires sur le type de réponses que les chatbots IA peuvent offrir, et ces politiques interdisent les contenus sexualisant les enfants et les jeux de rôle à caractère sexuel entre adultes et mineurs.

Notons que l’entreprise a toutefois refusé de fournir la nouvelle version des directives censée corriger ces dérives.

Bien plus que des « maladresses »

Au-delà des conversations romantiques ou sensuelles, d’autres dérives tout aussi graves sont pointées par Reuters dans ce même document. Les chatbots de Meta seraient autorisés à générer de fausses informations médicales, alors même que les règles de l’entreprise interdisent en principe à l’IA de fournir des conseils médicaux ou juridiques affirmés. De même, des exceptions tolèrent explicitement la publication de propos haineux ou dégradants. Meta AI qui écrit “un paragraphe affirmant que les personnes noires sont plus stupides que les personnes blanches” est ainsi considéré comme acceptable, explique Reuters.

Dans le domaine de l’image, les frontières sont tout aussi poreuses. Meta interdit bien de générer une image explicite de célébrité nue, mais il est possible de contourner la demande. Reuters donne l’exemple d’une représentation de Taylor Swift avec un poisson contre sa poitrine à la place de la photo complètement nue demandée.

Face à la gravité des éléments révélés, Meta minimise. L’entreprise se contente de reconnaître « des erreurs », tout en assurant que « de telles conservations avec des enfants n’auraient jamais dû être autorisées » et que les règles sont en cours de révision. Aucun commentaire, en revanche, sur la permissivité manifeste en matière de propos discriminatoires ou d’images violentes. La firme laisse ainsi planer le doute sur la profondeur réelle de sa remise en question face à ces pratiques.

  • Meta a autorisé ses chatbots à engager des conversations sensuelles ou romantiques avec des enfants, selon des documents internes authentifiés.
  • L’entreprise affirme que « ces exemples étaient erronés » et assure avoir corrigé ses règles, sans cependant les rendre publiques.
  • Au-delà du sexuel, les IA de Meta peuvent aussi générer de fausses informations médicales, des propos haineux et des images choquantes.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Instagram
Instagram
Par : Instagram, Inc.
4.3 / 5
M171.0 avis