Passer au contenu

Cette IA espionne déjà 500 millions de personnes dans le monde : vous en faites sûrement partie

Vous êtes son utilisateur et son produit ; un produit que Meta vend comme des petits pains.

C’est devenu d’une affligeante banalité : aujourd’hui, beaucoup d’entre nous se servent des chatbots pour rechercher des informations comme on le ferait avec Google. Certains poussent même le bouchon un peu trop loin en leur dévoilant des informations qui devraient rester dans la sphère de l’intime, parfois jusqu’à en souffrir.

L’IA et la confidentialité, ça fait souvent deux, voire trois, ce n’est plus un secret d’État. Ce qu’on obtient en retour des conversations avec ces chatbots n’est jamais gratuit, nous le savons aujourd’hui parfaitement. Toutefois, tous ne se valent pas. Surfshark, une entreprise de cybersécurité spécialisée dans les VPN, a analysé les pratiques des dix principaux assistants IA du marché. Verdict : ils prennent bien plus qu’ils ne donnent. Au sommet de la chaîne alimentaire, une championne toute désignée : Meta AI.

Confidentialité chatbots
Pas besoin d’être un statisticien hors pair pour comprendre directement où est situé le problème (en haut, au cas où). © Surshark

Meta AI : l’aspirateur à données

Sur le graphique ci-dessus publié par Surfshark, cela saute aux yeux : Meta AI écrase littéralement la concurrence. Là où la majorité des assistants analysés collectent en moyenne 13 types de données, Meta en récupère 32 sur 35 possibles. Une boulimie statistique qui la place très largement en tête du peloton. En matière de captation de données personnelles, le géant de Menlo Park joue dans une autre division.

Malheureusement, il ne s’agit pas de simples données techniques. On parle ici de tout ce qui vous identifie, votre ADN numérique, en somme : nom, adresse, historique de navigation, contenus générés, interactions, position géographique.

Autre point gravissime : elle collecte également des données hautement sensibles, celles que la plupart des autres acteurs de l’IA n’osent pas manipuler : état de santé, situation financière, orientation sexuelle, convictions religieuses, opinions politiques, voire données biométriques. La totale !

Contrairement à d’autres IA qui se contentent d’exploiter les échanges pour améliorer leurs modèles, Meta se réserve aussi le droit de partager ces données avec des tiers notamment pour envoyer des publicités ciblées. Quelle surprise ! Meta n’a jamais été bonne élève en matière de confidentialité et fait face à plusieurs plaintes à ce sujet depuis l’an dernier.

C’est aussi la seule IA à cocher quasiment toutes ces catégories sensibles, tout en les croisant avec des usages commerciaux. Sur le graphique, ces segments occupent presque toute la ligne. À côté, Gemini ferait presque bonne figure, même si lui aussi collecte goulûment des données (22 types), dont la géolocalisation précise et les contacts.

Pensez-y, si vous discutez avec Meta AI, tout ce que vous lui dites est ingéré et transformé en profil commercial qui peut être monétisé. Rien de surprenant, dans la mesure où l’empire Meta n’a jamais été bâti sur ses interfaces, mais sur la collecte et l’exploitation massive de données brutes. Que vous utilisiez régulièrement WhatsApp pour passer vos appels, Facebook ou Instagram : vous alimentez la même machine. Pour le groupe de Zuckerberg, c’est un festin !

Des assistants ? Plutôt des machines à profiling

ChatGPT s’en sort un peu mieux, ou disons, un peu moins mal. Le célèbre chatbot d’OpenAI se limite à dix types de données collectées sur trente-cinq, et propose une fonction de conversation temporaire, censée limiter la persistance des échanges dans sa mémoire. Parce que oui, ChatGPT a la mémoire longue, très longue depuis le mois d’avril !

À l’autre extrémité du graphique, certains acteurs ont aussi de quoi nous inquiéter. DeepSeek, par exemple, héberge ses données en Chine ; un pays où l’accès aux informations personnelles peut être exigé par l’État sans décision judiciaire, et où les garanties offertes aux utilisateurs étrangers sont, au mieux, théoriques. L’entreprise a, de plus, déjà été associée à des incidents de sécurité, ce qui, combiné à sa collecte agressive,

Bien évidemment, Meta n’est pas la seule dans cette course au profilage. D’autres chatbots comme Jasper, Poe ou Copilot collectent, eux aussi, des données, parfois à des fins de tracking publicitaire. Les informations qu’ils récupèrent (identifiants d’appareil, historiques d’usage, données comportementales) peuvent être croisées avec celles d’autres plateformes, revendues à des courtiers de données ou utilisées pour vous exposer à des publicités personnalisées.

En réalité, ce que nous montre Sufshark, c’est qu’il n’existe pas réellement de contre-modèle parfait à Meta. Il y a seulement des entreprises qui procèdent autrement : certains collectent moins, mais floutent leur politique de stockage ; d’autres se veulent plus transparents, mais opèrent depuis des zones grises réglementaires. D’où qu’elle provienne, l’IA conversationnelle est aujourd’hui construite sur l’exploitation de données personnelles. La chimère de l’IA éthique reste donc suspendue à la bonne volonté des acteurs ou aux pressions réglementaires. Actuellement, ni l’une, ni l’autre ne semble pouvoir inverser la vapeur et la machine est lancée pour rouler sur ce qu’elle connait le mieux : nous.

  • Les chatbots IA collectent massivement vos informations personnelles, bien au-delà de ce que l’on imagine.
  • Meta AI se distingue en aspirant le plus grand volume de données, incluant des détails hautement sensibles et même pour du ciblage publicitaire.
  • Aucune IA n’est totalement exempte de collecte, mais leurs pratiques varient en termes de volume et de finalité.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech