- Sam Altman, le PDG d’OpenAI, estime que nos enfants auront bientôt autant d’amis IA que d’amis humains
- C’est particulièrement dangereux pour les plus jeunes qui n’ont pas assez de vécu
- Mais cela peut aussi être une menace pour la santé mentale des adultes
Cette déclaration est passée relativement inaperçue, mais à l’occasion d’une conférence organisée par Stripe, Sam Altman, le PDG d’OpenAI, créateur de ChatGPT a glissé une confidence : “Quelqu’un m’a dit récemment une chose qui m’a marqué : il est presque sûr que ses enfants auront plus d’amis IA que d’amis humains”.
Il indique qu’il ignore les conséquences de cette interaction, mais qu’il constate que les humains ont du mal à faire la distinction entre une discussion à distance entre un humain et une IA.
Rien ne vaut les relations humaines
En théorie, ces interactions humain-machine présentent quelques avantages. On peut ainsi imaginer que ces nouveaux amis algorithmiques soient configurés pour encourager, coacher, se montrer bienveillant, et ainsi améliorer la santé mentale de leur utilisateur.
Pour autant, cela n’est pas sans poser question. Dans un article publié, notre consœur Ainsley Harris de Fast Company a pointé plusieurs failles dans ces relations « amicales » entre les enfants et les machines.
Ainsi, et comme elle le fait remarquer à juste titre, ces interactions auront pas nature un aspect commercial. Le chatbot est en effet créé par une entreprise qui cherche à générer du profit. Il faudra donc choisir entre payer un abonnement mensuel ou subir un ciblage publicitaire dans le cas où le produit serait gratuit.
De même, ces nouvelles amitiés ne pourront jamais reproduire totalement les relations sociales entre bambins qui sont faites de conflictualité, « mais au milieu des larmes, je les vois apprendre la beauté des moments de joie vécus avec d’autres humains », souligne l’auteure.
Pour aller plus loin, on a aussi pu constater que les relations entre adultes et IA pouvaient tourner au vinaigre. En mars dernier, de nombreux utilisateurs du chatbot Replika ont fait part de leur désarroi. Alors qu’il était devenu en quelque sorte, leur partenaire intime, ce dernier s’est mis subitement à couper court à toutes les conversations sexuelles.
Le développeur de cette IA a par la suite fait machine arrière, et ces fonctionnalités ont été remise en place. Mais cette affaire illustre le danger de ces outils qui peuvent ponctuellement aider à lutter contre la solitude. En effet, ils ne vous appartiennent pas vraiment et leur nature peut changer du jour au lendemain.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.