Passer au contenu

Cette IA pourrait permettre de vérifier si les élèves d’une classe sont attentifs

L’utilisation d’une telle technologie dans le cadre de l’éducation est loin d’être à 100 % fiable et pose de nombreuses questions.

Entretien d’embauche, enquête policière… Les technologies de reconnaissance des émotions sont de plus en plus présentes. Des scientifiques veulent maintenant les utiliser dans les salles de classe. C’est en tout cas l’idée qui se trouve derrière cette intelligence artificielle développée par des chercheurs de l’Université de Hong Kong.

Ce nouveau système pourrait fournir aux enseignants une mesure du niveau d’engagement des élèves dans une classe. L’IA est en mesure d’analyser les émotions des élèves sur la base d’enregistrements vidéo de leurs expressions faciales. Interrogé par IEEE Spectrum, Huamin Qu, un des auteurs, précise l’intérêt de ce dispositif : « Savoir si les conférences sont trop dures et quand les étudiants s’ennuient peut aider à améliorer l’enseignement. »

Des technologies à risque ?

L’IA est actuellement en phase de test sur des écoliers au Japon et des étudiants à Hong Kong. Ce nouvel outil peut fournir des analyses individuelles des émotions ainsi qu’une observation collective. Pourtant, selon les dires de ses concepteurs, il reste de nombreux détails à régler avant de démontrer sa fiabilité. Si des émotions telles que le bonheur sont facilement identifiées, l’IA pense à tort voir de la tristesse et de la colère, alors que les élèves ne font que froncer les sourcils pour se concentrer. Les scientifiques promettent de résoudre ce problème en ajoutant de nouvelles catégories d’émotion reconnues par leur système.

Ce déploiement des caméras dans une salle de classe pose également d’évidents problèmes de confidentialité. Le dispositif risque par ailleurs de distraire les personnes observées et leur enseignant et pourrait gêner la tenue du cours ou l’expression des opinions.

Il reste donc bien du chemin avant la généralisation d’un tel dispositif qui ne va pas sans poser de nombreuses questions éthiques. Certains experts des technologies de reconnaissance des émotions ont même récemment tiré la sonnette d’alarme. Selon eux, il serait très difficile de recourir à la détection des émotions pour déterminer comment se sent quelqu’un. Autre reproche majeur : cette technologie aurait tendance à reproduire les biais racistes et sexistes des humains.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

Cliquer pour commenter
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *