Suivez-nous

Tech

L’IA ne serait pas forcément plus efficace que les humains pour lire les examens médicaux

Des chercheurs ont épluché de nombreuses études sur le sujet et invitent à se montrer prudent.

Il y a

  

le

 
santé ia
© PublicDomainPictures (via Pixabay.com

On ne compte plus les recherches tendant à démontrer l’efficacité de l’intelligence artificielle en matière de diagnostic médical. Pour n’en citer que quelques unes, des chercheurs ont notamment mis au point une IA capable de prédire les lésions rénales. Un timing d’autant plus important qu’elles peuvent s’avérer fatales. Des scientifiques ont également recours à ce type de technologie pour détecter les hémorragies cérébrales.

Ces avancées sont de très bonnes nouvelles mais il ne faudrait pas pour autant en conclure que l’IA est systématiquement meilleure que les humains pour établir le diagnostic d’une maladie à partir d’images médicales. C’est la conclusion d’une étude de l’Imperial College de Londres publiée dans le British Medical Journal.

Un signal d’alerte à prendre en compte

Les scientifiques ont passé au crible 91 articles publiées par leurs pairs. Toutes s’appuyaient sur des algorithmes fonctionnant à l’aide du deep learning pour rechercher des signes et des symptômes de maladies. 69 d’entre elles affirmaient que l’IA avait des performances supérieures ou de même niveau que les médecins.

Les chercheurs voient plusieurs limites dans ces travaux qui pourraient entraîner des biais. Ils relèvent tout d’abord que seuls six recherches ont été menées en utilisant des données réelles de patients en milieu clinique. De fausses données sont même parfois générées car il s’avère impossible pour des raisons de confidentialité d’obtenir les vraies analyses des patients. Ils observent également que les tailles d’échantillons utilisées pour tester leurs modèles sont souvent petites.

Autre problème troublant, les résultats obtenus ne sont pas vérifiables. L’accès complet aux données n’est en effet pas disponible dans 95 % des études. Le code des algorithmes est quant à lui absent dans 93 % des cas. On est donc obligés de croire les conclusions sur parole, or le propre de la méthode scientifique est justement que celles-ci soient réfutables.

Les auteurs n’hésitent donc pas à tirer la sonnette d’alarme : « À l’heure actuelle, de nombreuses affirmations sans doute exagérées existent sur l’équivalence ou la supériorité de l’IA sur les cliniciens, ce qui présente un risque pour la sécurité des patients et la santé de la population, avec des algorithmes d’IA appliqués dans certains cas à des millions de patients. »

Pour autant, les chercheurs ne rejettent pas l’intelligence artificielle en tant que telle mais appellent à plus de transparence.

Cliquez pour commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les bons plans

Dernières news

Newsletter 🍋 Inscrivez-vous à la newsletter tout juste sortie du four, rien que pour vous

Les tests