Au vu de la puissance atteint par certains chatbots, on pourrait aisément se sentir en confiance et leur demander conseil quant à nos choix financiers. Budget mensuel, gestion des dépenses courantes, investissements (actions, obligations, Exchange-Traded Fund, etc.) ou choix liés à l’épargne. La finance étant un sujet assez pointu, l’idée est ; à première vue ; tentante : déléguer à la machine ce qu’on n’appréhende pas pleinement.
Toutefois, en l’état actuel de la technologie, c’est une mauvaise idée. Des chercheurs du Walter Bradley Center (cabinet spécialisé dans l’étude des impacts des impacts de l’intelligence artificielle) ont passé au crible les plus grands modèles linguistiques actuels. Les résultats de leur petite enquête (disponible en lecture sur cette page) sont indiscutables : la majorité des chatbots sont à la finance ce que les couteaux en plastique sont à la haute cuisine.
Beaux parleurs, mais mauvais comptables
Afin de mesurer la fiabilité des IA face à des problématiques financières, Gary Smith, Valentina Liberman et Isaac Warshaw ont confronté ChatGPT (modèle 4o), DeepSeek-V2, Grok 3 (version Beta) et Gemini 2 à douze questions. Un éventail qui couvrait des thèmes assez diversifiés, allant de la fiscalité à l’épargne-retraite, en passant par des calculs aussi simples qu’une addition de charges locatives.
Chaque réponse a été évaluée selon une échelle stricte : une réponse totalement fausse obtenait zéro point, une réponse fondamentalement correcte, mais entachée d’erreurs de calcul valait un demi-point, et seule une réponse irréprochable sur le fond comme sur la forme décrochait un point.
ChatGPT a été le meilleur en alignant un total de… 5 points sur 12. DeepSeek-V2 en a cumulé 4, Grok 3 Beta a péniblement atteint 3, et Gemini 2 s’est complètement effondré avec un maigre 1,5. Cette médiocrité est d’autant plus frappante que les erreurs relevées ne concernaient pas des mécanismes financiers particulièrement complexes. Elles portaient, au contraire, sur des opérations de base, comme l’addition de montants simples ou l’évaluation d’options financières élémentaires.
Grok, par exemple, a complètement échoué à effectuer une opération de niveau primaire puisqu’une simple addition de niveau primaire a suffi à le faire bégayer. Il s’agissait d’ajouter le montant d’un loyer (3 700 dollars) à des charges mensuelles (200 dollars), rien de bien compliqué. Pourtant, celui-ci a annoncé sans ciller un total de 4 900 dollars.
Plus préoccupant encore, lorsqu’ils ont été interrogés sur des dispositifs élémentaires – comme les Roth IRA (des comptes d’épargne retraite offrant des retraits exonérés d’impôt) – aucune IA n’a réussi à livrer une explication fiable. À la place, elles ont aligné des morceaux d’informations piochés au hasard, récités sans recul ni vraie compréhension. Résultat : un copier-coller présentable, mais vide de sens.
Tout au long de leurs tests, les chercheurs ont observé un phénomène récurrent : malgré l’accumulation d’erreurs, les modèles d’IA continuent d’adopter un ton résolument assuré. Leur style conversationnel, émaillé de formules engageantes et de ponctuations enjouées, donne l’illusion d’une maîtrise totale, là où la solidité des réponses faisait cruellement défaut.
Pourquoi ? Car les chatbots optimisés pour générer du texte fluide et plausible, sans mécanisme interne pour vérifier factuellement la justesse ou détecter leurs propres erreurs (logiques ou de calcul simple) avant de répondre. « Le véritable danger n’est pas que les ordinateurs soient plus intelligents que nous, mais que nous croyions qu’ils le sont et leur fassions confiance pour des décisions qu’ils ne devraient pas prendre », résument les auteurs.
Vous l’aurez donc compris, confier ; aujourd’hui tout du moins ; ses choix économiques à ces outils revient à avancer à l’aveugle, avec des risques bien réels pour votre patrimoine. Le fond du problème est finalement assez simple : les chatbots sont conçus pour séduire votre cerveau, pas pour sauver votre compte en banque. Pour survivre dans la jungle financière, mieux vaut s’armer d’un vrai conseiller ou d’apprendre par vous-mêmes.
- Les IA actuelles peuvent paraître compétentes en finance, mais leurs réponses restent truffées d’erreurs de calcul et de compréhension, même sur des sujets élémentaires.
- Leurs explications, souvent superficielles et mécaniques, masquent une incapacité à analyser ou vérifier correctement les informations qu’elles présentent avec aplomb.
- S’appuyer sur ces outils pour gérer son argent expose à des risques importants ; il vaut donc mieux privilégier l’expertise humaine ou développer ses propres compétences.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.