C’était le clou du spectacle lors du keynote de la WWDC ce lundi. La firme de Cupertino a présenté Apple Intelligence. Derrière ce terme, nous retrouvons l’ensemble des fonctionnalités d’IA que le géant de la Tech propose à ses utilisateurs. Il en va ainsi d’applications locales où la technologie répond à des requêtes simples.
Apple fier de son IA
Siri peut aussi recourir aux services d’OpenAI et de ChatGPT quand la question est plus complexe. Dans une interview accordée au Washington Post, Tim Cook a d’ailleurs abordé ce nouveau partenariat. Il a salué les efforts d’OpenAI en matière de confidentialité et ajouté : « Je pense qu’ils sont pionniers dans ce domaine et aujourd’hui, ils ont le meilleur modèle ».
Il précise que la marque à la pomme « n’est pas coincée avec une seule personne pour toujours ». Et qu’elle pourrait donc se tourner vers un produit concurrent à l’avenir, voire vers une solution maison.
Mais une autre déclaration du dirigeant retient notre attention. Au sujet de potentielles erreurs de l’IA générative, que l’on appelle aussi parfois hallucinations, il se montre très prudent :
Je suis confiant [que notre technologie] sera de très haute qualité. Mais honnêtement, je dirais que ce n’est pas 100 %. Je ne prétendrais jamais que c’est 100 %.
Des hallucinations problématiques ?
De fait, la plupart des produits aujourd’hui sur le marché commettent encore des bourdes impressionnantes qui peuvent même parfois s’avérer dangereuses ou problématiques si l’on imagine que ces outils sont massivement utilisés. Rien n’indique à ce stade que les géants de la technologie parviendront à régler ce problème à l’avenir.
Il y a quelques semaines nous relayions l’analyse très intéressante d’ Anthony Chemero, professeur de philosophie et de psychologie à l’université de Cincinnati à ce sujet. Dans un article publié dans la revue Nature Human Behaviour, il s’intéressait au phénomène d’hallucination des IA.
L’expert soulignait ainsi :
Les LLM génèrent des textes impressionnants, mais ils inventent souvent des choses de toutes pièces. Ils apprennent à produire des phrases grammaticales, mais ont besoin de beaucoup, beaucoup plus d’entraînement que les humains. Ils ne savent pas vraiment ce que les choses qu’ils disent signifient.
Pour prendre connaissance plus en détail de son point de vue, vous pouvez toujours relire notre article ici.
Ce qu’il faut retenir :
- La firme de Cupertino a dévoilé Apple Intelligence, sa nouvelle offre d’IA
- Cette dernière fonctionne en partie avec l’aide du modèle de langage d’OpenAI
- Tim Cook a reconnu que cet outil ne sera pas fiable à 100 %. C’est le propre de ces technologies
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.