- Après son « code rouge », Google tente le tout pour le tout pour sortir un concurrent crédible à ChatGPT : Bard
- Une enquête révèle que l’IA a été lancée malgré des alertes sur sa fiabilité
- La direction de Google se défend de mettre de côté l’éthique
On se souvient de ce code rouge lancé en fin d’année dernière chez Google. Face au succès de ChatGPT, le géant de la Tech ne pouvait plus se payer le luxe d’attendre, et devait sortir lui aussi son modèle de langage pour damer le pion de Microsoft et de tous ses autres rivaux engagés dans une course folle à l’IA. Sauf que ce lancement accéléré de Bard se ferait au prix de certains compromis problématiques si l’on en croit les informations de l’agence Bloomberg.
Le média américain s’est ainsi procuré des documents internes et a recueilli les témoignages de 18 actuels et anciens salariés de Google pour y voir plus clair. Citée par nos confrères, Meredith Whittaker, ancienne responsable de la firme de Mountain View, et actuelle présidente de Signal, résume ainsi la situation :
L’éthique de l’IA a été reléguée au second plan. Si l’éthique n’est pas positionnée de manière à prendre le pas sur le profit et la croissance, elle ne fonctionnera pas en fin de compte.
De fait, si Google dispose d’une équipe assez conséquente dédiée aux questions éthiques de l’IA, mais cette dernière n’est clairement plus la seule priorité des dirigeants. Surtout quand l’IA générative est vue comme un enjeu de survie pour l’entreprise.
“Ne lancez pas ce produit”
Ce n’est pas faute d’avoir essayé. En février dernier, un employé déplorait dans un groupe de discussion interne : « Bard est pire qu’inutile : s’il vous plaît, ne lancez pas le produit ». Il pointait alors les réponses fantaisistes de l’IA sur de simples questions factuelles.
Selon Bloomberg, l’entreprise préfère finalement lancer son IA auprès d’un public restreint en qualifiant cette démarche « d’expérience ». Jen Gennai, responsable de la gouvernance de l’IA, explique d’ailleurs que cette décision n’est pas de son fait. Malgré les signalements aux examinateurs, ces derniers ont « déterminé qu’il était approprié de procéder à un lancement expérimental limité avec une formation préalable continue, des garde-fous renforcés et des avertissements appropriés ».
L’histoire n’est pas terminée, et nous verrons à l’avenir si le choix de la direction était le bon. Mais cela illustre en tout cas les difficultés rencontrées par les géants de la Tech engagés dans une course effrénée pour prendre le leadership sur ce dossier.
Pointé du doigt, Google a tout de même tenu à réagir par le biais de Brian Gabriel, un porte-parole. Il explique ainsi : « Nous continuons à investir dans les équipes qui travaillent à l’application de nos principes d’IA à notre technologie », et précise que l’IA responsable reste « une priorité absolue » du géant de la Tech.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
