“Un droit d’alerter sur l’intelligence artificielle”. C’est ce que réclament d’anciens salariés d’OpenAI et de Google Deepmind dans une lettre ouverte qui vient d’être publiée. Ce document, que l’on vous incite à aller lire, présente de manière courte et claire les futurs enjeux de cette nouvelle technologie.
Un signal d’alarme à prendre en compte
Les auteurs ne nient pas les avantages que ces innovations peuvent apporter à l’humanité, mais ils tiennent aussi à en souligner les risques et notamment “le renforcement des inégalités existantes, la manipulation et la désinformation, ainsi que la perte de contrôle des systèmes d’IA autonomes pouvant entraîner l’extinction de l’humanité”.
Ces signataires estiment également que les entreprises spécialisées dans l’IA possèdent des informations importantes sur les capacités, les limites et les risques de leurs systèmes et qu’elles devraient avoir des obligations de transparence à l’égard des gouvernements et du public.
Enfin, et c’est toute l’ambition de cette lettre, ces anciens salariés prônent l’instauration d’un droit d’alerter qui assurerait une protection des employés qui n’est, d’après eux, pas suffisante à l’heure actuelle.
Pour cela, les sociétés d’IA ne pourraient plus mettre en place des accords interdisant de critiquer l’entreprise pour des soucis liés aux risques. Elles déploieraient également des procédures anonymes pour aider les collaborateurs à faire part de leurs préoccupations.
Une culture de critique ouverte devrait par ailleurs être de mise au sein de ces organisations. Et, ces compagnies ne devraient plus exercer de représailles envers tous ceux qui partagent publiquement des informations si les procédures confidentielles ont échoué.
Il n’est pas certain que les grandes firmes technologiques engagées dans une course contre la montre vers l’IA acceptent ces demandes, mais le message est en tout cas passé. Rappelons que les craintes liées aux dérives possibles de ces technologies sont omniprésentes depuis la montée en puissance de ChatGPT et de ses rivaux.
L’IA va-t-elle considérer les humains comme “des déchets” ?
Pour ne citer qu’un seul exemple, l’an dernier, Mo Gawdat, ancien dirigeant de Google, a estimé que la probabilité que l’IA finisse par considérer les humains comme “des déchets” était “très élevée”. Il a également envisagé que l’IA pourrait créer ses propres “machines tueuses”.
Il prône donc : “J’ai un appel à l’action très clair pour les gouvernements. Je dis taxez les entreprises qui utilisent l’IA à 98% pour ainsi ralentir leur développement et, en même temps, obtenir assez d’argent pour indemniser toutes les personnes qui seront perturbées par la technologie”. Pour en savoir plus, vous pouvez toujours relire notre article dédié ici.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.