Passer au contenu

Une partie de la presse veut encadrer l’usage de l’IA dans le monde

10 groupes de presse internatioaux signent une tribune qui réclame la mise en place d’un cadre juridique permettant d’encadrer l’usage de l’IA.

  • Alors que l’IA continue de gagner du terrain, 10 groupes de presse réclament la mise en place d’un “cadre juridique” autour de l’IA
  • Ces acteurs craignent que l’usage des chatbots IA dans la presse ne “produise des erreurs factuelles et des informations fictives en plus de propager des préjugés”
  • De quoi éviter selon eux un décrochage alors que la confiance du public dans les médias reste aujourd’hui très fragile

10 groupes, agences de presse et banques d’image viennent de signer une lettre ouverte dans laquelle ils appellent à la mise en place d’un cadre juridique international permettant d’encadrer l’usage de l’IA dans le secteur. Les chatbot comme ChatGPT sont en effet susceptibles d’aider certains journalistes à écrire certains de leurs articles.

L’étendue de l’usage des outils IA parmi les journalistes est un mystère. Certaines voix s’élèvent depuis des mois pour demander une interdiction – qui serait bien difficile à déceler et à appliquer. C’est pourquoi que de leur côté, l’AFP, AP, et 8 autres groupes média veulent, plus qu’une interdiction, un cadre international. De quoi, selon eux, éviter les effets les plus délétères de l’IA.

Comment ces acteurs espèrent encadrer l’usage de l’intelligence artificielle dans la presse

En effet, selon les signataires : “l’IA générative et les modèles de langage larges rendent possible pour n’importe quel acteur, sans préjuger de ses intentions, de produire et de distribuer du contenu synthétique à une échelle qui excède de beaucoup notre expérience passée”, rappellent les signataires dans leur lettre ouverte.

Et d’ajouter : “une telle pluie de contenus peut dévoyer les faits, et laisser le public sans moyen de discerner ce qui est vrai et ce qui est inventé. Même en l’absence d’intention malveillante, nombre d’IA génératives et de modèles de langage larges produisent des erreurs factuelles et des informations fictives, en plus de propager des biais qui existent depuis longtemps”.

Outre les risques, les signataires s’inquiètent aussi des problèmes de copyright : “l’IA générative et les modèles de langage large sont également souvent entraînés en utilisant des contenus média propriétaires, qui demandent beaucoup de temps et de ressources de la part des éditeurs et autres”. De quoi selon eux fragiliser le modèle économique du secteur, qui n’en demandait pas tant – et conduire à une réduction de l’offre médiatique.

Pour inverser la tendance, les signataires proposent plus de transparence dans le dataset utilisé pour entraîner les IA. Mais aussi le consentement des propriétaires des sources utilisées par ces modèles. Les signataires souhaitent également faire en sorte que les groupes de presse puissent collectivement négocier avec les opérateurs IA comme OpenAI et Google pour convenir des conditions dans lesquelles leurs articles peuvent être exploités.

En outre, les signataires demandent à ce que tout contenu produit grâce à l’IA soit labellisé de façon claire. Et que les opérateurs d’IA fassent le nécessaire pour lutter contre la désinformation et le colportage de préjugés dans leurs modèles. Au-delà, les signataires sont favorables à ce que les gouvernements créent une liste de standards généraux applicables internationalement.

On note que certains acteurs de l’IA commencent indépendamment à se rapprocher des médias. C’est le cas de Google avec Bard qui se donne pour ambition de spécialiser l’un de ses modèles dans l’écriture d’articles de presse factuels grâce à une collaboration avec une poignée de journaux américains.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech