Cette année, de nombreuses élections auront lieu dans le monde. Entre la présidentielle américaine et les élections européennes dans l’UE, le site Axios indique qu’il y aura des élections avec des enjeux élevés dans 50 pays, en 2024. Et pour protéger ces élections des mauvais usages de ses technologies, OpenAI, le créateur de ChatGPT, annonce les différentes mesures qu’il va prendre.
“Alors que nous nous préparons pour les élections de 2024 dans les plus grandes démocraties du monde, notre approche consiste à poursuivre notre travail de sécurité des plateformes en fournissant des informations de vote précises, en appliquant des politiques mesurées et en améliorant la transparence”, explique l’organisation. “Nous déployons un effort interfonctionnel dédié au travail électoral, réunissant l’expertise de nos équipes de systèmes de sécurité, de renseignements sur les menaces, juridiques, d’ingénierie et politiques pour enquêter et traiter rapidement les abus potentiels.”
Pas de campagnes via ChatGPT
Dans son annonce, OpenAI évoque de nombreuses restrictions qu’il applique à ChatGPT ainsi qu’aux applications qui utilisent son API. Pour le moment, il ne sera pas permis d’utiliser la technologie de ChatGPT pour créer des apps de campagne ou de lobbying. D’autre part, il est interdit d’utiliser cette technologie pour créer des chatbots qui prétendent être de vraies personnes (comme un candidat). Et il est également interdit de créer des chatbots basés sur ChatGPT dont le but serait de décourager la participation des électeurs.
Pour les personnes qui s’informent via ChatGPT, OpenAI indique que son chatbot intègre de plus en plus de vraies sources d’information. Et les utilisateurs auront bientôt accès à des infos en temps réel qui incluent la source de ces infos, ainsi que les liens. “La transparence autour de l’origine de l’information et l’équilibre des sources d’information peuvent aider les électeurs à mieux évaluer l’information et à décider eux-mêmes à quoi ils peuvent faire confiance”, indique le créateur de ChatGPT.
Et aux États-Unis, OpenAI collabore avec la National Association of Secretaries of State (NASS), une organisation professionnelle, pour que ChatGPT puisse donner des informations correctes sur le processus électoral. L’objectif est que si, par exemple, un utilisateur demande où est son bureau de vote, il obtient des informations correctes.
Un plan anti-deepfake
OpenAI propose aussi un outil appelé DALL-E 3, accessible pour les utilisateurs payants de ChatGPT Plus, qui permet de générer des images. Celui-ci refuse déjà les requêtes des utilisateurs quand ces derniers demandent de générer des images de vraies personnes, dont celles de candidats à des élections. Mais en plus de cela, OpenAI veut qu’il soit facile de différencier les vraies photos et les images générées par DALL-E 3.
Et pour faciliter cette différenciation, celui-ci va travailler avec la Coalition for Content Provenance and Authenticity pour que les images générées par DALL-E 3 soient accompagnées d’une identification numérique. Outre cela, OpenAI développe un logiciel de classification qui détecte les images générées par DALL-E. Ce logiciel est actuellement en test et les résultats seraient prometteurs. Plus tard, ce classificateur sera mis à disposition de plus de testeurs, dont des journalistes, les plateformes en ligne et des chercheurs.
- OpenAI se prépare pour les élections de 2024
- Le créateur de ChatGPT veut éviter que ses technologies interfèrent avec les processus électoraux
- En même temps, OpenAI s’assure que les gens qui s’informent via ChatGPT puissent accéder à des informations correctes
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.