Passer au contenu

Entraînement des IA : ce verdict marque un tournant historique, et il ne va pas plaire à tout le monde

Anthropic a le droit d’entraîner ses IA sur des livres physiques achetés légalement.

C’est une décision potentiellement historique pour le secteur de l’intelligence artificielle (IA) générative. Un juge fédéral a estimé que l’entraînement de modèles sur des livres achetés légalement, mais sans l’autorisation des auteurs, constitue un usage loyal.

Le principe de « faire use »

L’affaire oppose Anthropic, startup qui développe Claude, aux auteurs Andrea Bartz, Charles Graeber et Kirk Wallace Johnson. Ces derniers ont accusé la société d’avoir utilisé leurs œuvres protégées par le droit d’auteur pour entraîner leurs IA. Comme c’est désormais habituel dans ce type de cas, la jeune pousse a invoqué le principe de « fair use » (usage légal).

Dans le droit américain, cette notion concerne une exception au droit d’auteur et permet d’utiliser des œuvres protégées sans autorisation, dans certaines conditions comme la recherche, l’enseignement, la critique, ou la parodie… À condition que cet usage soit considéré comme transformateur, c’est-à-dire qu’il apporte une nouvelle utilité ou un nouveau sens à l’œuvre originale.

Le verdict du juge

Et c’est justement le cas dans cette affaire, a expliqué le juge William Alsup. Selon lui, le fait de numériser des livres physiques légalement achetés, en les scannant page par page, pour entraîner une IA, constitue un usage transformateur et relève donc du « fair use ».

« La plainte des auteurs n’est pas différente de celle qu’ils auraient formulée s’ils s’étaient plaints que le fait d’apprendre aux écoliers à bien écrire entraînerait une explosion d’œuvres concurrentes », a-t-il écrit, ajoutant que la loi sur le droit d’auteur « vise à faire progresser les œuvres originales, et non à protéger les auteurs contre la concurrence ».

« Comme tout lecteur aspirant à devenir écrivain, les LLM d’Anthropic se sont formés aux œuvres non pas pour les reproduire ou les supplanter, mais pour prendre un virage difficile et créer quelque chose de différent », a-t-il poursuivi.

Anthropic Claude
© gguy / Shutterstock.com

Un précédent pour de futures affaires

En revanche, le juge a refusé de valider l’utilisation par Anthropic de millions de livres piratés téléchargés sur Internet. Un second procès aura donc lieu pour déterminer si cette pratique donne lieu à des dommages et intérêts.

C’est, malgré tout, la première fois qu’un juge américain reconnaît que l’entraînement d’un modèle d’IA sur des livres achetés et numérisés peut relever du « fair use ». De quoi créer un précédent pour d’autres affaires similaires en fixant une ligne : acheter un livre et le scanner, oui ; le télécharger illégalement, non.

Reste à voir comment les auteurs vont réagir à un tel verdict, car le juge ne s’est pas exprimé concernant les sorties de l’IA, qui peuvent grandement s’apparenter au contenu avec lequel elles ont été entraînées.

  • Un juge a reconnu qu’Anthropic pouvait entraîner ses IA sur des livres physiques achetés légalement.
  • En revanche, il a rejeté l’utilisation de millions de livres piratés, considérant que le recours à des copies illégales ne pouvait jamais être justifié.
  • Cette décision marque un tournant dans les procès sur l’IA et le droit d’auteur, en traçant une frontière claire entre usages licites et illicites.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech