Anthropic est une des plus importantes entreprises d’intelligence artificielle au monde. Lancée par d’anciens cadres d’OpenAI en désaccord avec la direction, cette société récolte des investissements par milliards depuis plusieurs années de la part de géants de la Tech tels qu’Amazon et Google. Il faut dire que ses modèles de langage sont particulièrement prometteurs, et c’est le cas du dernier venu, Claude 3, qui vient d’être dévoilé ce lundi 4 mars.
Des statistiques impressionnantes
Anthropic affirme tout simplement qu’il fait mieux que GPT-4 d’OpenAI et Gemini 1.5 l’IA de Google sur des tests multimodaux couramment pratiqués dans ce secteur. Commençons par les caractéristiques principales. Claude 3 dispose d’une fenêtre contextuelle de 200 000 tokens, mais peut répondre à des requêtes qui dépassent un million de tokens.
Pour simplifier, les tokens (jetons en Français) sont une unité de mesure utilisée dans le jargon de l’IA pour mesurer la “mémoire” et la capacité d’analyse d’un modèle. En clair, plus ce niveau est élevé, et plus une IA pourra analyser une longue requête, fournir une réponse conséquente, et “se souvenir” d’une conversation sans dérailler.
Nos confrères de NewAtlas fournissent une échelle pour y voir plus clair. Ainsi, le roman Guerre et Paix de Tolstoï (un pavé de plus de 1200 pages) pèse environ 750 000 tokens. Claude 3 est donc capable de lire ce roman et de le résumer de manière pertinente et quasi instantanée.
Claude 3 confirme sa domination dans certains tests tels que la compréhension textuelle et visuelle, l’écriture de code informatique, mais aussi le calcul mathématique. Par ailleurs, les utilisateurs apprécieront le fait que cette IA est moins susceptible de refuser de répondre. Pour éviter les abus, Anthropic précise avoir testé avec attention son modèle afin qu’elle que les garde-fous de sécurité et de décence ne soient pas contournés.
La concurrence bat son plein dans le secteur de l’IA
Cette technologie est très impressionnante, mais Anthropic n’a aucun intérêt à faire preuve de triomphalisme. Il y a en effet de très grandes chances pour qu’OpenAI ait déjà commencé à plancher sur GPT-5 qui pourrait lui faire de l’ombre. Il en va de même pour Sora son générateur de vidéos, mais aussi Google qui, on peut l’imaginer, entend perfectionner Gemini.
En clair, rien n’est écrit dans ce secteur en pleine ébullition, mais une chose est sûre, Anthropic est une entreprise avec qui il faut compter. Pour aller plus loin, vous pouvez d’ailleurs toujours relire notre article consacré à Claude 2 qui est également un modèle de langage assez impressionnant.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Pas sur de tout piger :
” Claude 3 dispose d’une fenêtre contextuelle de 200 000 tokens”
et ensuite :
“le roman Guerre et Paix de Tolstoï (un pavé de plus de 1200 pages) pèse environ 750 000 tokens. Claude 3 est donc capable de lire ce roman et de le résumer de manière pertinente et quasi instantanée.”
Moi non plus, je suppose qu’il a une “vitesse” de 200 000 tokens par seconde et qu’il lui faut 4 secondes pour torcher et pondre un résumé de Guerre est Pet.
Il a une fenêtre de 200000 tokens. Ce n’est pas une vitesse, c’est ce qu’il peut gérer d’un coup.
Les traitements font glisser cette fenêtre sur le texte à traiter, et ce qui est techniquement prévu est qu’il traite 1million de tokens max. Soit plus que le livre cité en contient.
@olive,
” Claude 3 dispose d’une fenêtre contextuelle de 200 000 tokens, mais peut répondre à des requêtes qui dépassent un million de tokens.”