Claude Opus 4.7 est là : le demi-pas délibéré
Anthropic a publié Claude Opus 4.7 le 16 avril 2026 — en précisant immédiatement qu'il est moins performant que son modèle le plus puissant. Ce cadrage n'est pas un hasard. C'est le signal le plus clair à ce jour que la course aux modèles frontière est entrée dans une nouvelle phase : celle où la retenue est le produit.
Ce que Claude Opus 4.7 change réellement
Claude Opus 4.7 ne représente pas un bond générationnel. C'est une mise à niveau ciblée par rapport à Opus 4.6, qui donnait des signes d'essoufflement ces dernières semaines. Les améliorations se concentrent autour de trois domaines : l'ingénierie logicielle avancée, le raisonnement visuel et le respect des instructions.
Sur le plan de l'ingénierie, la description d'Anthropic est précise : « amélioration notable par rapport à Opus 4.6 en ingénierie logicielle avancée, avec des gains particuliers sur les tâches les plus difficiles. » Les testeurs en accès anticipé chez Cursor font état d'un bond de 58 % à 70 % sur CursorBench. L'évaluation de Notion a révélé une hausse de 14 % du taux de résolution par rapport à Opus 4.6, avec moins de tokens et un tiers des erreurs d'outils. Hex le qualifie d'« Opus 4.6 plus intelligent et plus efficace » et note qu'Opus 4.7 à faible effort correspond à peu près à Opus 4.6 à effort moyen.
La mise à niveau visuelle est substantielle. Opus 4.7 traite les images à une résolution plus élevée, ce qui est déterminant pour l'analyse de documents, l'interprétation de schémas et les flux de travail multimodaux. Les tests de référence indépendants de Nick Saraev mesurent un bond du raisonnement visuel de 69,1 % à 82,1 % — un gain de 13 points de pourcentage difficile à ignorer.
Voici le chiffre qui n'a pas bougé : le codage terminal agentique a montré un delta faible, voire négatif, dans les tests de Saraev. Pour les équipes qui exploitent des flux de travail d'agents autonomes, la différence pratique peut être négligeable sur les tâches routinières.
La contrainte Glasswing
La partie la plus intéressante d'Opus 4.7 est ce qu'il ne peut pas faire. Anthropic déclare explicitement que, durant l'entraînement, ils « ont expérimenté des efforts pour réduire différentiellement » les capacités cybersécurité du modèle. Cela découle directement de Project Glasswing, annoncé la semaine précédente, qui a exposé les risques et les bénéfices des modèles d'IA en cybersécurité.
Claude Mythos Preview reste le modèle le plus puissant d'Anthropic, mais sa diffusion demeure limitée. Opus 4.7 est livré avec des protections automatisées qui détectent et bloquent les demandes en cybersécurité interdites ou à haut risque. C'est, en substance, une publication délibérément contrainte — suffisamment puissante pour l'ingénierie logicielle en production, intentionnellement affaiblie sur les capacités qu'Anthropic juge les plus risquées.
Il s'agit d'un nouveau type de décision produit dans l'IA frontière. Plutôt que de publier le modèle le plus capable en espérant que tout se passe bien, Anthropic échelonne sa mise à disposition. Les professionnels de la sécurité qui ont besoin de l'ensemble complet des capacités peuvent candidater au nouveau Cyber Verification Program. Tous les autres disposent d'un modèle excellent en codage et en vision, mais délibérément moins performant en matière de reproduction de vulnérabilités.
Pour les agences et les équipes de développement, cela signifie qu'Opus 4.7 est le modèle de production. Mythos est le modèle de recherche. Les traiter comme appartenant à la même gamme de produits, c'est passer à côté de l'essentiel.
Efficacité plutôt que performance : la vraie histoire
Nick Saraev, dont l'analyse YouTube a atteint 64 000 vues en quelques heures après sa publication, a saisi le changement avec précision : Opus 4.7 « ne rend plus les choses possibles. Il les rend simplement légèrement plus rentables. »
Ce cadrage mérite attention. Les améliorations de référence sont réelles mais incrémentielles. Là où Opus 4.7 brille, c'est dans l'efficacité : moins de tokens par tâche, moins d'erreurs d'outils, un meilleur respect des instructions. Devin rapporte qu'Opus 4.7 « travaille de manière cohérente pendant des heures, s'attaque aux problèmes difficiles plutôt que d'abandonner. » Replit le décrit comme « la même qualité à moindre coût. » Harvey, la plateforme d'IA juridique, a mesuré 90,9 % sur BigLaw Bench à effort élevé avec « un meilleur calibrage du raisonnement sur les tableaux de révision. » Ce ne sont pas des récits de performance — ce sont des récits d'efficacité opérationnelle.
Le schéma est cohérent dans tous les rapports des testeurs anticipés publiés par Anthropic. Notion : +14 % de résolution de tâches, un tiers d'erreurs d'outils en moins. Cursor : CursorBench de 58 % à 70 %. Une plateforme de technologie financière non nommée parle de « bond significatif » pour accélérer la « vélocité de développement pour une livraison plus rapide. » Le fil directeur n'est pas l'intelligence brute — c'est la fiabilité à grande échelle.
Pour les équipes qui utilisent déjà Claude en production, le calcul de mise à niveau est simple. La tarification reste identique à Opus 4.6 (5 $ par million de tokens en entrée, 25 $ par million de tokens en sortie). Si vos agents effectuent moins de tentatives et consomment moins de tokens par tâche, votre coût effectif baisse sans changer votre tarif de facturation.
C'est particulièrement pertinent pour les entreprises qui évaluent s'il vaut mieux automatiser avec des agents IA ou des outils de flux de travail traditionnels. La métrique du coût par tâche évolue de manière significative lorsque le modèle gaspille moins de ressources sur les tentatives échouées.
Claude Code v2.1.111 : la couche de confiance arrive en même temps
Le jour même du lancement d'Opus 4.7, Anthropic a publié Claude Code v2.1.111 avec deux fonctionnalités qui ne sont pas des améliorations de performance — ce sont des fonctionnalités de confiance. La compétence /less-permission-prompts analyse les transcripts de votre session et propose une liste d'autorisation des outils que l'agent peut utiliser sans demander. La commande /ultrareview ajoute une passe de révision de code plus approfondie.
Un correctif v2.1.112 a suivi en quelques heures, résolvant une erreur « temporairement indisponible » lors de l'utilisation d'Opus 4.7 en mode automatique — confirmant la rapidité d'itération de l'équipe d'outils de développement.
Trois publications en 24 heures, ce n'est pas du chaos. C'est une stratégie coordonnée : livrer le modèle et l'infrastructure de confiance ensemble. Le goulot d'étranglement pour l'adoption de l'IA en entreprise est passé de « le modèle peut-il faire cela ? » à « pouvons-nous laisser le modèle faire cela sans supervision ? » Le curseur /effort et les outils de gestion des permissions dans v2.1.111 répondent directement à la deuxième question. Pour les équipes qui investissent déjà dans des flux de travail de développement assisté par IA, cette couche de confiance est la pièce manquante.
Ce que cela signifie pour votre stratégie IA
Si vous utilisez Claude Opus 4.6 en production aujourd'hui, la mise à niveau est à faible risque et probablement positive sur les coûts. La tarification identique signifie qu'il n'y a pas de surprise de facturation. Les gains d'efficacité sur les tâches complexes et multi-étapes — Notion a mesuré +14 % de résolution avec 33 % moins d'erreurs d'outils — se traduisent directement par une réduction des coûts opérationnels.
Si vous évaluez des modèles frontière pour de nouveaux projets, Opus 4.7 est la recommandation de production la plus claire qu'Anthropic ait formulée. Contrairement à Mythos, qui porte le poids des débats sur la sécurité, Opus 4.7 est explicitement conçu pour le déploiement. Les contraintes de Glasswing en font en réalité un choix plus sûr pour les environnements d'entreprise où les processus de révision de sécurité signaleraient des capacités cyber non contrôlées.
Si vous construisez des flux de travail agentiques — des tâches autonomes multi-étapes s'exécutant pendant des heures — les retours des testeurs anticipés de Devin et Notion suggèrent qu'Opus 4.7 gère l'autonomie à long terme mieux que tout modèle Claude précédent. La combinaison d'un meilleur respect des instructions et de moins d'erreurs d'outils signifie moins de points d'intervention, ce qui constitue le vrai levier pour faire évoluer les opérations d'agents à grande échelle. Solve Intelligence l'a confirmé dans le domaine multimodal : la vision à plus haute résolution d'Opus 4.7 permet de créer « des outils de premier plan pour les flux de travail de brevets en sciences de la vie, de la rédaction et de la poursuite à la détection de contrefaçon. »
Considérons le contexte concurrentiel. Le même jour où Opus 4.7 a été lancé, Alibaba a publié Qwen3.6-35B — un modèle gratuit sous licence Apache 2.0, exécutable sur un ordinateur portable avec environ 3,5 milliards de paramètres actifs. Le test de référence SVG pélican de Simon Willison a montré le modèle local surpassant Opus 4.7 sur les tâches de génération créative. Lorsqu'un modèle local gratuit égale une API à 15 $/MTok sur des tâches créatives en quelques heures après le lancement, la proposition de valeur des modèles frontière se déplace définitivement de « qu'est-ce qu'il peut faire » à « dans quelle mesure le fait-il de manière fiable à grande échelle. » L'argument d'efficacité d'Opus 4.7 est la réponse d'Anthropic à ce changement.
Le cadrage du demi-pas délibéré n'est pas de la modestie. C'est Anthropic qui signale que l'ère des publications orientées performance est terminée. La prochaine phase concerne la fiabilité du déploiement, l'efficacité opérationnelle et la mise à disposition contrôlée des capacités à haut risque. Pour les équipes qui construisent sur Claude, c'est une meilleure nouvelle qu'un nouveau record de référence.
Foire aux questions
Claude Opus 4.7 est-il meilleur que Claude Mythos Preview ?
Non — Anthropic déclare explicitement qu'Opus 4.7 est « moins largement capable » que Mythos Preview. Opus 4.7 excelle en ingénierie logicielle, en vision et dans le respect des instructions, mais Mythos conserve une capacité brute supérieure sur un plus large éventail de tâches. Opus 4.7 est le modèle optimisé pour la production ; Mythos est le modèle de recherche frontière à disponibilité limitée.
Quel est le tarif de Claude Opus 4.7 ?
La tarification est identique à Opus 4.6 : 5 $ par million de tokens en entrée et 25 $ par million de tokens en sortie. Les gains d'efficacité (moins de tokens par tâche, moins de tentatives) signifient que votre coût effectif par tâche accomplie diminue probablement. Opus 4.7 est disponible via l'API Claude, Amazon Bedrock, Google Cloud Vertex AI et Microsoft Foundry.
Qu'est-ce que Project Glasswing et comment affecte-t-il Opus 4.7 ?
Project Glasswing est le cadre de sécurité cybersécurité d'Anthropic, annoncé le 9 avril 2026. Il a conduit à des contraintes délibérées sur les capacités cyber d'Opus 4.7 — le modèle a été entraîné avec une capacité réduite à reproduire des vulnérabilités de sécurité. Des protections automatisées bloquent les demandes en cybersécurité interdites. Les professionnels de la sécurité légitimes peuvent candidater au Cyber Verification Program pour accéder aux capacités complètes.
Dois-je passer d'Opus 4.6 à Opus 4.7 ?
Oui, pour la plupart des cas d'usage en production. Les testeurs anticipés rapportent systématiquement une qualité égale ou supérieure avec une consommation de tokens moindre. Hex note qu'« Opus 4.7 à faible effort est à peu près équivalent à Opus 4.6 à effort moyen », ce qui signifie que vous obtenez un résultat de niveau Opus 4.6 en utilisant moins de ressources de calcul. La mise à niveau est un remplacement transparent sans changement de tarification.
Qu'est-ce qui s'est le plus amélioré dans Opus 4.7 par rapport à Opus 4.6 ?
Le raisonnement visuel a enregistré le gain mesurable le plus important — les tests indépendants ont mesuré un bond de 69,1 % à 82,1 %. Les références en ingénierie logicielle se sont améliorées de 12 à 14 % chez plusieurs évaluateurs. Le respect des instructions et la fiabilité dans l'utilisation des outils se sont également améliorés de manière significative, Notion faisant état de 33 % moins d'erreurs d'outils. Le codage terminal agentique, en revanche, a montré une amélioration minimale dans les tests de référence indépendants.