Le secrétaire au Trésor américain Scott Bessent et le président de la Réserve fédérale Jerome Powell ont convoqué discrètement plusieurs dirigeants des plus grandes banques de Wall Street pour évoquer les risques liés à un nouveau modèle d’intelligence artificielle développé par Anthropic. Baptisé « Mythos », ce système serait capable d’identifier rapidement des vulnérabilités dans des systèmes informatiques majeurs et d’en proposer l’exploitation, suscitant des inquiétudes immédiates du côté des régulateurs financiers.
Selon les informations rapportées par Bloomberg, la réunion a rassemblé les dirigeants de grandes institutions financières américaines afin de les inciter à renforcer leurs défenses. L’accès au modèle resterait pour l’instant limité à un nombre restreint d’entreprises technologiques, le temps d’évaluer les risques et de mettre en place des garde-fous. Les autorités redoutent qu’un tel outil, s’il était détourné, permette d’automatiser la découverte de failles à grande échelle et d’accélérer la préparation d’attaques informatiques sophistiquées.
Ce signal d’alerte intervient dans un contexte où les grandes infrastructures financières sont déjà considérées comme des cibles prioritaires pour des acteurs étatiques ou criminels. L’irruption de modèles d’IA capables d’industrialiser la recherche de vulnérabilités modifie l’équilibre entre défense et attaque. Ce choix de convoquer directement les PDG traduit l’inquiétude des autorités face à un risque systémique : une faille exploitée simultanément dans plusieurs institutions pourrait provoquer des perturbations rapides du système financier.
Il est permis de s’interroger sur le décalage entre la vitesse de développement de ces modèles et la capacité des régulateurs à encadrer leur diffusion. Le fait que l’alerte soit traitée au plus haut niveau monétaire et financier souligne que l’IA n’est plus seulement un enjeu technologique, mais une question de stabilité économique. Dans ce contexte, les banques sont incitées à revoir leurs dispositifs de cybersécurité, tandis que la diffusion contrôlée du modèle vise à éviter une mise à disposition trop rapide d’outils potentiellement offensifs.
Sources
- Bloomberg — https://www.bloomberg.com/news/articles/2026-04-10/anthropic-model-scare-sparks-urgent-bessent-powell-warning-to-bank-ceos
- YouTube — https://www.youtube.com/watch?v=WWER3rhFeEM