
Le plus frappant dans Project Glasswing n’est peut-être pas seulement le modèle d’Anthropic, mais la taille du pari financier qui l’accompagne. Comme l’a raconté Reuters, Anthropic a promis 100 millions de dollars en crédits d’usage pour permettre à des organisations de tester Claude Mythos Preview dans un cadre strictement défensif.
Dit autrement, l’entreprise ne vend pas seulement une IA plus forte en cybersécurité. Elle subventionne l’expérimentation à très grande échelle autour d’un modèle considéré comme trop dangereux pour une diffusion publique classique. La page officielle de Project Glasswing et le descriptif produit d’Anthropic confirment cette logique : priorité à la sécurisation des logiciels critiques, pas au lancement grand public.
Ce que montre vraiment cette enveloppe géante, c’est que la cyberdéfense ne se joue plus à petite échelle
Le projet réunit déjà AWS, Apple, Cisco, CrowdStrike, Google, JPMorganChase, Microsoft, Nvidia, Palo Alto Networks et la Linux Foundation, comme le rappelle la newsroom Anthropic. Ce casting change la lecture du sujet. On ne parle pas d’un simple pilote de laboratoire. On parle d’une coalition qui teste une IA de frontier model sur les couches les plus sensibles de l’infrastructure logicielle.

Le billet consacré à Claude Mythos Preview explique d’ailleurs pourquoi le modèle reste sous contrôle : ses capacités en cybersécurité sont assez élevées pour avoir révélé des milliers de vulnérabilités importantes dans des systèmes très utilisés. Et la Linux Foundation insiste sur le fait que l’accès prioritaire vise les mainteneurs de logiciels critiques et d’infrastructures ouvertes.
Le signal devient encore plus net quand on regarde la réaction des régulateurs. Reuters a rapporté le 12 avril que les régulateurs financiers britanniques se sont empressés d’évaluer les risques liés à Mythos Preview. Cela dit bien où la bataille se déplace : on n’essaie plus seulement de stopper des cyberattaques humaines classiques, on anticipe ce que des modèles très avancés peuvent rendre possible, en défense comme en attaque. — à lire aussi : La Chine veut freiner les humains digitaux et les services addictifs pour enfants….
Pourquoi le chiffre de 100 millions compte autant que le modèle lui-même
Parce qu’il raconte un changement de posture. Quand une entreprise met une telle somme en crédits à disposition, elle reconnaît implicitement que la sécurité logicielle ne peut plus être traitée comme un simple coût marginal. Il faut des essais, du temps machine, des équipes, des scénarios, des intégrations et une forme de course contre la montre. The Verge résume très bien cette bascule : l’IA ne détecte plus seulement des bugs, elle commence à parcourir toute la chaîne, de la découverte à la proposition de correctifs.
Il faut évidemment garder la tête froide. Anthropic a intérêt à dramatiser l’importance de son initiative. Mais même en laissant une part à la communication, le sujet reste fort. Offrir 100 millions de crédits ne ressemble pas à un gadget promo. Cela ressemble à la reconnaissance du fait que le logiciel critique doit maintenant être testé avec des moyens bien plus massifs que ceux d’hier.

Le plus intéressant, au fond, est peut-être là. La cyberdéfense se déplace vers une logique d’ampleur industrielle. Il ne s’agit plus seulement de former des analystes ou d’ajouter des couches d’alertes. Il s’agit aussi de savoir qui aura accès aux modèles, au calcul et aux partenariats capables de sécuriser plus vite que les attaquants ne progressent.
Offrir 100 millions de crédits pour tester une IA défensive, c’est donc une autre manière de montrer où la bataille cyber se déplace. Plus haut, plus vite, plus cher, et beaucoup plus près de l’infrastructure vitale qu’on ne le raconte d’habitude.
Article créé en collaboration avec l’IA.





