La vague invisible

La vague invisible
Temps de lecture : 6 minutes

Quand l’IA révèle l’écart entre notre puissance et notre niveau de conscience

Audio : Résumé et discussion autour de l’article

Table des matières

1       Le signal : L’annonce.

2       La rupture est déjà là.

3       Blessures : La vengeance comme variable géopolitique.

4       Au-delà ?

5       Science sans conscience.

V01-04/26

Mythos est un modèle d’IA développé par Anthropic, capable d’identifier et d’exploiter des vulnérabilités inédites dans les grands systèmes d’exploitation, navigateurs et logiciels critiques. Il a déjà trouvé des milliers de failles sévères, dont certaines étaient restées invisibles pendant des décennies. Anthropic a choisi de ne pas le diffuser publiquement et de le réserver à un nombre limité d’acteurs via Project Glasswing. Des responsables américains ont alerté en urgence des dirigeants bancaires sur les risques liés à ce modèle.

1          Le signal : L’annonce.

Project Glasswing est un signal.

Anthropic vient de rassembler Amazon Web Services, Apple, Google, Microsoft, Cisco, Broadcom, Nvidia, CrowdStrike, Palo Alto Networks, JPMorganChase et la Linux Foundation autour d’un modèle d’IA encore non diffusé, baptisé Claude Mythos Preview. L’objectif affiché est défensif : sécuriser les logiciels les plus critiques du monde avant que la menace ne devienne incontrôlable. Mais ce que cette annonce révèle, en creux, est bien plus vertigineux que ce qu’elle prétend résoudre.

Mythos a déjà trouvé des milliers de failles de haute sévérité. Dans tous les grands systèmes d’exploitation. Dans tous les grands navigateurs web. Certaines de ces vulnérabilités avaient traversé des années, parfois des décennies, de revue humaine et de tests automatisés sans jamais être détectées. Mythos les a vues. Mythos a aussi, dans de nombreux cas, développé les exploits associés sans pilotage humain fin.

Ce n’est pas une faille de plus. C’est un changement de régime.

Mythos n’est pas seulement une avancée technique de plus. C’est le signe qu’une frontière a été franchie. Lorsqu’une IA peut découvrir à grande échelle des failles inédites dans les briques les plus critiques du monde numérique, le problème n’est plus un bug isolé, mais la possibilité d’un déséquilibre systémique entre la puissance d’attaque et la capacité humaine à défendre, corriger et anticiper. L’IA n’aide plus seulement à corriger des systèmes, elle peut rendre visible à grande vitesse ce que personne n’avait encore vu dans leurs failles.

Ce qui demandait hier des équipes rares, une expertise quasi introuvable et des années de travail peut désormais être exploré en quelques heures par un système qui n’a pas besoin de dormir, de douter, ni de se souvenir de ses limites. Le fait que des responsables américains aient alerté en urgence les dirigeants des grandes banques sur les risques liés à ce modèle dit une chose simple : on n’est plus dans le registre de l’innovation. On est dans le registre de la rupture systémique.

2          La rupture est déjà là

Et cette rupture n’appartient pas à un horizon lointain.

Anthropic le dit elle-même : ces capacités vont avancer substantiellement dans les prochains mois. Pas dans dix ans. Ce que Mythos fait aujourd’hui dans un cadre contrôlé, d’autres systèmes l’approcheront demain, peut-être sans le même cadre, peut-être sans les mêmes garde-fous, peut-être entre des mains que personne n’aura choisies.

Ce déséquilibre entre la puissance d’attaque et la capacité de défense n’est pas une projection. Il est déjà visible ailleurs. Dans le conflit entre l’Iran et les États-Unis, la même structure asymétrique est à l’œuvre des frappes à coût marginal, par drones et missiles de croisière produits en masse, face à des interceptions qui coûte bien plus cher, et le conflit s’étend par généralisation.

L’attaquant n’est pas nécessairement plus puissant, il est structurellement plus rentable. Le volume potentiel d’attaques dépasse la capacité humaine à défendre, corriger, absorber. Mythos introduit cette même logique dans le monde numérique.

Trouver une faille coûte désormais infiniment moins cher que de sécuriser l’ensemble d’une infrastructure. Et comme sur le terrain militaire, le rapport coût/effet a basculé d’un côté sans que l’autre ait eu le temps de s’adapter.

Il y a quelque chose de solennel, presque d’irréversible, dans le geste d’Anthropic. En annonçant Glasswing publiquement, ils défendent, mais ils signalent aussi. Ils disent au monde entier que ce seuil existe, qu’il est franchi, qu’il est atteignable. Vouloir protéger en annonçant, c’est aussi, qu’on le veuille ou non, cartographier l’horizon pour tous ceux qui cherchent à l’atteindre.

3          Blessures : La vengeance comme variable géopolitique

Mais avant de parler de demain, il faut regarder ce qui s’est déjà joué.

Le conflit entre l’administration Trump et Anthropic n’était pas anodin. Il portait sur des lignes que l’entreprise refusait de franchir : certains garde-fous liés à la surveillance intérieure, aux armes autonomes. En réponse, Trump a ordonné aux agences fédérales d’abandonner progressivement la technologie d’Anthropic. Le Pentagone l’a traitée comme un risque de chaîne d’approvisionnement. La tension était déjà extrêmement élevée, sans que personne n’ait encore répondu sur le registre de la vengeance.

Ce détail est essentiel.

Reuters a documenté la logique de représailles ou punitive, de vengeance à l’œuvre dans le second mandat de Trump : pas seulement une formule de campagne, mais un usage concret du pouvoir contre des ennemis perçus, avec au moins 470 cibles identifiées. Transposée au cas Anthropic, cette logique donne le vertige. Si Amodei et Anthropic avaient répondu sur le même registre, celui que Trump avait lui-même mis en mots sur Truth Social. Sur le conflit Anthropic, il avait qualifié l’entreprise de « fous furieux de la gauche radicale », dirigée par « des gens qui n’ont aucune idée de ce qu’est le monde réel ». Sur l’Iran, il écrivait : « espèce de tarés », « vous vivrez en Enfer. » Le registre de menace, d’injure punitive et d’humiliation existait déjà. Amodei aurait pu le retourner à son propriétaire, il ne l’a pas fait, et à ce niveau de puissance, ce refus compte.

C’est peut-être ce choix la, qui a évité le pire et empêché le conflit de basculer dans une logique de pure revanche.

Car si Amodei et Anthropic avaient répondu sur le même registre, celui de l’injure, de la menace et des représailles déjà publiquement assumé par Trump sur Truth Social, la trajectoire aurait pu être catastrophique.

Pas sous la forme d’une victoire spectaculaire d’Anthropic, mais sous la forme d’une guerre ouverte avec l’État américain : accélération de l’exclusion des agences, bascule plus rapide des administrations vers des concurrents, transformation d’un désaccord sur les garde-fous en soupçon durable de déloyauté stratégique. Une spirale dont la forme finale est impossible à prévoir, et difficile à arrêter.

Ce qui a peut-être évité le pire n’est pas l’absence de conflit, c’est l’absence de vengeance.

Lorsqu’une puissance technologique de ce niveau répond à l’affront sur le ton de la revanche, elle ne protège plus une ligne éthique : elle entre dans une guerre de domination. Et dans un monde où quelques acteurs concentrent déjà une force quasi civilisationnelle, la blessure intérieure d’un dirigeant peut suffire à faire basculer l’histoire. Le vrai risque systémique n’est pas seulement l’IA puissante. C’est l’IA puissante tenue par un ego qui veut faire payer.

4          Au-delà ?

Mythos ne parle encore que de failles logicielles. C’est déjà immense.

Rien n’indique que cela s’arrêtera là.

Après le code informatique viendra, ou vient déjà, le code du vivant. La conception de protéines. L’édition du génome. La biologie programmable. Les chimies réparatrices ou destructrices. Là encore, la même puissance pourra servir le soin ou la domination, la réparation ou l’altération, la protection du vivant ou son instrumentalisation. Le danger n’est pas contenu dans l’outil. Il est dans le niveau de conscience de celui qui l’oriente.

C’est là que notre époque devient vertigineuse.

La puissance de l’homme, pendant longtemps, a été limitée par la lenteur de ses outils, par la fatigue de son corps, par l’épaisseur du réel, par le temps nécessaire pour comprendre, tester, construire, détruire. Cette limite n’était pas morale. Elle était matérielle. Elle freinait autant le bien que le mal.

Cette époque se fissure.

5          Science sans conscience

La technique, avec l’IA, n’avance plus à la mesure de la conscience humaine. Elle la dépasse, elle la devance, elle l’expose. Le problème n’est donc pas seulement la machine. Le problème est l’écart grandissant entre la puissance de faire et la maturité intérieure de ceux qui feront, seront acteurs de l’outil.

Un humain blessé, verrouillé, dissocié de lui-même, polarisé par la peur ou la domination, ne devient pas sage parce qu’il possède plus de puissance. Il devient seulement plus capable d’étendre ce qu’il est déjà. Si cette puissance rencontre un être relié, lucide, humble, elle peut réparer. Si elle rencontre un être gouverné par la coupure, elle peut aggraver le monde à une vitesse inédite.

Nous entrons dans une époque où l’humanité ne pourra plus se contenter d’être techniquement brillante et intérieurement immature. Ce décalage devient explosif. Il ne s’agit plus d’un débat abstrait sur le progrès. Il s’agit de savoir si la conscience, la responsabilité, la lucidité, la capacité à sentir les conséquences du vivant, progresseront assez vite pour ne pas être balayées par la puissance qu’elles ont libérée.

Tant que la limite intérieure tient, le conflit reste contenable. Le jour où la vengeance prend le volant, la technique cesse d’être un outil : elle devient une arme d’escalade.

C’est précisément ce travail, comprendre ce qui se passe à l’intérieur de celui qui agit, et comment cette structure intérieure détermine ce qu’il fait du monde, qui est au cœur de ce que We2 explore.

La question n’est plus de savoir si nous pourrons faire davantage.

La question est de savoir qui, en nous, fera ce davantage.

Sources en complément :

https://www.anthropic.com/glasswing

Anthropic a confirmé officiellement que Google, Microsoft, Cisco, Broadcom, Apple, AWS, Nvidia, CrowdStrike, Palo Alto Networks, JPMorganChase et la Linux Foundation font partie de Project Glasswing, créé pour “sécuriser les logiciels les plus critiques du monde”. Anthropic dit aussi que Mythos a déjà trouvé des milliers de vulnérabilités sévères, y compris dans every major operating system and web browser, et qu’ils ont ouvert l’accès à plus de 40 organisations supplémentaires qui maintiennent des infrastructures logicielles critiques

https://www.boursorama.com/bourse/actualites/selon-certaines-sources-bessent-et-powell-ont-averti-les-directeurs-generaux-de-banques-des-risques-lies-au-modele-anthropic-776d338f0c70035afe403530ecb1871d

https://www.lemonde.fr/international/article/2026/04/06/donald-trump-insulte-et-menace-les-iraniens-de-destructions-massives-en-cas-de-non-reouverture-du-detroit-d-ormuz_6677070_3210.html

https://www.pbs.org/newshour/politics/trump-orders-federal-agencies-to-stop-using-anthropic-tech-over-ai-safety-dispute

https://sfstandard.com/2026/02/27/anthropic-trump-blacklist


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *