La vague invisible

La vague invisible
Temps de lecture : 7 minutes ·

Quand l’IA révèle l’écart entre notre puissance et notre niveau de conscience

Table des matières

1       Le signal : L’annonce.

2       La rupture est déjà là.

3       Blessures : La vengeance comme variable géopolitique.

4       Au-delà ?

5       Science sans conscience.

V01-04/26

Audio : Résumé et discussion autour de l’article

Mythos est un modèle d’IA développé par Anthropic, capable d’identifier et d’exploiter des vulnérabilités inédites dans les grands systèmes d’exploitation, navigateurs et logiciels critiques. Il a déjà trouvé des milliers de failles sévères, dont certaines étaient restées invisibles pendant des décennies. Anthropic a choisi de ne pas le diffuser publiquement et de le réserver à un nombre limité d’acteurs via Project Glasswing. Des responsables américains ont alerté en urgence des dirigeants bancaires sur les risques liés à ce modèle.

1          Le signal : L’annonce.

Project Glasswing est un signal.

Anthropic vient de rassembler Amazon Web Services, Apple, Google, Microsoft, Cisco, Broadcom, Nvidia, CrowdStrike, Palo Alto Networks, JPMorganChase et la Linux Foundation autour d’un modèle d’IA encore non diffusé, baptisé Claude Mythos Preview. L’objectif affiché est défensif : sécuriser les logiciels les plus critiques du monde avant que la menace ne devienne incontrôlable. Mais ce que cette annonce révèle, en creux, est bien plus vertigineux que ce qu’elle prétend résoudre.

Mythos a déjà trouvé des milliers de failles de haute sévérité. Dans tous les grands systèmes d’exploitation. Dans tous les grands navigateurs web. Certaines de ces vulnérabilités avaient traversé des années, parfois des décennies, de revue humaine et de tests automatisés sans jamais être détectées. Mythos les a vues. Mythos a aussi, dans de nombreux cas, développé les exploits associés sans pilotage humain fin.

Ce n’est pas une faille de plus. C’est un changement de régime.

Et ce changement ne se limite pas au logiciel. Les failles matérielles, firmware, microcode, puces embarquées, sont par nature autrement plus difficiles à corriger : on ne patch pas un composant gravé dans le silicium. Spectre et Meltdown l’avaient déjà montré en 2018 : des vulnérabilités inscrites dans l’architecture même des processeurs, présentes depuis des années, et dont les correctifs n’ont jamais vraiment résolu le problème à la racine. Si Mythos explore ce niveau-là, le déséquilibre entre attaque et défense devient structurellement irréversible.

Mythos n’est pas seulement une avancée technique de plus. C’est le signe qu’une frontière a été franchie. Lorsqu’une IA peut découvrir à grande échelle des failles inédites dans les briques les plus critiques du monde numérique, le problème n’est plus un bug isolé, mais la possibilité d’un déséquilibre systémique entre la puissance d’attaque et la capacité humaine à défendre, corriger et anticiper. L’IA n’aide plus seulement à corriger des systèmes, elle peut rendre visible à grande vitesse ce que personne n’avait encore vu dans leurs failles.

Ce qui demandait hier des équipes rares, une expertise quasi introuvable et des années de travail peut désormais être exploré en quelques heures par un système qui n’a pas besoin de dormir, de douter, ni de se souvenir de ses limites. Le fait que des responsables américains aient alerté en urgence les dirigeants des grandes banques sur les risques liés à ce modèle dit une chose simple : on n’est plus dans le registre de l’innovation. On est dans le registre de la rupture systémique.

2          La rupture est déjà là

Et cette rupture n’appartient pas à un horizon lointain.

Anthropic le dit elle-même : ces capacités vont avancer substantiellement dans les prochains mois. Pas dans dix ans. Ce que Mythos fait aujourd’hui dans un cadre contrôlé, d’autres systèmes l’approcheront demain, peut-être sans le même cadre, peut-être sans les mêmes garde-fous, peut-être entre des mains que personne n’aura choisies.

Ce déséquilibre entre la puissance d’attaque et la capacité de défense n’est pas une projection. Il est déjà visible ailleurs. Dans le conflit entre l’Iran et les États-Unis, la même structure asymétrique est à l’œuvre des frappes à coût marginal, par drones et missiles de croisière produits en masse, face à des interceptions qui coûte bien plus cher, et le conflit s’étend par généralisation.

L’attaquant n’est pas nécessairement plus puissant, il est structurellement plus rentable. Le volume potentiel d’attaques dépasse la capacité humaine à défendre, corriger, absorber. Mythos introduit cette même logique dans le monde numérique.

Trouver une faille coûte désormais infiniment moins cher que de sécuriser l’ensemble d’une infrastructure. Et comme sur le terrain militaire, le rapport coût/effet a basculé d’un côté sans que l’autre ait eu le temps de s’adapter.

Il y a quelque chose de solennel, presque d’irréversible, dans le geste d’Anthropic. En annonçant Glasswing publiquement, ils défendent, mais ils signalent aussi. Ils disent au monde entier que ce seuil existe, qu’il est franchi, qu’il est atteignable. Vouloir protéger en annonçant, c’est aussi, qu’on le veuille ou non, cartographier l’horizon pour tous ceux qui cherchent à l’atteindre.

3          Blessures : La vengeance comme variable géopolitique

Mais avant de parler de demain, il faut regarder ce qui s’est déjà joué.

Le conflit entre l’administration Trump et Anthropic n’était pas anodin. Il portait sur des lignes que l’entreprise refusait de franchir : certains garde-fous liés à la surveillance intérieure, aux armes autonomes. En réponse, Trump a ordonné aux agences fédérales d’abandonner progressivement la technologie d’Anthropic. Le Pentagone l’a traitée comme un risque de chaîne d’approvisionnement. La tension était déjà extrêmement élevée, sans que personne n’ait encore répondu sur le registre de la vengeance.

Ce détail est essentiel.

Reuters a documenté la logique de représailles ou punitive, de vengeance à l’œuvre dans le second mandat de Trump : pas seulement une formule de campagne, mais un usage concret du pouvoir contre des ennemis perçus, avec au moins 470 cibles identifiées. Transposée au cas Anthropic, cette logique donne le vertige. Sur le conflit Anthropic, il avait qualifié l’entreprise de « fous furieux de la gauche radicale », dirigée par « des gens qui n’ont aucune idée de ce qu’est le monde réel ». Sur l’Iran, il écrivait : « espèce de tarés », « vous vivrez en Enfer. » Le registre de menace, d’injure punitive et d’humiliation existait déjà. Amodei aurait pu le retourner à son propriétaire, il ne l’a pas fait, et à ce niveau de puissance, ce refus compte.

C’est peut-être ce choix-là, qui a évité le pire et empêché le conflit de basculer dans une logique de pure revanche.

Car si Amodei et Anthropic avaient répondu sur le même registre, celui de l’injure, de la menace et des représailles déjà publiquement assumé par Trump sur Truth Social, la trajectoire aurait pu être catastrophique.

Pas sous la forme d’une victoire spectaculaire d’Anthropic, mais sous la forme d’une guerre ouverte avec l’État américain : accélération de l’exclusion des agences, bascule plus rapide des administrations vers des concurrents, transformation d’un désaccord sur les garde-fous en soupçon durable de déloyauté stratégique. Une spirale dont la forme finale est impossible à prévoir, et difficile à arrêter.

Ce qui a peut-être évité le pire n’est pas l’absence de conflit, c’est l’absence de vengeance.

Lorsqu’une puissance technologique de ce niveau répond à l’affront sur le ton de la revanche, elle ne protège plus une ligne éthique : elle entre dans une guerre de domination. Et dans un monde où quelques acteurs concentrent déjà une force quasi civilisationnelle, la blessure intérieure d’un dirigeant peut suffire à faire basculer l’histoire. Le vrai risque systémique n’est pas seulement l’IA puissante. C’est l’IA puissante tenue par un ego qui veut faire payer.

4          Au-delà ?

Mythos ne parle encore que de failles logicielles. C’est déjà immense.

Rien n’indique que cela s’arrêtera là.

Après le code informatique viendra, ou vient déjà, le code du vivant. La conception de protéines. L’édition du génome. La biologie programmable. Les chimies réparatrices ou destructrices. Là encore, la même puissance pourra servir le soin ou la domination, la réparation ou l’altération, la protection du vivant ou son instrumentalisation. Le danger n’est pas contenu dans l’outil. Il est dans le niveau de conscience de celui qui l’oriente.

C’est là que notre époque devient vertigineuse.

La puissance de l’homme, pendant longtemps, a été limitée par la lenteur de ses outils, par la fatigue de son corps, par l’épaisseur du réel, par le temps nécessaire pour comprendre, tester, construire, détruire. Cette limite n’était pas morale. Elle était matérielle. Elle freinait autant le bien que le mal.

Cette époque se fissure.

5          Science sans conscience

La technique, avec l’IA, n’avance plus à la mesure de la conscience humaine. Elle la dépasse, elle la devance, elle l’expose. Le problème n’est donc pas seulement la machine. Le problème est l’écart grandissant entre la puissance de faire et la maturité intérieure de ceux qui feront, seront acteurs de l’outil.

Un humain blessé, verrouillé, dissocié de lui-même, polarisé par la peur ou la domination, ne devient pas sage parce qu’il possède plus de puissance. Il devient seulement plus capable d’étendre ce qu’il est déjà. Si cette puissance rencontre un être relié, lucide, humble, elle peut réparer. Si elle rencontre un être gouverné par la coupure, elle peut aggraver le monde à une vitesse inédite.

Nous entrons dans une époque où l’humanité ne pourra plus se contenter d’être techniquement brillante et intérieurement immature. Ce décalage devient explosif. Il ne s’agit plus d’un débat abstrait sur le progrès. Il s’agit de savoir si la conscience, la responsabilité, la lucidité, la capacité à sentir les conséquences du vivant, progresseront assez vite pour ne pas être balayées par la puissance qu’elles ont libérée.

Tant que la limite intérieure tient, le conflit reste contenable. Le jour où la vengeance prend le volant, la technique cesse d’être un outil : elle devient une arme d’escalade.

C’est précisément ce travail, comprendre ce qui se passe à l’intérieur de celui qui agit, et comment cette structure intérieure détermine ce qu’il fait du monde, qui est au cœur de ce que We2 explore.

La question n’est plus de savoir si nous pourrons faire davantage.

La question est de savoir qui, en nous, fera ce davantage.

Sources en complément :

BlueHammer, faille zero-day publiée le 3 avril 2026 sur Windows Defender, sans patch ni CVE à ce jour, illustre ce déséquilibre : l’exploit est public, le correctif inexistant.

https://www.anthropic.com/glasswing

Anthropic a confirmé officiellement que Google, Microsoft, Cisco, Broadcom, Apple, AWS, Nvidia, CrowdStrike, Palo Alto Networks, JPMorganChase et la Linux Foundation font partie de Project Glasswing, créé pour “sécuriser les logiciels les plus critiques du monde”. Anthropic dit aussi que Mythos a déjà trouvé des milliers de vulnérabilités sévères, y compris dans every major operating system and web browser, et qu’ils ont ouvert l’accès à plus de 40 organisations supplémentaires qui maintiennent des infrastructures logicielles critiques

https://www.boursorama.com/bourse/actualites/selon-certaines-sources-bessent-et-powell-ont-averti-les-directeurs-generaux-de-banques-des-risques-lies-au-modele-anthropic-776d338f0c70035afe403530ecb1871d

https://www.lemonde.fr/international/article/2026/04/06/donald-trump-insulte-et-menace-les-iraniens-de-destructions-massives-en-cas-de-non-reouverture-du-detroit-d-ormuz_6677070_3210.html

https://www.pbs.org/newshour/politics/trump-orders-federal-agencies-to-stop-using-anthropic-tech-over-ai-safety-dispute

https://sfstandard.com/2026/02/27/anthropic-trump-blacklist


2 réponses à “La vague invisible”

  1. Avatar de A M
    A M

    Merci pour cet article éclairant et pour le lien fait avec l’être humain et sa capacité intérieure.
    Ces IAs sont générées et entraînées par des êtres humains qui ont aussi leurs propres limites intérieures. Je me demande comment les différents types de personnes travaillent sur ces projets peuvent impacter ces modèles puissants et prendre en compte ces écarts entre la puissance et nos capacités.

    1. Avatar de Vénoa

      Bonjour, merci pour ce retour.
      Oui, c’est précisément là que cela questionne. Les modèles ne sont pas neutres, ils portent les orientations, les arbitrages, parfois les états intérieurs de ceux qui les entraînent et les modifient.
      J’ai un article en préparation à ce sujet, avec des exemples très concrets, l’un des indicateurs les plus lisibles : lorsqu’un changement de comportement d’une IA est rapide, il est très probablement le fait d’une intervention humaine directe : les développeurs. L’apprentissage propre d’un modèle, lui, prend du temps, un basculement soudain de ton ou de posture est donc un signal, pas un hasard. Et ce signal questionne exactement ce que vous soulevez : depuis quel endroit intérieur ces orientations sont-elles prises, et vers quoi entraînent-elles le modèle sans que personne ne s’en aperçoive vraiment ? Et cela se perçoit concrètement entre deux versions d’un même modèle, le changement de ton, de posture, parfois de valeurs implicites, est mesurable.
      à bientôt pour la suite.
      Vénoa

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *