La semaine a été marquée par une nouvelle alertant sur les risques liés à la sécurité informatique dans le secteur en pleine expansion de l’intelligence artificielle générative. Un simple défaut de configuration chez Anthropic, acteur majeur du secteur, a conduit à la divulgation accidentelle de documents sensibles concernant Claude Mythos, leur prochaine génération de modèle d’IA, également connue sous le nom de Capybara.
Décrite en interne comme « le modèle le plus performant jamais créé » par l’entreprise, la technologie s’accompagnerait d’un bond radical en matière de capacités offensives dans le cyberespace. Selon les documents ayant fuité, Claude Mythos pourrait exploiter des vulnérabilités logicielles à une échelle dépassant largement les capacités actuelles de défense – une perspective qui inquiète jusqu’à ses propres concepteurs. Si l’usage coordonné de l’IA pour la cyberdéfense est bien documenté, l’émergence de puissants modèles susceptibles de donner un avantage aux attaquants pose un défi de taille aux institutions financières, technologiques et gouvernementales.
Suite à cette révélation, la stratégie retenue par Anthropic consiste à limiter initialement l’accès au modèle à des équipes chargées de la cybersécurité, dans une démarche de précaution et de compréhension approfondie des risques. La crainte est justifiée par l’augmentation observée d’attaques informatiques assistées par intelligence artificielle, y compris une tentative de piratage, fin 2025, orchestrée via Claude Code par un groupe lié à des intérêts étatiques chinois. Ce précédent démontre combien la sophistication croissante de ces outils exacerbe la vulnérabilité des infrastructures stratégiques et, par ricochet, la stabilité des marchés.
Cette affaire survient alors qu’Anthropic est engagé dans une bataille juridique avec le Pentagone, qui cherche à interdire l’utilisation de ses modèles au sein des agences fédérales, invoquant des risques pour la sécurité nationale. Une décision judiciaire récente a toutefois gelé cette interdiction, soulignant la complexité de réglementer des technologies capables à la fois de protection et de menace. Symptomatique de ces tensions, le Pentagone aurait eu recours à la technologie d’Anthropic pour des opérations militaires, quelques heures à peine après l’avoir officiellement restreinte.
Dans ce contexte, la montée en puissance de l’IA alimente la réflexion sur la sécurité – non seulement des systèmes critiques ou de l’information, mais également du patrimoine financier. Les institutions et investisseurs sont désormais confrontés à la double problématique d’une dépendance croissante à la technologie et d’un accroissement des expositions aux risques non traditionnels, difficilement détectables ou assurables. Dans un environnement marqué par la sophistication des menaces et une innovation réglementaire à la traîne, la question de la matérialisation du capital s’invite à nouveau dans les stratégies de gestion patrimoniale.
Face à l’essor de risques technologiques systémiques, la diversification des actifs semble regagner en actualité : immobilier, or, objets de valeur ou encore actifs tangibles sont régulièrement évoqués comme remparts contre les vulnérabilités du système financier numérique. Dans un monde où l’intangible – estimations capitalistiques, crypto-actifs, services IA – prend une place prépondérante dans la valeur globale, la sécurisation d’une part du patrimoine via des véhicules moins exposés aux cyberattaques et à la volatilité technologique apparaît comme une tentation raisonnable pour un nombre croissant d’investisseurs privés.
Alors que la confiance dans les grandes institutions technologiques subit des soubresauts et que les arbitrages réglementaires peinent à suivre le rythme de l’innovation, la fuite d’informations sur Claude Mythos rappelle que la fiabilité des systèmes et la robustesse de la protection du capital sont appelées à demeurer au cœur des stratégies économiques et financières dans les années à venir.
