Cybersécurité IA : course entre OpenAI et Anthropic

La cybersécurité de l’IA est désormais un front compétitif officiel entre OpenAI et Anthropic, OpenAI finalisant un produit de sécurité avancé pour une sortie à un partenaire limité et Anthropic menant un effort strictement contrôlé appelé Projet Glasswing visant à détecter les vulnérabilités logicielles critiques avant que les attaquants ne le fassent.

Résumé

  • OpenAI finalise un produit de cybersécurité IA pour une sortie d’abord à un groupe limité de partenaires.
  • Le Projet Glasswing d’Anthropic est une initiative contrôlée axée sur la chasse proactive aux vulnérabilités logicielles critiques.
  • Les deux efforts soulèvent des questions fondamentales sur qui contrôle les outils d’offensive et de défense de l’IA et qui est responsable en cas de problème.

L’intelligence artificielle est passée d’un outil aidant les défenseurs à comprendre les menaces à un outil pouvant identifier et exploiter indépendamment des vulnérabilités. OpenAI et Anthropic s’engagent désormais directement dans cet espace, avec des implications pour les gouvernements, les entreprises et les millions de systèmes logiciels qui soutiennent l’infrastructure financière mondiale.

OpenAI finalise un produit de sécurité tandis qu’Anthropic lance Glasswing

OpenAI finalise un produit de cybersécurité IA doté de capacités avancées et prévoit de le lancer initialement à un groupe limité de partenaires, selon Tech Startups. Anthropic mène un effort parallèle en interne appelé Projet Glasswing, une initiative strictement contrôlée conçue pour traquer les vulnérabilités logicielles critiques avant que des acteurs malveillants ne les découvrent en premier.

Les deux annonces marquent un changement dans la façon dont les deux principaux laboratoires d’IA se positionnent. Tous deux passent de l’IA à usage général à des produits spécifiques à la sécurité avec des capacités offensives et défensives directes. La question n’est plus ce que l’IA peut faire en cybersécurité. Il s’agit de qui la contrôle et qui est responsable lorsque cela tourne mal.

Ce que montre le bilan d’Anthropic

Anthropic a déjà démontré l’ampleur de ce que les outils de sécurité IA peuvent réaliser. Comme l’a rapporté crypto.news, l’entreprise a limité l’accès à son modèle Claude Mythos Preview après que des tests précoces ont révélé qu’il pouvait découvrir des milliers de vulnérabilités critiques dans des environnements logiciels largement utilisés, y compris une faille vieille de 27 ans dans OpenBSD et une faille d’exécution à distance vieille de 16 ans dans FreeBSD. Anthropic a déclaré : « Compte tenu du rythme des progrès de l’IA, il ne faudra pas longtemps avant que de telles capacités se généralisent, potentiellement au-delà des acteurs qui s’engagent à les déployer en toute sécurité. »

Les données industrielles citées par Anthropic montrent une augmentation de 72 % des cyberattaques alimentées par l’IA d’une année sur l’autre, avec 87 % des organisations mondiales signalant une exposition à des incidents liés à l’IA en 2025. Le Projet Glasswing est présenté comme l’effort contrôlé d’Anthropic pour rester en avance sur cette courbe.

Le risque des outils de sécurité IA à double usage

La question plus profonde pour les régulateurs et l’industrie est que le même outil d’IA qui détecte une vulnérabilité à des fins défensives peut la découvrir à des fins offensives. Comme l’a noté crypto.news, une étude conjointe d’Anthropic et des MATS Fellows a révélé que Claude Sonnet et GPT-5 pouvaient produire des exploits simulés contre des contrats intelligents Ethereum d’une valeur de 4,6 millions de dollars lors des tests, et ont découvert deux vulnérabilités zero-day inédites dans près de 3 000 contrats récemment déployés.

Cette réalité à double usage rend essentielles les stratégies de déploiement contrôlé que poursuivent les deux entreprises. Mais la question de savoir si un accès limité suffit à empêcher la prolifération reste sans réponse complète de la part de ces laboratoires.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler