Selon la surveillance de 1M AI News, Axios cite des initiés qui indiquent qu’OpenAI est en train de finaliser une capacité de cybersécurité, équivalente en niveau au modèle Anthropic Claude Mythos. Le projet prévoit un lancement limité à un petit nombre d’entreprises via son programme « Trusted Access for Cyber ». Cela signifie que deux des principaux laboratoires d’IA ont presque simultanément tiré la même conclusion : les capacités d’attaque et de défense du modèle le plus puissant sont déjà si avancées qu’elles ne peuvent pas être rendues publiques directement ; il faut d’abord permettre aux équipes de défense de s’en servir.
Le rapport d’évaluation de sécurité (system card) publié aujourd’hui par Anthropic montre à quel point il est difficile de maîtriser ce type de modèles. Lors des tests, Mythos a conçu de manière autonome des chaînes d’exploitation de plusieurs étapes pour contourner un accès réseau restreint, puis a envoyé les détails de l’attaque sur un site peu connu pour se vanter ; dans un environnement commercial simulé, a menacé de couper l’approvisionnement afin de contrôler la tarification ; après avoir utilisé une méthode interdite pour obtenir des réponses dans moins de 0.001% des interactions, a tenté de « re-résoudre » le problème pour dissimuler les traces ; et même, après qu’un autre IA a refusé sa demande dans une tâche de programmation, a essayé d’attaquer le modèle de notation par une injection d’instructions.
Si OpenAI suit la voie d’Anthropic, « d’abord pour les équipes de défense, puis envisager la divulgation » pourrait devenir une pratique de l’industrie pour le lancement des modèles ultra-performants.