La querelle entre Anthropic et OpenAI et leur différend avec le Pentagone révèlent un problème plus profond avec la sécurité de l'IA

Bienvenue à Eye on AI, avec la journaliste en IA Sharon Goldman. Dans cette édition : Trump a un problème de centre de données IA avant les midterms… Ne faites pas confiance à l’IA pour remplir vos déclarations fiscales… L’outil IA Claude d’Anthropic est au cœur de la campagne américaine en Iran, au milieu d’une querelle acerbe.

Vidéo recommandée


Le débat sur la sécurité de l’IA se concentre souvent sur la technologie elle-même — à quel point les modèles puissants pourraient devenir, ou quels risques ils pourraient poser. Mais le conflit cette semaine impliquant Anthropic, OpenAI et le Pentagone souligne un problème plus profond : combien de pouvoir sur l’avenir de l’IA est concentré entre les mains de quelques dirigeants d’entreprises et responsables gouvernementaux décidant comment ces systèmes sont construits, déployés et utilisés.

Depuis des années, les critiques de l’industrie mettent en garde contre le risque de « capture industrielle » — un avenir où le développement de systèmes d’IA puissants serait concentré entre les mains de quelques entreprises travaillant en étroite collaboration avec les gouvernements, rendant la sécurité de ces systèmes dépendante des incitations et rivalités des personnes qui les dirigent. En 2023, par exemple, le chercheur Yoshua Bengio a déclaré que le risque que le secteur de l’IA soit contrôlé par quelques entreprises était le « deuxième problème » derrière les risques existentiels posés par la technologie.

Il n’est donc pas très rassurant de lire hier que le PDG d’Anthropic, Dario Amodei, a exprimé son mépris envers le PDG d’OpenAI, Sam Altman, dans une note interne divulguée. La missive en colère d’Amodei, qui aurait été envoyée via Slack à tous ses employés, fait suite à l’annonce par OpenAI d’un accord pour fournir de l’IA au Pentagone, et le secrétaire à la guerre Pete Hegseth a déclaré qu’il considérait Anthropic comme un « risque dans la chaîne d’approvisionnement » pour ne pas avoir conclu un accord similaire avec son département.

Amodei a qualifié la communication d’OpenAI de « mendacieuse », de « théâtre de la sécurité » et « d’exemple de ce qu’ils sont vraiment », tout en décrivant plusieurs commentaires d’Altman comme « des mensonges purs » et du « gaslighting ».

Altman a lui aussi lancé des attaques publiques contre Anthropic. Il a récemment qualifié l’une des campagnes du Super Bowl de l’entreprise de « manifestement malhonnête » et l’a accusée de « doubles discours ». La rivalité s’est aussi manifestée de manière plus symbolique : lors d’un sommet récent, Altman et Amodei sont devenus viraux en refusant de se tenir la main pour une photo de groupe avec le Premier ministre Narendra Modi.

Avec le peu d’action du gouvernement américain pour réguler l’IA — et les efforts internationaux sur la sécurité de l’IA largement bloqués — le monde dépend essentiellement de l’autorégulation de l’industrie. OpenAI et Anthropic ont tous deux publiquement soutenu ce paradigme et signé des engagements volontaires en matière de sécurité. Ils ont aussi collaboré parfois pour réaliser des évaluations de sécurité indépendantes de leurs modèles avant leur lancement.

Mais lorsque les dirigeants des deux laboratoires d’IA les plus influents semblent incapables de s’entendre, et que la compétition entre eux est si féroce, cela soulève une question inconfortable : à quel point peut-on espérer une coopération réelle en matière de sécurité ?

La pression de la compétition a déjà impacté ces deux entreprises en matière de sécurité de l’IA. Anthropic a récemment modifié sa Politique de développement responsable pour dire qu’elle ne retarderait plus le développement d’un nouveau modèle simplement parce qu’elle ne sait pas encore comment le rendre sûr. De son côté, OpenAI a aussi ajusté ses politiques, en supprimant en 2024 l’interdiction explicite d’utilisation militaire et de guerre, et en recentrant ses efforts du côté du développement produit plutôt que de la recherche en sécurité. L’ancien responsable de la super-alignement, Jan Leike (qui a rejoint Anthropic en 2024), a écrit sur X que chez OpenAI « la culture et les processus de sécurité ont été relégués au second plan face à des produits brillants ».

L’approche actuelle en matière de sécurité suppose que les entreprises et les gouvernements agiront avec retenue. Mais l’avenir de la sécurité de l’IA pourrait dépendre de la façon dont une petite élite de puissants acteurs naviguera entre la compétition, la géopolitique et les soap operas de la Silicon Valley.

Voici plus d’actualités sur l’IA.

Sharon Goldman
sharon.goldman@fortune.com
@sharongoldman

FORTUNE SUR L’IA

Pourquoi le fonds spéculatif IA de Leopold Aschenbrenner mise gros sur les compagnies d’énergie et les mineurs de bitcoin pour alimenter la course à la « superintelligence » — par Sharon Goldman

OpenAI voit ses utilisateurs de Codex atteindre 1,6 million, positionnant l’outil de codage comme une porte d’entrée vers des agents IA pour les entreprises — par Jeremy Kahn

La startup coréenne wrtn est en passe de dépasser 100 millions de dollars de revenus récurrents annuels, profitant d’un boom alimenté par une épidémie de solitude dans le domaine de l’IA divertissement — par Nicolas Gordon

ACTUALITÉS SUR L’IA

Trump a un problème de centre de données IA avant les midterms. CNBC et d’autres ont rapporté que le président Trump fait face à un dilemme politique croissant alors que les États-Unis accélèrent la construction de centres de données IA gourmands en énergie avant les élections de 2026. L’infrastructure nécessaire pour alimenter le boom de l’IA suscite des inquiétudes concernant la hausse des prix de l’électricité et la surcharge du réseau, provoquant une réaction négative des électeurs et des communautés locales. En réponse, de grandes entreprises technologiques — dont OpenAI, Microsoft, Google, Amazon, Meta et Oracle — ont promis de couvrir les coûts énergétiques et d’infrastructure liés à leurs centres de données IA afin que les consommateurs ne voient pas leurs factures d’électricité augmenter. Cet accord volontaire, promu par la Maison Blanche pour apaiser les inquiétudes des électeurs, reflète une tension plus large : les décideurs veulent profiter des avantages économiques et géopolitiques d’une expansion rapide de l’IA, mais les énormes besoins en électricité de cette technologie créent des pressions politiques et environnementales de plus en plus difficiles à ignorer.

Ne faites pas confiance à l’IA pour remplir vos déclarations fiscales. Sans surprise, un test réalisé par The New York Times a montré que l’IA ne peut pas rivaliser avec le code fiscal américain, soulignant une limite importante des chatbots IA actuels : ils ont encore du mal avec des tâches nécessitant un raisonnement précis et en plusieurs étapes. Pour évaluer leur capacité à remplir une déclaration de revenus fédérale, le journal a testé quatre chatbots IA — Gemini de Google, ChatGPT d’OpenAI, Claude d’Anthropic et Grok de xAI — sur huit situations fiscales fictives. Ils ont échoué, lourdement, en calculant incorrectement le remboursement ou le montant dû à l’IRS, avec une erreur moyenne de plus de 2000 dollars. Même en fournissant tous les documents nécessaires, y compris tous les formulaires à remplir, les chatbots ont raté certains calculs. Ce problème reflète une limite fondamentale des grands modèles de langage : ils sont conçus pour prédire des mots probables plutôt que pour suivre précisément des informations complexes et interconnectées, ce qui les rend performants pour l’écriture et la synthèse, mais faibles pour des tâches procédurales comme la déclaration fiscale. Les experts estiment que ces systèmes pourraient s’améliorer avec des outils de raisonnement supplémentaires et des couches de vérification, mais pour l’instant, ils fonctionnent mieux comme assistants que comme remplaçants — un rappel que, même si l’IA transforme des industries entières, certaines tâches apparemment simples restent étonnamment difficiles.

L’outil IA Claude d’Anthropic est au cœur de la campagne américaine en Iran, au milieu d’une querelle acerbe. Un nouveau rapport du Washington Post met en lumière la rapidité avec laquelle l’IA est passée de l’expérimentation au champ de bataille. Selon le journal, l’armée américaine a utilisé un système de ciblage basé sur l’IA, appelé Maven Smart System — développé par Palantir et intégrant le modèle Claude d’Anthropic — pour identifier et hiérarchiser des cibles lors des opérations récentes en Iran, accélérant une planification qui prenait autrefois des semaines en une prise de décision quasi en temps réel. Cependant, cette utilisation intervient dans un contexte de conflit intense entre Anthropic et le Pentagone, notamment autour des limites d’utilisation de leur technologie en guerre, y compris des préoccupations concernant les armes autonomes et la surveillance de masse. Cet épisode souligne à la fois l’importance stratégique croissante des systèmes d’IA de pointe et la tension entre la demande gouvernementale de déploiement rapide et les efforts des entreprises pour définir des limites de sécurité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler