OpenAI, Anthropic, et le brouillard de la guerre de l'IA

Le président Donald Trump a ordonné à toutes les agences fédérales vendredi après-midi d’arrêter d’utiliser la technologie d’IA d’Anthropic. Ce soir-là, le Pentagone a qualifié l’entreprise de risque pour la chaîne d’approvisionnement, une désignation généralement réservée aux entreprises chinoises suspectées d’espionnage, ce qui signifie qu’elle pourrait obliger toute entreprise travaillant avec le Département de la Défense à prouver qu’elle n’utilise pas les outils d’Anthropic.

Le lendemain, les États-Unis ont frappé l’Iran avec les outils d’Anthropic encore en fonctionnement dans le quartier général militaire au Moyen-Orient, le Commandement Central, en les utilisant pour la ciblage et les systèmes de renseignement. Trump avait accordé aux agences six mois pour éliminer cette technologie, reconnaissant tacitement qu’on ne peut pas retirer l’IA des opérations militaires du jour au lendemain.

La rupture entre l’administration et Anthropic concerne principalement les garde-fous. La société a déclaré qu’elle refusait que ses outils soient utilisés pour des armes autonomes ou la surveillance de masse, et n’a pas cédé lorsque des responsables ont exigé une permission générale pour utiliser la technologie dans n’importe quel scénario légal. Le PDG d’Anthropic, Dario Amodei, a déclaré que l’entreprise ne pouvait pas donner son accord en conscience. Trump a répondu en qualifiant Anthropic de « société radicale de gauche, woke » qui ne dictera jamais comment l’armée combat.

Quelques heures après l’interdiction, OpenAI a annoncé un nouveau contrat pour déployer ses modèles dans des environnements classifiés du Pentagone. Le PDG d’OpenAI, Sam Altman, a révélé un détail notable : l’accord inclut les mêmes interdictions concernant la surveillance de masse et les armes autonomes que celles qu’Anthropic avait demandées. Le Pentagone, a-t-il écrit sur X, « partage ces principes, les reflète dans la loi et la politique, et nous les avons intégrés dans notre accord. »

Ainsi, l’entreprise qui a été mise sur liste noire et celle qui a été récompensée semblent avoir obtenu des conditions essentiellement similaires. La différence réside probablement dans la politique, ou plus précisément, dans la perception de l’obéissance que cette administration semble exiger du secteur privé. Le président d’OpenAI a donné 25 millions de dollars à un super PAC pro-Trump l’année dernière. Anthropic a embauché des responsables de l’administration Biden et a fait du lobbying pour la régulation de l’IA.

Comme l’a dit un ancien responsable de l’IA militaire du premier mandat de Trump : Anthropic paie le prix de ne pas s’être incliné.

Ce que nous ne savons pas est pire que ce que nous savons

La manœuvre politique aurait moins d’importance si cela ne se déroulait pas dans le contexte d’un conflit réel. Le Wall Street Journal a rapporté que Claude, l’IA d’Anthropic, était intégrée dans l’opération iranienne de samedi, utilisée pour des évaluations de renseignement, l’identification de cibles et des simulations de combat. Le Commandement Central a refusé de commenter sur des systèmes spécifiques impliqués dans les opérations en cours.

Puis est venue une question plus difficile. Lorsqu’un incident de mauvais ciblage aurait tué plus de 150 enfants en Iran, les observateurs extérieurs ont immédiatement demandé si l’IA aurait pu contribuer à l’erreur. La réponse honnête est que personne en dehors du Pentagone ne sait, et le Pentagone ne dit rien. Le secrétaire à la Défense, Pete Hegseth, qui a misé sa carrière sur une adoption agressive de l’IA, n’a que peu d’incitations à être transparent.

Les erreurs de ciblage ne sont pas nouvelles, mais l’introduction de l’IA générative dans la chaîne de ciblage l’est. Il s’agit d’une technologie qui hallucine encore des faits, mal interprète des images et trébuche dans le raisonnement en contexte commercial à faible enjeu. La déployer en situation de guerre, où les conséquences d’une erreur peuvent se mesurer en vies humaines, représente un saut que ni le militaire ni personne d’autre n’a rigoureusement testé.

Le rejet par le public a compliqué la victoire. L’application Claude d’Anthropic est devenue la plus téléchargée sur l’App Store. Une campagne de boycott populaire a incité les utilisateurs à abandonner ChatGPT à cause de l’accord du Pentagone avec OpenAI. Sur X, Altman a été confronté à une série de questions pointues : si le contrat d’OpenAI permet toutes les utilisations légales, comment peut-il aussi interdire la surveillance de masse et les armes autonomes, qui n’ont pas d’interdiction légale explicite ? Si OpenAI a obtenu les mêmes lignes rouges qu’Anthropic, pourquoi le Pentagone n’a-t-il pas accepté ces conditions d’Anthropic ? Ces contradictions ont une importance au-delà du discours.

Ces entreprises sont engagées dans une compétition féroce pour attirer des utilisateurs payants, des clients d’entreprise et des talents en ingénierie. Aucune n’est rentable. Les deux brûlent des milliards et ont levé des dizaines de milliards ces dernières semaines pour rester dans la course. Les contrats avec le Pentagone valent environ 200 millions de dollars chacun, ce qui n’est pas le plus gros chèque que ces entreprises encaisseront cette année, mais c’est soudainement la plus grande menace pour leurs activités.

Pour Anthropic, la désignation de risque pour la chaîne d’approvisionnement va bien au-delà du Pentagone. Toute entreprise faisant affaire avec le gouvernement fédéral, y compris les plus grands soutiens d’Anthropic, Amazon et Google, pourrait devoir prouver qu’elle n’utilise pas Claude. C’est une question qui pourrait avoir des répercussions sur les ventes aux entreprises, les partenariats cloud et les décisions d’investissement bien au-delà de la défense.

Pour OpenAI, la question d’un accord pour une utilisation classifiée n’est qu’un point dans une négociation contractuelle. C’est une autre histoire lorsque des bombes tombent réellement et que les questions sur les garde-fous, les erreurs de ciblage et les enfants morts n’ont pas de réponses claires. La perception que votre chatbot aide à choisir des cibles de bombardement n’est pas un problème de marque que quelques réponses sur les réseaux sociaux peuvent résoudre.

📬 Inscrivez-vous au Briefing Quotidien

Notre briefing gratuit, rapide et ludique sur l’économie mondiale, livré chaque matin en semaine.

Inscrivez-moi

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)