Payer en
USD
Acheter & Vendre
Hot
Achetez et vendez des cryptomonnaies via Apple Pay, cartes bancaires, Google Pay, virements bancaires et d'autres méthodes de paiement.
P2P
0 Fees
Zéro frais, +400 options de paiement et une expérience ultra fluide pour acheter et vendre vos cryptos
Carte Gate
Carte de paiement crypto, permettant d'effectuer des transactions mondiales en toute transparence.
Basique
Spot
Échangez des cryptos librement
Marge
Augmentez vos bénéfices grâce à l'effet de levier
Convertir & Auto-investir
0 Fees
Tradez n’importe quel volume sans frais ni slippage
ETF
Soyez facilement exposé à des positions à effet de levier
Pré-marché
Trade de nouveaux jetons avant qu'ils ne soient officiellement listés
Avancé
DEX
Effectuez des transactions on-chain avec Gate Wallet
Alpha
Points
Obtenez des actifs prometteurs dans le cadre d'un trading on-chain rationalisé
Bots
Trade en un clic avec des stratégies intelligentes automatisées
Copier
Join for $500
Accroître sa richesse en suivant les meilleurs traders
CrossEx Trading
Beta
Un seul solde de marge, partagé par toutes les plateformes
Futures
Des centaines de contrats réglés en USDT ou en BTC
TradFi
Or
Tradez des actifs traditionnels mondiaux avec des USDT en un seul endroit
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Lancement Futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez à des événements pour gagner de généreuses récompenses
Trading démo
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez des actifs on-chain et profitez des récompenses en airdrop !
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Acheter à bas prix et vendre à prix élevé pour tirer profit des fluctuations de prix
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Gestion de patrimoine VIP
La gestion qui fait grandir votre richesse
Gestion privée de patrimoine
Gestion personnalisée des actifs pour accroître vos actifs numériques
Fonds Quant
Une équipe de gestion d'actifs de premier plan vous aide à réaliser des bénéfices en toute simplicité
Staking
Stakez des cryptos pour gagner avec les produits PoS.
Levier Smart
New
Pas de liquidation forcée avant l'échéance, des gains à effet de levier en toute sérénité
Mint de GUSD
Utilisez des USDT/USDC pour minter des GUSD et obtenir des rendements de niveau trésorerie
La querelle entre Anthropic et OpenAI et leur différend avec le Pentagone révèlent un problème plus profond avec la sécurité de l'IA
Bienvenue à Eye on AI, avec la journaliste en IA Sharon Goldman. Dans cette édition : Trump a un problème de centre de données IA avant les midterms… Ne faites pas confiance à l’IA pour remplir vos déclarations fiscales… L’outil IA Claude d’Anthropic est au cœur de la campagne américaine en Iran, au milieu d’une querelle acerbe.
Vidéo recommandée
Le débat sur la sécurité de l’IA se concentre souvent sur la technologie elle-même — à quel point les modèles puissants pourraient devenir, ou quels risques ils pourraient poser. Mais le conflit cette semaine impliquant Anthropic, OpenAI et le Pentagone souligne un problème plus profond : combien de pouvoir sur l’avenir de l’IA est concentré entre les mains de quelques dirigeants d’entreprises et responsables gouvernementaux décidant comment ces systèmes sont construits, déployés et utilisés.
Depuis des années, les critiques de l’industrie mettent en garde contre le risque de « capture industrielle » — un avenir où le développement de systèmes d’IA puissants serait concentré entre les mains de quelques entreprises travaillant en étroite collaboration avec les gouvernements, rendant la sécurité de ces systèmes dépendante des incitations et rivalités des personnes qui les dirigent. En 2023, par exemple, le chercheur Yoshua Bengio a déclaré que le risque que le secteur de l’IA soit contrôlé par quelques entreprises était le « deuxième problème » derrière les risques existentiels posés par la technologie.
Il n’est donc pas très rassurant de lire hier que le PDG d’Anthropic, Dario Amodei, a exprimé son mépris envers le PDG d’OpenAI, Sam Altman, dans une note interne divulguée. La missive en colère d’Amodei, qui aurait été envoyée via Slack à tous ses employés, fait suite à l’annonce par OpenAI d’un accord pour fournir de l’IA au Pentagone, et le secrétaire à la guerre Pete Hegseth a déclaré qu’il considérait Anthropic comme un « risque dans la chaîne d’approvisionnement » pour ne pas avoir conclu un accord similaire avec son département.
Amodei a qualifié la communication d’OpenAI de « mendacieuse », de « théâtre de la sécurité » et « d’exemple de ce qu’ils sont vraiment », tout en décrivant plusieurs commentaires d’Altman comme « des mensonges purs » et du « gaslighting ».
Altman a lui aussi lancé des attaques publiques contre Anthropic. Il a récemment qualifié l’une des campagnes du Super Bowl de l’entreprise de « manifestement malhonnête » et l’a accusée de « doubles discours ». La rivalité s’est aussi manifestée de manière plus symbolique : lors d’un sommet récent, Altman et Amodei sont devenus viraux en refusant de se tenir la main pour une photo de groupe avec le Premier ministre Narendra Modi.
Avec le peu d’action du gouvernement américain pour réguler l’IA — et les efforts internationaux sur la sécurité de l’IA largement bloqués — le monde dépend essentiellement de l’autorégulation de l’industrie. OpenAI et Anthropic ont tous deux publiquement soutenu ce paradigme et signé des engagements volontaires en matière de sécurité. Ils ont aussi collaboré parfois pour réaliser des évaluations de sécurité indépendantes de leurs modèles avant leur lancement.
Mais lorsque les dirigeants des deux laboratoires d’IA les plus influents semblent incapables de s’entendre, et que la compétition entre eux est si féroce, cela soulève une question inconfortable : à quel point peut-on espérer une coopération réelle en matière de sécurité ?
La pression de la compétition a déjà impacté ces deux entreprises en matière de sécurité de l’IA. Anthropic a récemment modifié sa Politique de développement responsable pour dire qu’elle ne retarderait plus le développement d’un nouveau modèle simplement parce qu’elle ne sait pas encore comment le rendre sûr. De son côté, OpenAI a aussi ajusté ses politiques, en supprimant en 2024 l’interdiction explicite d’utilisation militaire et de guerre, et en recentrant ses efforts du côté du développement produit plutôt que de la recherche en sécurité. L’ancien responsable de la super-alignement, Jan Leike (qui a rejoint Anthropic en 2024), a écrit sur X que chez OpenAI « la culture et les processus de sécurité ont été relégués au second plan face à des produits brillants ».
L’approche actuelle en matière de sécurité suppose que les entreprises et les gouvernements agiront avec retenue. Mais l’avenir de la sécurité de l’IA pourrait dépendre de la façon dont une petite élite de puissants acteurs naviguera entre la compétition, la géopolitique et les soap operas de la Silicon Valley.
Voici plus d’actualités sur l’IA.
Sharon Goldman
sharon.goldman@fortune.com
@sharongoldman
FORTUNE SUR L’IA
Pourquoi le fonds spéculatif IA de Leopold Aschenbrenner mise gros sur les compagnies d’énergie et les mineurs de bitcoin pour alimenter la course à la « superintelligence » — par Sharon Goldman
OpenAI voit ses utilisateurs de Codex atteindre 1,6 million, positionnant l’outil de codage comme une porte d’entrée vers des agents IA pour les entreprises — par Jeremy Kahn
La startup coréenne wrtn est en passe de dépasser 100 millions de dollars de revenus récurrents annuels, profitant d’un boom alimenté par une épidémie de solitude dans le domaine de l’IA divertissement — par Nicolas Gordon
ACTUALITÉS SUR L’IA
Trump a un problème de centre de données IA avant les midterms. CNBC et d’autres ont rapporté que le président Trump fait face à un dilemme politique croissant alors que les États-Unis accélèrent la construction de centres de données IA gourmands en énergie avant les élections de 2026. L’infrastructure nécessaire pour alimenter le boom de l’IA suscite des inquiétudes concernant la hausse des prix de l’électricité et la surcharge du réseau, provoquant une réaction négative des électeurs et des communautés locales. En réponse, de grandes entreprises technologiques — dont OpenAI, Microsoft, Google, Amazon, Meta et Oracle — ont promis de couvrir les coûts énergétiques et d’infrastructure liés à leurs centres de données IA afin que les consommateurs ne voient pas leurs factures d’électricité augmenter. Cet accord volontaire, promu par la Maison Blanche pour apaiser les inquiétudes des électeurs, reflète une tension plus large : les décideurs veulent profiter des avantages économiques et géopolitiques d’une expansion rapide de l’IA, mais les énormes besoins en électricité de cette technologie créent des pressions politiques et environnementales de plus en plus difficiles à ignorer.
Ne faites pas confiance à l’IA pour remplir vos déclarations fiscales. Sans surprise, un test réalisé par The New York Times a montré que l’IA ne peut pas rivaliser avec le code fiscal américain, soulignant une limite importante des chatbots IA actuels : ils ont encore du mal avec des tâches nécessitant un raisonnement précis et en plusieurs étapes. Pour évaluer leur capacité à remplir une déclaration de revenus fédérale, le journal a testé quatre chatbots IA — Gemini de Google, ChatGPT d’OpenAI, Claude d’Anthropic et Grok de xAI — sur huit situations fiscales fictives. Ils ont échoué, lourdement, en calculant incorrectement le remboursement ou le montant dû à l’IRS, avec une erreur moyenne de plus de 2000 dollars. Même en fournissant tous les documents nécessaires, y compris tous les formulaires à remplir, les chatbots ont raté certains calculs. Ce problème reflète une limite fondamentale des grands modèles de langage : ils sont conçus pour prédire des mots probables plutôt que pour suivre précisément des informations complexes et interconnectées, ce qui les rend performants pour l’écriture et la synthèse, mais faibles pour des tâches procédurales comme la déclaration fiscale. Les experts estiment que ces systèmes pourraient s’améliorer avec des outils de raisonnement supplémentaires et des couches de vérification, mais pour l’instant, ils fonctionnent mieux comme assistants que comme remplaçants — un rappel que, même si l’IA transforme des industries entières, certaines tâches apparemment simples restent étonnamment difficiles.
L’outil IA Claude d’Anthropic est au cœur de la campagne américaine en Iran, au milieu d’une querelle acerbe. Un nouveau rapport du Washington Post met en lumière la rapidité avec laquelle l’IA est passée de l’expérimentation au champ de bataille. Selon le journal, l’armée américaine a utilisé un système de ciblage basé sur l’IA, appelé Maven Smart System — développé par Palantir et intégrant le modèle Claude d’Anthropic — pour identifier et hiérarchiser des cibles lors des opérations récentes en Iran, accélérant une planification qui prenait autrefois des semaines en une prise de décision quasi en temps réel. Cependant, cette utilisation intervient dans un contexte de conflit intense entre Anthropic et le Pentagone, notamment autour des limites d’utilisation de leur technologie en guerre, y compris des préoccupations concernant les armes autonomes et la surveillance de masse. Cet épisode souligne à la fois l’importance stratégique croissante des systèmes d’IA de pointe et la tension entre la demande gouvernementale de déploiement rapide et les efforts des entreprises pour définir des limites de sécurité.