Analyse approfondie de la grande stratégie AI de Microsoft : ne pas investir dans la course à la puissance de calcul, ne pas parier sur les LLM, vouloir devenir le système d'exploitation mondial pour les agents AI.
Microsoft a publié ses résultats financiers du troisième trimestre 2025, avec des revenus et des bénéfices largement supérieurs aux attentes du marché. Les revenus de ce trimestre s'élèvent à 77,67 milliards de dollars, en hausse de 18 % par rapport à l'année précédente, et le bénéfice par action est de 3,72 dollars. La clé réside dans le département cloud, avec un taux de croissance des revenus Azure de 40 %. Cependant, pour renforcer ses capacités en IA et cloud, les dépenses d'investissement (CapEx) ont grimpé à 34,9 milliards de dollars, atteignant un niveau record. De plus, en raison de l'impact des investissements d'OpenAI, les pertes et profits exceptionnels ont diminué de 3,7 milliards de dollars. Malgré des fondamentaux solides, l'accélération des dépenses d'investissement reste le principal risque surveillé par les investisseurs.
(OpenAI a complété sa restructuration de capital et a créé PBC ! Dernière valorisation 5000 milliards de dollars, Microsoft détient 27% des parts)
En 2025, alors que toute l'industrie de l'IA est en pleine expansion de puissance de calcul, Microsoft prend le contre-pied. Cette entreprise a discrètement suspendu la construction de certains centres de données, suscitant des interrogations : Microsoft ralentit-elle dans la frénésie mondiale des infrastructures d'IA ? Cependant, le PDG de Microsoft, Satya Nadella, a révélé une pensée stratégique totalement différente lors d'une récente interview approfondie et d'une conférence téléphonique : Microsoft n'est pas lent, mais comprend mieux que quiconque que la compétition de la prochaine génération d'IA ne reposera pas sur un modèle unique, ni sur le fait de tout parier sur une seule génération de GPU.
Microsoft n'a pas verrouillé OpenAI, mais a développé un écosystème horizontal et vertical.
L'extérieur pense généralement que : Microsoft a investi des milliards de dollars dans OpenAI, il est donc naturel que la direction technologique soit profondément liée à la série GPT. Mais les déclarations de Nadella sont en revanche très différentes. Il a clairement indiqué qu'il existe en fait un risque structurel au sein des entreprises de modèles de langage à grande échelle :
« Si vous êtes une entreprise de modèles, il est probable que vous fassiez face à la “malédiction du gagnant” : l'innovation que vous avez durement réalisée, dès qu'elle est copiée une fois, devient immédiatement une marchandise. » Son message est très clair : personne ne sait quel type de structure de modèle va l'emporter. Pire encore : les modèles open source et le fine-tuning d'entreprise peuvent rattraper les modèles de pointe en peu de temps. En d'autres termes, la capacité du modèle que vous avez formée avec 50 milliards de dollars pourrait être égalée instantanément par un modèle open source qui a été ajusté avec des données privées.
La couche d'échafaudage (scaffolding) est le fossé de protection de l'IA, l'intégration des infrastructures, modèles et agents de Microsoft.
Ainsi, Microsoft ne va pas lier son avenir uniquement à GPT, mais utilisera simultanément les modèles de pointe d'OpenAI, tout en soutenant l'open source et d'autres fournisseurs comme Meta, Anthropic(. Nadella estime que les modèles eux-mêmes vont progressivement se commodifier. La véritable barrière de protection ne réside pas dans le modèle, mais dans la couche de soutien)scaffolding(. Par conséquent, tout en développant son propre modèle MAI, il y a également Copilot, Azure et d'autres produits pour cultiver son propre écosystème. Posséder des données et maîtriser l'ingénierie contextuelle, c'est la véritable barrière de protection de Microsoft.
Microsoft n'est pas incapable de construire, mais ne veut pas construire de gigantesques centres de données pour une génération de GPU.
En 2025, de nombreuses entreprises construisent frénétiquement des centres de données GB200. Mais la stratégie de Microsoft est complètement différente : arrêter la construction de certains centres de données et louer de la puissance de calcul à des neocloud externes et à des entreprises minières. Quant à la raison derrière cela, Nadella a déclaré : Je ne veux pas construire un centre de données de plusieurs gigawatts qui ne puisse être utilisé que par une certaine génération de GPU ou une certaine architecture de modèle.
Il explique que la conception et les besoins du GB200 sont différents de ceux du GB300, et qu'avec le Vera Rubin Ultra, la consommation d'énergie et les besoins en refroidissement seront complètement différents. La stratégie de Microsoft est de développer une infrastructure capable de croître avec le temps, plutôt que de laisser des fonds bloqués dans une infrastructure qui semble impressionnante mais qui devient un coût irrécupérable en quelques mois.
Le coût de construction des centres de données de l'IA est supérieur à la moitié consacré à l'achat de GPU.
) Barclays a abaissé la note d'Oracle ORCL, proche de la catégorie de junk bonds ! L'augmentation des CapEx pourrait interrompre les flux de trésorerie l'année prochaine (
Selon des rapports, le coût de construction des centres de données AI atteint 50 à 60 milliards de dollars par GW, soit trois fois celui des centres de données traditionnels, plus de la moitié des coûts provenant de l'achat de matériels de calcul GPU tels que NVIDIA. Depuis le début de 2025, les prévisions de CapEx des entreprises technologiques mondiales pour les prochaines années ont presque doublé. Parmi eux, Oracle ) a un ratio d'endettement de 500 %, Barclays estime qu'avec un CapEx stable, la trésorerie pourrait être épuisée dès novembre prochain. En comparaison, le ratio d'endettement de Microsoft n'est que de 30 %, ce qui représente une situation financière relativement saine.
Des professionnels de l'industrie révèlent que la durée de vie réelle des CPU des centres de données AI n'est que de 1 à 3 ans.
Des professionnels de l'industrie ayant un background chez Google révèlent que les CPU utilisés pour les centres de données AI ont une durée de vie de seulement 1 à 3 ans.
Le protagoniste du grand short, Michael Burry, a également déclaré que de nombreuses entreprises d'IA prétendant que la durée d'utilisation de l'IA n'est pas vraiment aussi longue. Elles prolongent la durée d'utilisation pour embellir le montant des amortissements annuel dans leurs rapports financiers. Burry estime qu'entre 2026 et 2028, le montant sous-estimé des amortissements cumulés des grands fournisseurs de cloud atteindra 176 milliards de dollars. Sur cette base, il prédit : « D'ici 2028, le bénéfice d'Oracle ( sera surestimé de 26,9 %, tandis que celui de Meta sera surestimé de 20,8 %. »
) Le protagoniste de la grande vente à découvert, Michael Burry, critique à nouveau les géants de l'IA : sous-estimation de l'amortissement et gonflement des bénéfices sont des fraudes modernes (
Microsoft ne veut pas être paralysé par les dépenses en capital et achète de la puissance de calcul auprès des entreprises minières.
Nadella a souligné la fongibilité ) l'interchangeabilité (, les conditions dans lesquelles Microsoft est prêt à investir massivement sont de pouvoir s'adapter à plusieurs grands modèles linguistiques, d'effectuer une formation en plusieurs étapes, de générer des données et d'inférer, tout en prenant en charge plusieurs générations de GPU, c'est seulement alors qu'il y a un sens à l'investissement. C'est pourquoi Microsoft préfère louer de la puissance de calcul externe plutôt que d'être contraint par une génération de puces unique. Cela explique également pourquoi de nombreux fournisseurs de cloud computing comme IREN sont devenus des partenaires de Microsoft récemment, plutôt que des concurrents.
)IREN a signé un contrat de 9,7 milliards de dollars avec Microsoft pour l'IA dans le cloud, le cours de l'action a augmenté de plus de 7%(
Le modèle commercial de Microsoft est passé de B2C à B2A.
Le modèle commercial de Microsoft dans le passé était de vendre des services logiciels aux consommateurs, aujourd'hui leur objectif est de vendre de l'infrastructure aux agents IA )Business to Agent(. Microsoft ne cherche pas à gagner la guerre des modèles, mais à devenir le Microsoft de l'ère des agents IA. Les modèles deviendront plus nombreux, plus récents et plus puissants. Le matériel sera de plus en plus dense et consommera plus d'énergie à chaque génération. Les centres de données seront continuellement redessinés par de nouvelles demandes énergétiques. Mais une chose ne changera pas : les agents IA ont besoin d'une infrastructure de classe mondiale, fiable, auditée et compatible entre les générations pour fonctionner.
Ce que Microsoft doit faire, c'est cela. C'est aussi le véritable message que Satya Nadella a voulu transmettre dans cette interview : les modèles vont changer, les puces vont changer, mais “l'environnement d'exécution des agents IA” est le champ de bataille qui reste constant.
Cet article analyse en profondeur la grande stratégie AI de Microsoft : ne pas investir dans la course à la puissance de calcul, ne pas parier sur les LLM, mais devenir le système d'exploitation mondial pour les agents AI, apparu pour la première fois dans Chain News ABMedia.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Analyse approfondie de la grande stratégie AI de Microsoft : ne pas investir dans la course à la puissance de calcul, ne pas parier sur les LLM, vouloir devenir le système d'exploitation mondial pour les agents AI.
Microsoft a publié ses résultats financiers du troisième trimestre 2025, avec des revenus et des bénéfices largement supérieurs aux attentes du marché. Les revenus de ce trimestre s'élèvent à 77,67 milliards de dollars, en hausse de 18 % par rapport à l'année précédente, et le bénéfice par action est de 3,72 dollars. La clé réside dans le département cloud, avec un taux de croissance des revenus Azure de 40 %. Cependant, pour renforcer ses capacités en IA et cloud, les dépenses d'investissement (CapEx) ont grimpé à 34,9 milliards de dollars, atteignant un niveau record. De plus, en raison de l'impact des investissements d'OpenAI, les pertes et profits exceptionnels ont diminué de 3,7 milliards de dollars. Malgré des fondamentaux solides, l'accélération des dépenses d'investissement reste le principal risque surveillé par les investisseurs.
(OpenAI a complété sa restructuration de capital et a créé PBC ! Dernière valorisation 5000 milliards de dollars, Microsoft détient 27% des parts)
En 2025, alors que toute l'industrie de l'IA est en pleine expansion de puissance de calcul, Microsoft prend le contre-pied. Cette entreprise a discrètement suspendu la construction de certains centres de données, suscitant des interrogations : Microsoft ralentit-elle dans la frénésie mondiale des infrastructures d'IA ? Cependant, le PDG de Microsoft, Satya Nadella, a révélé une pensée stratégique totalement différente lors d'une récente interview approfondie et d'une conférence téléphonique : Microsoft n'est pas lent, mais comprend mieux que quiconque que la compétition de la prochaine génération d'IA ne reposera pas sur un modèle unique, ni sur le fait de tout parier sur une seule génération de GPU.
Microsoft n'a pas verrouillé OpenAI, mais a développé un écosystème horizontal et vertical.
L'extérieur pense généralement que : Microsoft a investi des milliards de dollars dans OpenAI, il est donc naturel que la direction technologique soit profondément liée à la série GPT. Mais les déclarations de Nadella sont en revanche très différentes. Il a clairement indiqué qu'il existe en fait un risque structurel au sein des entreprises de modèles de langage à grande échelle :
« Si vous êtes une entreprise de modèles, il est probable que vous fassiez face à la “malédiction du gagnant” : l'innovation que vous avez durement réalisée, dès qu'elle est copiée une fois, devient immédiatement une marchandise. » Son message est très clair : personne ne sait quel type de structure de modèle va l'emporter. Pire encore : les modèles open source et le fine-tuning d'entreprise peuvent rattraper les modèles de pointe en peu de temps. En d'autres termes, la capacité du modèle que vous avez formée avec 50 milliards de dollars pourrait être égalée instantanément par un modèle open source qui a été ajusté avec des données privées.
La couche d'échafaudage (scaffolding) est le fossé de protection de l'IA, l'intégration des infrastructures, modèles et agents de Microsoft.
Ainsi, Microsoft ne va pas lier son avenir uniquement à GPT, mais utilisera simultanément les modèles de pointe d'OpenAI, tout en soutenant l'open source et d'autres fournisseurs comme Meta, Anthropic(. Nadella estime que les modèles eux-mêmes vont progressivement se commodifier. La véritable barrière de protection ne réside pas dans le modèle, mais dans la couche de soutien)scaffolding(. Par conséquent, tout en développant son propre modèle MAI, il y a également Copilot, Azure et d'autres produits pour cultiver son propre écosystème. Posséder des données et maîtriser l'ingénierie contextuelle, c'est la véritable barrière de protection de Microsoft.
Microsoft n'est pas incapable de construire, mais ne veut pas construire de gigantesques centres de données pour une génération de GPU.
En 2025, de nombreuses entreprises construisent frénétiquement des centres de données GB200. Mais la stratégie de Microsoft est complètement différente : arrêter la construction de certains centres de données et louer de la puissance de calcul à des neocloud externes et à des entreprises minières. Quant à la raison derrière cela, Nadella a déclaré : Je ne veux pas construire un centre de données de plusieurs gigawatts qui ne puisse être utilisé que par une certaine génération de GPU ou une certaine architecture de modèle.
Il explique que la conception et les besoins du GB200 sont différents de ceux du GB300, et qu'avec le Vera Rubin Ultra, la consommation d'énergie et les besoins en refroidissement seront complètement différents. La stratégie de Microsoft est de développer une infrastructure capable de croître avec le temps, plutôt que de laisser des fonds bloqués dans une infrastructure qui semble impressionnante mais qui devient un coût irrécupérable en quelques mois.
Le coût de construction des centres de données de l'IA est supérieur à la moitié consacré à l'achat de GPU.
) Barclays a abaissé la note d'Oracle ORCL, proche de la catégorie de junk bonds ! L'augmentation des CapEx pourrait interrompre les flux de trésorerie l'année prochaine (
Selon des rapports, le coût de construction des centres de données AI atteint 50 à 60 milliards de dollars par GW, soit trois fois celui des centres de données traditionnels, plus de la moitié des coûts provenant de l'achat de matériels de calcul GPU tels que NVIDIA. Depuis le début de 2025, les prévisions de CapEx des entreprises technologiques mondiales pour les prochaines années ont presque doublé. Parmi eux, Oracle ) a un ratio d'endettement de 500 %, Barclays estime qu'avec un CapEx stable, la trésorerie pourrait être épuisée dès novembre prochain. En comparaison, le ratio d'endettement de Microsoft n'est que de 30 %, ce qui représente une situation financière relativement saine.
Des professionnels de l'industrie révèlent que la durée de vie réelle des CPU des centres de données AI n'est que de 1 à 3 ans.
Des professionnels de l'industrie ayant un background chez Google révèlent que les CPU utilisés pour les centres de données AI ont une durée de vie de seulement 1 à 3 ans.
Le protagoniste du grand short, Michael Burry, a également déclaré que de nombreuses entreprises d'IA prétendant que la durée d'utilisation de l'IA n'est pas vraiment aussi longue. Elles prolongent la durée d'utilisation pour embellir le montant des amortissements annuel dans leurs rapports financiers. Burry estime qu'entre 2026 et 2028, le montant sous-estimé des amortissements cumulés des grands fournisseurs de cloud atteindra 176 milliards de dollars. Sur cette base, il prédit : « D'ici 2028, le bénéfice d'Oracle ( sera surestimé de 26,9 %, tandis que celui de Meta sera surestimé de 20,8 %. »
) Le protagoniste de la grande vente à découvert, Michael Burry, critique à nouveau les géants de l'IA : sous-estimation de l'amortissement et gonflement des bénéfices sont des fraudes modernes (
Microsoft ne veut pas être paralysé par les dépenses en capital et achète de la puissance de calcul auprès des entreprises minières.
Nadella a souligné la fongibilité ) l'interchangeabilité (, les conditions dans lesquelles Microsoft est prêt à investir massivement sont de pouvoir s'adapter à plusieurs grands modèles linguistiques, d'effectuer une formation en plusieurs étapes, de générer des données et d'inférer, tout en prenant en charge plusieurs générations de GPU, c'est seulement alors qu'il y a un sens à l'investissement. C'est pourquoi Microsoft préfère louer de la puissance de calcul externe plutôt que d'être contraint par une génération de puces unique. Cela explique également pourquoi de nombreux fournisseurs de cloud computing comme IREN sont devenus des partenaires de Microsoft récemment, plutôt que des concurrents.
)IREN a signé un contrat de 9,7 milliards de dollars avec Microsoft pour l'IA dans le cloud, le cours de l'action a augmenté de plus de 7%(
Le modèle commercial de Microsoft est passé de B2C à B2A.
Le modèle commercial de Microsoft dans le passé était de vendre des services logiciels aux consommateurs, aujourd'hui leur objectif est de vendre de l'infrastructure aux agents IA )Business to Agent(. Microsoft ne cherche pas à gagner la guerre des modèles, mais à devenir le Microsoft de l'ère des agents IA. Les modèles deviendront plus nombreux, plus récents et plus puissants. Le matériel sera de plus en plus dense et consommera plus d'énergie à chaque génération. Les centres de données seront continuellement redessinés par de nouvelles demandes énergétiques. Mais une chose ne changera pas : les agents IA ont besoin d'une infrastructure de classe mondiale, fiable, auditée et compatible entre les générations pour fonctionner.
Ce que Microsoft doit faire, c'est cela. C'est aussi le véritable message que Satya Nadella a voulu transmettre dans cette interview : les modèles vont changer, les puces vont changer, mais “l'environnement d'exécution des agents IA” est le champ de bataille qui reste constant.
Cet article analyse en profondeur la grande stratégie AI de Microsoft : ne pas investir dans la course à la puissance de calcul, ne pas parier sur les LLM, mais devenir le système d'exploitation mondial pour les agents AI, apparu pour la première fois dans Chain News ABMedia.