NVIDIA crée des vagues de 5 billions de dollars ! Le fossé CUDA enferme les entreprises d'IA du monde entier, personne ne peut s'en échapper.

Le 30 octobre, la capitalisation boursière d'NVIDIA a dépassé 5 trillions de dollars, devenant la seule entreprise au monde à atteindre ce jalon. Cependant, après cette révélation, une grande confusion est survenue : puisque l'industrie des puces AI est si lucrative, pourquoi ne voit-on que NVIDIA en train de gagner de l'argent ? La réponse réside dans la barrière à l'entrée qu'NVIDIA a construite en près de 20 ans - CUDA, cette architecture unifiée de matériel de calcul a verrouillé plus de 4,5 millions de développeurs dans le monde.

Les concurrents d'Intel sont tous des experts de haut niveau, pourquoi personne ne peut les rivaliser ?

Est-ce qu'Intel a des concurrents ? Oui. Beaucoup. Et chacun d'eux est un expert de premier plan. En regardant autour de nous, nous pouvons au moins en compter trois de « concurrents » de poids. Par exemple, AMD. Il est un vieux rival d'Intel depuis des décennies dans le domaine des semi-conducteurs. En termes de technologie et d'expérience, il est absolument le plus qualifié pour rivaliser avec Intel. Par exemple, Intel. C'était le « maître des puces » autrefois. Sa capacité de production est forte, et sa base de clients est grande. Par exemple, Google. Il dispose presque de ressources infinies et d'une équipe d'IA de classe mondiale. De plus, il développe également ses propres puces AI dédiées.

Regarde, ces trois géants, lequel de leurs noms n'est pas connu dans le monde entier ? Mais cela rend aussi le problème plus aigu : à la table, il y a clairement des experts, mais les jetons semblent tous être entre les mains d'un seul joueur. Pourquoi cela ?

Pour commencer par la réponse, NVIDIA utilise un système avec un “coût de migration” extrêmement élevé qui verrouille fermement ses clients. Vous pourriez dire que c'est parce que les puces de NVIDIA sont les plus rapides et les meilleures. Mais en réalité, cette réponse n'est pas assez rigoureuse. Imaginez une scène où le PDG d'AMD, Lisa Su, entre dans le bureau d'OpenAI et fait une proposition très alléchante au PDG Sam Altman. AMD a de nouvelles puces GPU qui surpassent les B200 de NVIDIA de 30 % en performance, tout en étant moitié moins chères.

Si vous êtes actuellement Sam Altman, que feriez-vous avec cet “ordre” ? Je parie que, dans la plupart des cas, Sam Altman ne signerait pas. Au moins, il serait très, très hésitant. Pourquoi ? Parce qu'une option moins chère et plus efficace est juste devant lui, et cela ne le fait même pas hésiter ? Parce que le prix n'est qu'une petite partie de l'ensemble. Dans l'investissement en technologie commerciale, il faut considérer le cadre TCO (coût total de possession). Cela inclut non seulement le prix affiché le plus direct, mais aussi divers coûts indirects et cachés.

coût de migration atteignant des milliards de dollars de cage invisible

Si OpenAI changeait vraiment d'NVIDIA à AMD, que se passerait-il ? En résumé, les coûts principaux liés à la main-d'œuvre, à la migration du code, aux opérations et aux opportunités augmenteraient considérablement. Et tout changement pourrait directement décider de la vie ou de la mort.

Pensez-y, si on change de plateforme, que vont devenir ces milliers d'ingénieurs de premier plan ? Leur expérience de plus de dix ans va-t-elle s'effacer du jour au lendemain et devront-ils tout réapprendre ? Cela représente un coût de formation énorme. Et que faire de ces millions de lignes de code ? Ce n'est pas une simple question de “copier-coller”. C'est comme si vous vouliez planter des lychees du sud au nord. Ce n'est pas juste une question de les déterrer, il faut faire d'énormes recherches, des tests, et y consacrer beaucoup de temps. L'IA, c'est pareil, au final, on ne sait pas si ça va fonctionner.

De plus, le changement de plateforme implique de faire fonctionner et de maintenir simultanément deux plateformes complètement différentes. Les coûts associés pourraient très probablement doubler. Le plus préoccupant, et le plus grand risque, est que le coût d'opportunité est trop élevé. Dans le domaine de l'IA, chaque seconde compte. Si le changement de plateforme entraîne un retard dans la recherche et le développement, ou si le modèle est publié avec quelques mois de retard, il est fort probable que l'on passe de leader de l'industrie à suiveur.

Liste des coûts cachés pour le changement de plate-forme OpenAI

Coût de la main-d'œuvre : Réentraînement de mille ingénieurs, expérience remise à zéro, coût en temps de plusieurs années.

Migration de code : des millions de lignes de code CUDA doivent être réécrites, les tests et la validation sont chronophages.

Maintenance des deux plateformes : Pendant la période de migration, les deux systèmes fonctionnent en même temps, ce qui double les coûts.

Coût d'opportunité : Un retard dans le développement par rapport à la concurrence peut faire passer un leader au statut de suiveur.

Coût des risques : Un échec de migration peut entraîner une dégradation des performances du modèle, l'impact commercial étant difficile à évaluer.

Ainsi, après avoir additionné divers coûts directs et indirects, nous avons atteint le résultat de « verrouillage du fournisseur ». En d'autres termes, je m'engage fermement avec vous sur tout, du logiciel au matériel. À long terme, c'est en fait la meilleure solution pour les entreprises d'IA, car elles n'auront pas à se soucier du matériel pendant la durée des contrats futurs. Maintenant, en revenant sur cette commande d'AMD qui disait « 30 % de performance en plus, moitié prix », la trouvez-vous toujours séduisante ? La réponse est non. Les millions de dollars économisés sur le matériel sont dérisoires par rapport à des coûts de migration qui pourraient atteindre des milliards de dollars et aux risques stratégiques potentiels.

CUDA écosystème Windows à l'ère de l'IA

Écosystème CUDA de NVIDIA

(source : X)

Jusqu'ici, vous devriez avoir réalisé que ce qui verrouille réellement les clients d'NVIDIA, ce n'est pas son matériel. Mais plutôt une “cage” invisible et intangible. C'est ce qu'on appelle la “mare de NVIDIA”, CUDA. CUDA signifie Compute Unified Device Architecture (Architecture de dispositif de calcul unifiée). En d'autres termes, c'est un ensemble d'outils de programmation qui permet aux développeurs d'utiliser plus efficacement les GPU NVIDIA.

Si l'on dit que le GPU de NVIDIA est le « PC » de l'ère de l'IA, alors CUDA est le « système Windows » de l'ère de l'IA. Réfléchissez, pourquoi, pendant des décennies, un Linux techniquement peut-être meilleur et gratuit n'a-t-il jamais pu ébranler la domination de Windows sur le marché des ordinateurs personnels ? La réponse n'est pas le système lui-même, mais l'écosystème.

Parce que l'écosystème d'application énorme sur Windows est trop puissant. De l'Office de Microsoft, à Adobe, en passant par divers logiciels spécialisés, tout cela est indissociable de l'ensemble de l'écosystème. Imaginez une entreprise qui a besoin de nombreux logiciels professionnels ; quel choix fera-t-elle entre le coût d'un permis Windows et le coût de la reformation des employés ? La réponse est évidente.

CUDA, c'est ainsi, il a un écosystème d'applications immense. Pour de nombreuses entreprises et particuliers, c'est un choix incontournable. Selon les statistiques, à ce jour, plus de 4,5 millions de développeurs dans le monde utilisent CUDA pour le développement. Et en 2020, ce chiffre n'était que de 1,8 million. Le nombre de téléchargements du kit d'outils CUDA atteint des centaines de milliers chaque mois.

20 ans de paris de personne n'ayant d'espoir à incontournable

En 2006, lorsque CUDA a été lancé, personne n'y prêtait attention, ni la Silicon Valley ni Wall Street n'y croyaient. En 2008, en raison de la crise financière, le cours de l'action de NVIDIA a chuté de plus de 80 %, avec une capitalisation boursière d'environ 4 milliards. Même au sein de NVIDIA, il y avait des divergences sur l'avenir de CUDA. De plus, le coût de développement de CUDA était très élevé. Le premier GPU de NVIDIA à prendre en charge CUDA était le G80. Pour développer cette puce, NVIDIA a mis 4 ans, avec un coût atteignant 475 millions de dollars, représentant un tiers du budget total de R&D de ces 4 années.

À cette époque, c'était vraiment une question de vie ou de mort. Que faire ? Jensen Huang a trouvé une solution : dépenser de l'argent. L'accent était mis sur l'investissement dans les écoles et les institutions de recherche. Il a permis à CUDA d'entrer dans les universités par le biais de dons d'argent et d'équipements, formant d'abord des utilisateurs dans le domaine de l'éducation et de la recherche. De plus, il a établi divers centres de recherche et de développement CUDA, centres d'enseignement et cours d'enseignement dans le monde entier. À cette époque, les coûts de recherche et développement investis dans CUDA s'élevaient à plus de 500 millions de dollars par an.

Malgré des efforts considérables en termes de main-d'œuvre, de ressources matérielles et financières, CUDA n'était pas du tout considéré comme prometteur pendant longtemps. Au début de 2013, de nombreux analystes financiers pensaient que seul l'abandon de CUDA et le retour à l'activité principale des jeux PC permettraient à l'action d'NVIDIA de grimper. Certains ont même remis en question la capacité de Jensen Huang à rester CEO. Aujourd'hui, on peut dire que CUDA d'NVIDIA était un pari. Et de plus, il a bien parié.

Pourquoi CUDA est-il passé d'un manque d'intérêt à un engouement ? Parce que les diplômés ayant étudié CUDA intègrent des entreprises technologiques, et les ressources communautaires et les bibliothèques de code de CUDA deviennent de plus en plus riches. En 2015, il y avait déjà 800 universités dans le monde qui proposaient des cours sur CUDA. Avec le temps, les cas d'utilisation de CUDA se sont étendus des universités à des domaines tels que la santé, le commerce et bien d'autres. Quant à son « rapprochement » avec le domaine de l'intelligence artificielle, on peut dire que c'est purement un « hasard ».

En 2012, lors d'un concours mondial de reconnaissance d'images par IA organisé par l'Université de Stanford, une équipe de trois personnes de l'Université de Toronto a présenté un réseau de neurones IA appelé AlexNet, qui a remporté le championnat. De plus, son taux de précision était supérieur de 41 % à celui du deuxième. Comment ont-ils fait ? L'équipe a déclaré qu'elle avait utilisé 2 GPU NVIDIA GTX 580 et qu'elle était la seule équipe à avoir formé un réseau de neurones avec CUDA lors de tout le concours.

À ce moment-là, Google a également remarqué cette équipe. Ils ont découvert qu'AlexNet, qui n'utilisait que deux cartes graphiques GPU, obtenait des résultats presque identiques à ceux que Google avait formés avec 16 000 CPU. Très vite, toute l'industrie a pris conscience que les GPU sont le meilleur matériel pour soutenir l'IA. Et NVIDIA pourrait très bien devenir la clé du développement de l'IA.

Lutte des concurrents : AMD open source, Intel segmenté, Google auto-développement

Une fois que vous comprenez CUDA, en regardant les concurrents de NVIDIA, vous vous rendrez compte que chaque étape est étroitement contrôlée par NVIDIA. Par exemple, AMD a choisi l'open source. Elle a développé une plateforme open source appelée ROCm, dont l'objectif est de remplacer CUDA. Cependant, c'est comme le “Linux de l'ère de l'IA”, gratuit, open source, avec un potentiel technique, et moins cher. Mais pour les utilisateurs, le coût de migration est trop élevé.

Par exemple, Intel choisit de se spécialiser dans des niches. Intel est intelligent, il admet directement qu'NVIDIA est de loin en tête sur le marché haut de gamme de l'IA. Ainsi, Intel positionne sa série de puces Gaudi sur ces marchés de niche que sont le raisonnement de niveau entreprise et l'entraînement de modèles de petite et moyenne taille. Mais cela signifie également qu'Intel abandonne la partie la plus rentable du marché des puces IA.

Par exemple, Google a choisi d'affronter la situation de front. Investopedia a rapporté que la marge bénéficiaire d'Apple dans la vente de GPU est d'environ 80 %, ce qui est appelé “taxe NVIDIA” dans l'industrie. Afin d'éviter de payer une prime élevée, Google a commencé à développer en interne, utilisant un écosystème de puissance de calcul appelé TPU depuis 2015. En comparaison, le TPU est profondément intégré à la plateforme interne de Google, ce qui n'affecte pas la position d'NVIDIA.

Ainsi, vous voyez, ces géants concurrents ne se contentent pas de rivaliser en performance, mais rivalisent en stratégie. Ils cherchent tous des moyens de contourner CUDA, de contourner NVIDIA. Mais pour l'instant, il semble qu'aucun ne puisse ébranler. Tous les challengers tournent autour de la montagne, ce qui est en soi une expression du plus grand respect pour cette montagne difficile à gravir.

Leçon pour les entrepreneurs : la barrière de protection est irremplaçable

NVIDIA est passée d'un manque de reconnaissance à une attention générale aujourd'hui. Tout ce chemin est vraiment impressionnant. Certaines personnes sur Internet s'inquiètent : la montée de NVIDIA est tellement élevée, c'est trop exagéré, est-ce une bulle ? Pourrait-elle être le deuxième Cisco ? Pendant la bulle Internet de 2000, Cisco était un fournisseur de matériel réseau, avec une valorisation atteignant plus de 150 fois son ratio C/B à terme. Mais après l'éclatement de la bulle, la chute a été vertigineuse.

En réalité, ils ont des différences fondamentales. Cisco fait face à un marché de construction « unique ». Lorsque l’Internet précoce a terminé de « poser les tuyaux », la croissance de Cisco s'est naturellement arrêtée. En revanche, NVIDIA fait face à un marché en constante croissance. Du moins, c’est l’impression actuelle, l'IA est encore en expansion, donc cette « course aux armements » ne montre pas de fin en vue. Plus important encore, les clients de NVIDIA sont des géants tels que Microsoft, Google, Meta, qui ne manquent pas d'argent dans le monde. Pour eux, acheter des puces NVIDIA n'est pas un choix, mais une nécessité pour survivre à l'ère de l'IA.

Bien sûr, personne ne peut prédire ce qui se passera à l'avenir. Peut-être qu'un jour, un nouvel algorithme apparaîtra soudainement, rendant les GPU également inutiles, et cela pourrait changer complètement les règles du jeu. Mais au moins pour l'instant, nous pouvons tirer une leçon très importante de NVIDIA. Quelle est votre barrière ? Ce n'est pas de se demander : “Mon produit est-il meilleur, plus rapide ou moins cher que celui de mes concurrents ?” Mais plutôt de se demander : “Mon produit a-t-il un écosystème dont les clients ne peuvent pas se passer ?”

En fait, la capitalisation boursière de 5 billions de dollars d'NVIDIA est la réponse la plus retentissante à cette question. Cela prouve que dans le monde des affaires, la logique fondamentale la plus simple et la plus importante. La plus profonde des douves n'est pas construite par les prix et les performances, mais c'est celle qui vous rend irremplaçable.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)