Le dernier podcast de Huang Renxun : NVIDIA atteindra-t-elle 1 trillion de dollars ? Le nombre de programmeurs va-t-il augmenter au lieu de diminuer ? Comment gérer l'anxiété liée à l'IA ?
Titre original : Jensen Huang : NVIDIA - La société de 4 trillions de dollars et la révolution de l'IA | Podcast de Lex Fridman
Auteur original : Lex Fridman
Traduction : Peggy, BlockBeats
Note de l'éditeur :
Dans le contexte de l'évolution continue de l'IA générative et de l'entrée des agents dans les processus de production réels, l'accent des discussions industrielles passe de "la puissance du modèle" à "comment le système peut soutenir l'intelligence." Alors que l'entraînement de modèles à grande échelle devient progressivement standardisé, une question plus fondamentale émerge : ce qui soutient l'expansion continue de l'IA n'est plus seulement des percées algorithmiques, mais l'ensemble du système informatique lui-même.

Cet article est une traduction d'une conversation entre Jensen Huang et Lex Fridman. Lex Fridman est un chercheur en IA renommé et animateur de podcast technologique dont l'émission se concentre depuis longtemps sur des discussions approfondies sur la technologie, l'industrie et les tendances futures. Dans cette conversation, Jensen Huang ne s'est pas concentré sur les capacités des modèles en tant que telles, mais a plutôt, en partant de l'architecture informatique et de l'évolution de l'industrie, formulé un jugement plus structurel : L'IA passe d'un "problème de puce" à un "problème d'ingénierie des systèmes."
Cette conversation peut être comprise grossièrement sous cinq aspects.
Transition de "Chip" à "Factory"
Le premier jugement fondamental de la conversation est que la concurrence de l'IA ne se concentre plus sur la performance à un point unique, mais a évolué vers une concurrence des capacités des systèmes. Des GPU aux machines entières, en passant par les "usines d'IA" au niveau des centres de données, les limites des unités de calcul continuent de s'étendre. En même temps, le rôle des ordinateurs a également changé : d'un "entrepôt" pour stocker et récupérer des informations à un "système de production" générant continuellement des jetons. Cela signifie que l'IA n'est plus seulement un outil, mais qu'elle est directement impliquée dans l'infrastructure économique de la production.
Quatre couches d'échelle : Pourquoi l'IA devient-elle "plus lourde"
De plus, il y a eu un changement structurel dans le chemin d'échelle de l'IA. La croissance ne repose plus sur une seule échelle de pré-formation, mais sur l'empilement de quatre types d'échelle : pré-formation, post-formation, inférence et Agent, formant un système cyclique. L'Agent génère des données, qui entrent dans la formation, et la formation renvoie à l'inférence, qui soutient ensuite des Agents plus complexes. Tous les chemins convergent finalement vers une variable : la puissance de calcul. Le changement le plus crucial est que l'inférence devient le cœur de la consommation computationnelle, et que la "pensée" elle-même est devenue le lien le plus coûteux.
Le goulet d'étranglement de l'IA passe des algorithmes à l'énergie
À mesure que l'échelle continue de se cumuler, la question a évolué du niveau du modèle au niveau de l'infrastructure. Une observation directe présentée dans la discussion est que le goulet d'étranglement à long terme de l'IA n'est plus les données ou les algorithmes, mais plutôt le système d'alimentation et d'énergie. Cependant, la véritable contrainte n'est pas seulement un approvisionnement insuffisant, mais plutôt la planification du réseau, l'architecture des centres de données et la dépendance des entreprises à la "haute disponibilité". Cela transforme le problème de l'IA d'une question technique à un problème global d'ingénierie, d'énergie et d'arrangement institutionnel.
L'essence de CUDA : Part de marché plutôt qu'avantage technologique
Sur le plan concurrentiel, la discussion fournit également un aperçu clé : Le fossé d'NVIDIA n'est pas seulement un leadership technologique, mais la part de marché et l'écosystème de développeurs établis grâce à CUDA. En intégrant CUDA dans GeForce et en sacrifiant des profits à court terme pour l'échelle, NVIDIA a en réalité construit une "plateforme de calcul". Lorsque l'échelle, l'écosystème et la rapidité d'exécution sont combinés, la technologie elle-même devient une variable secondaire. Cela signifie que la compétition en IA se déplace de la capacité des modèles vers la capacité des plateformes et des systèmes.
Remarque : CUDA (Compute Unified Device Architecture) est une plateforme de calcul parallèle lancée par NVIDIA, permettant aux GPU d'être utilisés par les développeurs pour le calcul général plutôt que seulement pour le rendu graphique.
L'IA prendra-t-elle des emplois ? Non, mais elle changera la définition du travail
Au niveau des applications, la discussion fait également une évaluation importante : L'IA ne remplacera pas simplement les professions, mais plutôt redéfinira la structure du travail. L'automatisation au niveau des tâches améliorera l'efficacité globale, augmentant la demande de compétences professionnelles. Le cœur du travail n'est plus "l'exécution des tâches" mais "la définition des problèmes, l'invocation des outils et la résolution collaborative des problèmes", où l'intelligence devient progressivement une capacité accessible, tandis que les différences humaines se reflètent davantage dans le jugement et les compétences organisationnelles.
Si cette discussion fournit un point d'entrée clair, elle réside dans la transformation de l'IA de "compétition en capacité de modèle" en un problème systémique : à mesure que le calcul devient un système de production, ce qui le contraindra ne sera plus seulement la technologie elle-même, mais plutôt l'énergie, les chaînes d'approvisionnement et les méthodes organisationnelles. De ce point de vue, la question n'est plus de savoir si un certain chemin technologique est supérieur, mais plutôt que le monde entier est en train d'être réorganisé autour d'une infrastructure de calcul de base.
Voici le contenu original (réorganisé pour plus de clarté) :
TL;DR
· L'IA a évolué de "puces plus rapides" à une "usine de calcul", où la compétition n'est plus la performance à un point unique mais l'efficacité synergique de l'ensemble des capacités du système (puissance de calcul, réseau, énergie, logiciel)
· Le succès de CUDA réside non pas dans la technologie, mais dans son ubiquité : NVIDIA a sacrifié le profit pour l'échelle, établissant un écosystème de plateforme de calcul presque inattaquable.
·La croissance de l'IA ne concerne plus seulement des modèles plus grands ; elle implique plutôt un dimensionnement simultané dans la pré-formation, l'inférence, les agents, et plus encore, convergeant finalement sur une variable : la puissance de calcul.
·L'inférence devient une partie essentielle de la consommation de calcul ; "penser" coûte plus cher que "former", et l'IA passe de modèles hors ligne à des systèmes en fonctionnement continu.
·Le véritable goulot d'étranglement pour l'IA n'est pas l'algorithme mais l'énergie et l'infrastructure ; la capacité de planification de l'énergie deviendra la prochaine contrainte critique.
·L'informatique passe d'un "entrepôt d'informations" à une "usine de production" ; les jetons deviennent des marchandises échangeables, et l'infrastructure de l'IA participera directement à la production économique.
·L'IA ne remplacera pas simplement le travail mais élèvera les capacités de toutes les professions ; la compétence clé de l'avenir passera de "l'exécution de tâches" à "la définition de problèmes et la collaboration pour les résoudre."
Contenu de l'entretien
Lex Fridman : Ensuite, nous avons une conversation avec Jensen Huang, le PDG de NVIDIA, une entreprise qui peut être considérée comme l'une des plus significatives et influentes de l'histoire humaine. NVIDIA est le moteur central de la révolution de l'IA, et son succès est en grande partie dû à une série de jugements clés et de décisions audacieuses prises par Jensen en tant que leader, ingénieur et innovateur. Ceci est le podcast de Lex Fridman. Alors, veuillez accueillir Jensen Huang.
De "Chips plus rapides" à "Usine d'IA"
Lex Fridman : Vous avez conduit NVIDIA vers une nouvelle étape de l'IA, passant d'un accent sur la conception au niveau des puces dans le passé à la conception au niveau des racks aujourd'hui. On pourrait dire que les victoires passées de NVIDIA reposaient en grande partie sur la construction du GPU le plus puissant, et vous continuez à le faire, mais cela s'est élargi à un co-design extrême : GPU, CPU, mémoire, réseau, stockage, puissance, refroidissement, logiciel, le rack lui-même, les pods que vous avez lancés, et même l'ensemble du centre de données. Alors, commençons par "le co-design extrême". Avec tant de composants et de variables complexes, quelle est la partie la plus difficile du co-design des systèmes ?
Jensen Huang : C'est une excellente question. Tout d'abord, la raison pour laquelle nous devons faire du co-design extrême est que les problèmes que nous résolvons maintenant ne peuvent plus être accélérés par un seul ordinateur ou même un seul GPU. Ce que vous voulez vraiment, c'est que l'accélération du calcul dépasse le rythme auquel vous ajoutez des ordinateurs. Vous ajoutez 10 000 ordinateurs, mais vous souhaitez une amélioration de 1 000 000 fois des performances. Ainsi, vous devez repenser les algorithmes, décomposer les algorithmes, les reconstruire, casser les pipelines, casser les données, casser le modèle. Lorsque vous distribuez le problème de cette manière, il ne s'agit pas seulement de "scaler", il s'agit de "distribuer le problème", et ensuite tout devient un goulot d'étranglement.
C'est essentiellement le problème de la loi d'Amdahl : l'accélération globale du système dépend de la proportion du travail qui peut être accéléré. Si le calcul ne représente que 50 % du problème, même si vous augmentez la vitesse de calcul d'un million de fois, l'accélération globale ne sera que de deux fois. Ainsi, non seulement vous devez distribuer le calcul, mais vous devez également aborder la séparation des pipelines, les problèmes de connectivité réseau, car tous ces ordinateurs doivent être interconnectés. Dans notre échelle de calcul distribué, le CPU est un problème, le GPU est un problème, le réseau est un problème, le commutateur est un problème, et l'équilibrage de charge lui-même est un problème. C'est un problème d'informatique extrêmement complexe. Ainsi, nous devons utiliser toutes les technologies ensemble ; sinon, vous ne pouvez que scaler de manière linéaire ou compter sur la loi de Moore, qui ralentit également.
Remarque : La loi d'Amdahl peut être comprise comme l'expression mathématique de l'effet seau dans un système informatique. Dans cet article, elle est utilisée pour illustrer que le calcul en IA n'est pas seulement une question d'amélioration des performances des GPU ; des aspects tels que le réseau, le stockage, la planification deviendront des goulots d'étranglement qui doivent être optimisés au niveau du système.
Lex Fridman : Il doit y avoir beaucoup de compromis impliqués, et cela implique des experts de domaines complètement différents, tels que la mémoire à large bande, le réseau, NVLink, les NIC, l'optique, les interconnexions en cuivre, l'alimentation, le refroidissement, etc. Chaque domaine a des experts de classe mondiale. Comment avez-vous rassemblé ces personnes pour collaborer ?
Jensen Huang : C'est pourquoi mon équipe est si grande.
Lex Fridman : Pouvez-vous parler de ce processus ? Comment les experts et les généralistes collaborent-ils ? Quel est le processus de conception global lorsque vous devez intégrer toutes ces choses dans un rack ?
Jensen Huang :
Vous pouvez répondre par trois questions. La première question est : Qu'est-ce que le "Co-Design Extrême" ? Essentiellement, il s'agit d'une optimisation holistique à travers l'ensemble de la pile logicielle et matérielle, de l'architecture, des puces, des systèmes, des logiciels système, des algorithmes, jusqu'aux applications ; c'est la première couche. La deuxième couche est, comme nous l'avons mentionné, non seulement des puces CPU, GPU et réseau, mais aussi des systèmes de commutation à montée en charge et à extension, ainsi que l'alimentation et le refroidissement, car ces systèmes informatiques consomment beaucoup d'énergie. Ils sont en effet très efficaces mais consomment tout de même une quantité significative d'électricité au total.
Ainsi, la première question est "qu'est-ce que c'est", la deuxième question est "pourquoi le faire", comme nous l'avons mentionné, vous devez répartir les charges de travail pour obtenir des avantages au-delà de l'augmentation simple du nombre d'ordinateurs.
La troisième question est "comment le faire". C'est en fait la partie la plus magique de cette entreprise. Lorsque vous concevez un ordinateur, vous avez besoin d'un système d'exploitation ; lorsque vous concevez une entreprise, vous devez d'abord réfléchir à ce que cette entreprise va produire. J'ai vu les organigrammes de nombreuses entreprises, et ils se ressemblent tous : des structures comme des hamburgers, comme des entreprises de logiciels, comme des entreprises automobiles, mais à mon avis, cela n'a pas de sens. L'objectif d'une entreprise est de devenir une machine qui produit des produits, c'est un mécanisme, un système utilisé pour produire en continu les produits que nous souhaitons.
La structure organisationnelle d'une entreprise doit refléter l'environnement dans lequel elle opère. Dans une certaine mesure, cela détermine également comment l'organisation doit fonctionner. Mon équipe de reporting direct compte environ 60 personnes. Je ne communique pas avec elles en tête-à-tête car c'est impossible. Si vous avez 60 rapports directs et du travail à faire, vous ne pouvez pas y parvenir par des interactions individuelles.
Lex Fridman : Mais vous avez toujours 60 rapports directs ?
Jensen Huang : Plus que cela. Et ces personnes ont principalement un parcours en ingénierie, avec des experts en mémoire, des experts en CPU, des experts en optique, des experts en GPU, des architectes, des algorithmiens, des experts en design.
Lex Fridman : C'est incroyable.
Jensen Huang : Oui.
Lex Fridman : Donc, vous avez essentiellement supervisé l'ensemble de la pile technologique et participé à des discussions approfondies sur la conception globale ?
Jensen Huang : Et nous n'avons pas de "rencontres individuelles". Nous posons une question, puis tout le monde la résout ensemble. Parce que nous faisons un design collaboratif extrême, l'entreprise le fait tous les jours.
Lex Fridman : Donc, même si vous discutez d'un composant spécifique, comme le refroidissement ou le réseau, tout le monde est impliqué ?
Jensen Huang : Oui, c'est tout à fait ça.
Lex Fridman : Tout le monde peut dire : "Cette solution ne fonctionne pas pour l'alimentation," "Cela ne fonctionne pas pour la mémoire" ?
Jensen Huang : C'est exact. Quiconque souhaite participer le fait, et ceux qui ne le souhaitent pas peuvent se retirer. Mais tout le monde dans l'équipe sait quand il doit participer. S'il y a un problème où quelqu'un aurait dû contribuer mais ne l'a pas fait, je l'appelle à se joindre à nous.
Lex Fridman : Alors, comment NVIDIA a-t-il évolué avec les environnements changeants ? Passant de la fabrication de GPU pour les jeux à l'apprentissage profond et maintenant à la "fabrique d'IA" — comment cette transition s'est-elle produite ?
Jensen Huang :
Cela peut être déduit logiquement. Nous avons commencé comme une entreprise d'accélérateurs. Cependant, le problème avec les accélérateurs est qu'ils sont trop spécifiquement applicables. Leur force réside dans une optimisation élevée, comme tous les systèmes spécialisés, mais le problème est que plus ils sont spécialisés, plus le marché est étroit. Cela, en soi, n'est pas le plus gros problème. L'aspect le plus critique est que la taille du marché détermine vos capacités de R&D, et finalement, votre influence dans le domaine de l'informatique.
Donc, lorsque nous avons initialement créé l'accélérateur, nous savions que c'était juste la première étape. Nous devions trouver un chemin vers ce que nous appelions « l'informatique accélérée ». Mais le problème est que, une fois que vous devenez une entreprise informatique, vous devenez trop polyvalent, ce qui affaiblit votre capacité spécialisée. J'ai délibérément mis ces deux mots de tension ensemble : Informatique vs Spécialisé. Plus vous ressemblez à une entreprise informatique, moins vous ressemblez à un système spécialisé ; plus vous êtes spécialisé, plus il est difficile de couvrir l'ensemble du paysage informatique.
Ainsi, les entreprises doivent trouver un chemin très étroit, élargissant progressivement les limites de la capacité informatique tout en ne perdant pas la capacité spécialisée la plus essentielle.
Notre première étape a été d'inventer le shader de pixel programmable, qui était le premier pas vers la « programmabilité ». La deuxième étape, nous avons intégré le FP32 dans le shader, qui est conforme à la norme IEEE en virgule flottante simple précision, une étape cruciale qui a attiré l'attention de nombreux professionnels travaillant sur les processeurs de flux et l'informatique par flux de données. Ils ont commencé à réaliser que ce GPU hautement capable et conforme aux normes pourrait potentiellement être utilisé pour l'informatique générale. Ils ont donc commencé à essayer de migrer des logiciels initialement écrits pour le CPU vers le GPU.
Ensuite, nous avons introduit le langage C au-dessus du FP32, formant Cg, qui a ensuite évolué vers CUDA. Mettre CUDA sur GeForce était une décision extrêmement critique, mais l'entreprise ne pouvait en réalité pas se permettre le coût à ce moment-là. La raison pour laquelle nous l'avons quand même fait est que nous voulions devenir une entreprise informatique. Et une entreprise informatique doit avoir une architecture informatique unifiée qui reste cohérente sur toutes les puces.
Une décision qui a failli faire sombrer l'entreprise une fois, a soutenu toute l'ère de l'IA.
Lex Fridman : Pourriez-vous parler de cette décision ? À ce moment-là, lorsque le coût était clairement inabordable, pourquoi avez-vous quand même mis CUDA sur GeForce ?
Jensen Huang : C'était une décision proche de la « vie ou de la mort ». Je dirais que c'était notre première décision stratégique proche d'une « menace existentielle ».
Lex Fridman : Pour ceux qui ne le savent peut-être pas, cela a ensuite été prouvé comme l'une des plus grandes décisions de l'histoire de l'entreprise. CUDA est devenu la plateforme de calcul centrale de toute l'infrastructure d'IA.
Jensen Huang :
Oui, il a ensuite été prouvé que c'était la bonne décision. La logique à l'époque était la suivante : nous avons inventé CUDA, qui a élargi la gamme d'applications que notre accélérateur pouvait couvrir. Mais la question était : comment attirer les développeurs ? Parce que le cœur d'une plateforme de calcul, ce sont les développeurs, et les développeurs ne viendront pas simplement parce qu'une plateforme est 'intéressante' ; ils choisissent des plateformes avec un déploiement significatif.
Le taux d'adoption est le facteur le plus critique. Les développeurs, comme tout le monde, veulent que leur logiciel atteigne plus d'utilisateurs. Par conséquent, le taux d'adoption est un déterminant clé du succès. Une architecture peut être fortement critiquée, comme le x86 qui est considéré comme inélégant, pourtant elle reste l'architecture dominante aujourd'hui en raison de son adoption massive.
En revanche, de nombreuses architectures RISC sont élégamment conçues par des informaticiens de premier plan mais ont finalement échoué. Cela illustre un point : le taux d'adoption définit l'architecture, et tout le reste est secondaire.
À cette époque, CUDA faisait face à la concurrence, comme OpenCL, et ainsi de suite. La décision clé que nous avons prise était : puisque le taux d'adoption est primordial, nous devons trouver un moyen de rapidement amener cette nouvelle architecture sur le marché.
À cette époque, GeForce était déjà très réussi, expédiant des millions de GPU chaque année. Nous avons donc décidé d'intégrer CUDA dans chaque GeForce, en le rendant partie intégrante de chaque PC, que les utilisateurs l'utilisent ou non. C'était le moyen le plus rapide de construire l'adoption.
Simultanément, nous sommes allés dans les universités, avons écrit des manuels et proposé des cours pour amener CUDA partout. À cette époque, les PC étaient les principales plateformes de calcul, avant le cloud. Nous avons essentiellement mis un "superordinateur" entre les mains de chaque étudiant, chaque chercheur.
Cependant, cela a considérablement augmenté le coût des GPU, consommant presque toute la marge brute de l'entreprise. À cette époque, l'entreprise était évaluée à environ six à sept milliards de dollars. Après l'introduction de CUDA, l'évaluation a chuté à environ 15 milliards de dollars en raison de l'augmentation des coûts. Nous avons traversé une phase très difficile, mais nous avons persévéré.
Je dis toujours qu'NVIDIA est une maison construite sur GeForce. Car c'est GeForce qui a permis à CUDA d'atteindre tout le monde. Les chercheurs, les scientifiques, les ingénieurs, tous ont découvert CUDA grâce à GeForce. De nombreuses personnes étaient des joueurs, construisant leurs propres PC, construisant des clusters dans des laboratoires avec des composants PC—c'était le point de départ du décollage de CUDA.
Lex Fridman : Et cela est ensuite devenu la plateforme fondamentale pour la révolution de l'apprentissage profond.
Jensen Huang : Exactement, c'est une observation très importante.
Lex Fridman : Vous souvenez-vous comment se sont déroulées les discussions internes pendant ce moment presque "de vie ou de mort" ?
Jensen Huang : Je devais expliquer au conseil ce que nous faisions, et l'équipe de direction comprenait que notre marge brute serait sévèrement comprimée. Vous pouvez imaginer un scénario : GeForce a supporté le coût de CUDA, mais les joueurs ne paieraient pas pour cela. Ils étaient seulement prêts à payer un prix fixe et ne paieraient pas plus parce que vos coûts ont augmenté.
Nous avons augmenté le coût de 50 %, alors que la marge brute de l'entreprise n'est que de 35 %, donc c'était une décision très difficile. Mais nous pouvions envisager un avenir : CUDA entrerait dans les stations de travail, entrerait dans les superordinateurs, et dans ces domaines, nous pourrions réaliser des bénéfices plus élevés. Logiquement, vous pouvez vous persuader que c'est faisable, mais le réaliser a pris dix ans.
Lex Fridman : Mais cela concerne davantage la communication avec le conseil. De votre point de vue personnel, comment avez-vous pris ce genre de décision "parier sur l'avenir" ? NVIDIA a toujours pris des décisions audacieuses pour prédire l'avenir, voire définir l'avenir, comment avez-vous fait ?
Jensen Huang : Tout d'abord, j'ai une forte curiosité. Ensuite, il y a un processus de raisonnement qui me convainc très fortement qu'un certain résultat va définitivement se produire. Lorsque je crois vraiment en quelque chose dans mon esprit, ce type d'avenir devient très clair, presque impossible à ne pas réaliser. Il y aura beaucoup de douleur en cours de route, mais il faut croire en ce en quoi vous croyez.
Lex Fridman : Alors, construisez-vous d'abord l'avenir dans votre esprit puis le réalisez-vous ?
Jensen Huang :
Oui. Vous allez raisonner sur la manière d'y parvenir, pourquoi cela doit exister. Nous allons raisonner à plusieurs reprises, et l'équipe de direction participera également, nous allons passer beaucoup de temps là-dessus.
Ensuite, il y a une capacité très cruciale. De nombreux dirigeants resteront d'abord silencieux, apprendront, puis un jour feront soudainement une "déclaration", comme au nouvel an, un grand ajustement, un licenciement massif, une restructuration organisationnelle, une nouvelle mission, un nouveau logo. Je ne fais pas cela de cette manière.
Lorsque je commence à réaliser que quelque chose est important, je dis immédiatement aux personnes autour de moi : c'est important et cela aura un impact. J'expliquerai étape par étape. De nombreuses fois, j'ai déjà pris la décision, mais j'utiliserai chaque opportunité—nouvelles informations, nouvelles perspectives, nouveaux progrès en ingénierie—pour façonner continuellement la compréhension de chacun.
Je fais cela chaque jour, avec le conseil d'administration, avec la direction, avec les employés. Je façonne constamment leurs systèmes de croyance. Ainsi, lorsque je dis un jour : "Nous allons acquérir Mellanox," tout le monde sentira que c'est une décision évidente.
Lorsque je dis : "Nous nous engageons pleinement dans l'apprentissage profond," en fait, j'ai préparé le terrain depuis longtemps. Lorsque je l'annonce, beaucoup de gens diront en fait : "Pourquoi ne le dites-vous que maintenant ?"
En un sens, c'est comme "diriger de l'arrière," mais en réalité, vous avez façonné le consensus tout au long. Vous souhaitez que tout le monde marche ensemble, plutôt que d'annoncer soudainement une décision que personne ne comprend.
Lex Fridman : Et vous ne façonnez pas seulement la cognition au sein de l'entreprise, vous façonnez l'ensemble de l'industrie.
Jensen Huang :
Nous ne vendons en réalité pas d'ordinateurs directement, ni ne vendons le cloud directement. Nous sommes une entreprise de plateforme informatique. Nous faisons de la conception d'intégration verticale à chaque niveau, mais en même temps, nous sommes ouverts à chaque niveau pour permettre à d'autres entreprises de l'intégrer dans leurs propres produits, services, clouds et superordinateurs.
Donc, si je ne peux pas convaincre l'ensemble de l'industrie d'abord, mon produit ne sera pas adopté. C'est pourquoi le GTC est si important : il s'agit de "prévisualiser l'avenir". Lorsque nous publierons réellement le produit, tout le monde dira : "Pourquoi ne faites-vous cela que maintenant ?"
Pourquoi l'IA devient-elle de plus en plus "brûlante de liquidités" ? Quatre types d'échelle s'accumulent.
Lex Fridman : Vous avez longtemps cru à la loi de l'échelle. Croyez-vous encore en elle maintenant ?
Remarque : La loi de l'échelle, généralement appelée en chinois la loi de l'échelle, fait référence à : lorsque vous augmentez continuellement certaines variables clés, la performance du système s'améliorera selon un schéma relativement stable et prévisible. Dans l'IA, cela fait souvent référence à : plus le modèle est grand, plus les données sont nombreuses, plus la puissance de calcul est forte, plus les capacités du modèle sont renforcées.
Jensen Huang : Bien sûr, et maintenant il existe plus de lois de l'échelle.
Lex Fridman : Vous avez mentionné quatre types auparavant : pré-entraînement, post-entraînement, phase d'inférence et échelle agentique. Lorsque vous regardez vers l'avenir, que ce soit à court terme ou à long terme, quels "goulots d'étranglement" potentiels vous préoccupent réellement ? Quels sont les problèmes que vous pensez devoir être résolus, même ceux qui vous empêchent de dormir la nuit ?
Jensen Huang : Regardons en arrière les "goulots d'étranglement" perçus du passé.
Au départ, il s'agissait de l'échelle de pré-entraînement, où les gens croyaient que des données de haute qualité limitées restreindraient l'amélioration de l'intelligence de l'IA. Ilya Sutskever a même déclaré : « Nous manquons de données », provoquant une panique dans l'industrie. Mais la réalité a prouvé le contraire. Nous continuerons à élargir les sources de données, une grande partie étant des données synthétiques. En fait, les informations échangées entre les humains sont fondamentalement également "synthétiques". Vous créez du contenu, je le consomme, puis je le traite et le transmets. Maintenant, l'IA peut partir de données réelles, s'étendre, s'améliorer et générer une grande quantité de données. Par conséquent, la phase post-formation est toujours en expansion. La future limitation de l'entraînement des modèles ne sera plus les données mais la puissance de calcul.
Remarque : Ilya Sutskever est co-fondateur d'OpenAI et ancien scientifique en chef, une figure clé dans le domaine de l'apprentissage profond, impliqué dans des percées majeures telles qu'AlexNet, ayant un impact profond sur les grands modèles et l'évolutivité de l'IA.
Vient ensuite la phase d'inférence. Beaucoup de gens pensaient autrefois que l'inférence était simple et que l'entraînement était difficile. Mais cela est en réalité déraisonnable car l'inférence est essentiellement "penser", ce qui est beaucoup plus difficile que "lire". L'entraînement ressemble davantage à de la mémorisation et à de la reconnaissance de motifs, tandis que l'inférence implique le raisonnement, la planification, la recherche, la décomposition des problèmes, toutes ces tâches nécessitant beaucoup de calcul. Il s'avère que notre évaluation initiale était correcte, et que le calcul d'inférence est très intensif.
En avançant, nous avons une mise à l'échelle agentique. Nous ne sommes plus seulement un modèle mais un "système d'agents" capable d'appeler des outils, d'accéder à des bases de données et de générer des sous-agents. Semblable à une entreprise, plutôt que d'améliorer la capacité d'une seule personne, il est plus facile d'élargir les capacités en ajoutant des membres à l'équipe. L'IA fonctionne de la même manière, capable de se répliquer et de s'échelonner rapidement. Ainsi, c'est une nouvelle loi d'échelle.
Ces processus formeront un cycle : l'agent génère des données, les données retournent à la pré-formation, puis entrent dans la post-formation, puis dans l'inférence, puis dans le système d'agents, tournant continuellement. En fin de compte, la croissance de l'intelligence se résume à une variable essentielle : la puissance de calcul.
Lex Fridman : Mais voici un défi : vous devez anticiper ces changements à l'avance car différentes étapes nécessitent différents matériels, comme l'architecture MoE, la sparsité, etc. Et le cycle matériel s'étend sur quelques années, donc vous ne pouvez pas ajuster quand vous le souhaitez.
Jensen Huang : Exactement. Les architectures de modèles d'IA changent environ tous les 6 mois, tandis que les architectures système et le matériel changent environ tous les 3 ans. Donc, vous devez anticiper l'avenir deux à trois ans à l'avance. Nous avons trois méthodes : d'abord, nous faisons nos propres recherches, y compris la recherche fondamentale et la recherche appliquée, nous construisons nos modèles ; ensuite, nous collaborons avec presque toutes les entreprises d'IA pour comprendre leurs défis ; enfin, nous construisons une architecture suffisamment flexible, comme CUDA, qui est à la fois efficace et flexible.
Par exemple, lorsque MoE a émergé, nous avons introduit NVLink 72, qui peut exécuter un modèle de 100 trillions de paramètres comme s'il s'agissait d'un seul GPU. Un autre exemple est le rack Grace Blackwell et le rack Vera Rubin, leurs conceptions sont complètement différentes car le premier est conçu pour l'inférence LLM, tandis que le second est conçu pour les systèmes d'agents.
Remarque : Le rack Grace Blackwell est un système de calcul IA de bout en bout lancé par NVIDIA pour l'entraînement et l'inférence de modèles à grande échelle, avec le CPU Grace et le GPU Blackwell profondément intégrés par des interconnexions à large bande, servant d'unité de calcul centrale de la "fabrique d'IA" ; le rack Vera Rubin est l'architecture d'infrastructure IA de nouvelle génération de NVIDIA (suivant Blackwell), visant des systèmes d'agents plus complexes et des scénarios d'inférence à grande échelle, mettant l'accent sur la collaboration au niveau du système et une efficacité énergétique supérieure.
Lex Fridman : Mais ces conceptions ont été achevées avant l'émergence de Claude Code, Codex et OpenClaw. Comment avez-vous anticipé cela ?
Jensen Huang : Ce n'est en fait pas si difficile, il suffit d'utiliser le raisonnement. Supposons que LLM doive devenir un "employé numérique", il doit accéder à des données réelles, effectuer des recherches, utiliser des outils. Donc, il doit avoir un système d'E/S, faire des appels d'outils. Certains disent que l'IA remplacera les logiciels, mais ce n'est pas correct. Tout comme un robot, il ne transformera pas sa main en marteau ou en scalpel, mais utilisera plutôt des outils. Ce n'est pas grave s'il ne sait pas comment les utiliser la première fois, il peut lire le manuel et apprendre rapidement. Donc, ces capacités sont inévitables.
Lorsque vous raisonnez de cette manière, vous constaterez que nous avons en fait réinventé l'ordinateur. L'architecture des agents dont j'ai parlé au GTC il y a deux ans correspond presque exactement à OpenClaw aujourd'hui. La signification d'OpenClaw pour les agents est similaire à ce que ChatGPT représente pour l'IA générative.
Lex Fridman : En effet, c'est un moment spécial.
Jensen Huang : Oui.
Lex Fridman : Mais il y a aussi un problème ici ; lorsque la technologie devient si puissante, elle entraîne également des risques de sécurité. Nous, en tant qu'individus et en tant que société, essayons de trouver un équilibre.
Jensen Huang : Oui, nous avons immédiatement impliqué un grand nombre d'experts en sécurité pour étudier ce problème. Nous avons créé un système appelé OpenShell, qui est maintenant intégré à OpenClaw. En même temps, NVIDIA a également introduit NemoClaw.
Lex Fridman : Oui, son installation est également très simple et peut garantir la sécurité du système.
Jensen Huang : Nous avons proposé un principe : à tout moment, on ne peut posséder que deux des trois capacités—accès aux données sensibles, exécution de code, communication externe. Si les trois capacités sont présentes simultanément, cela pose un risque. Nous garantissons donc la sécurité grâce à cette approche "choisir-deux-sur-trois". De plus, nous avons intégré un contrôle d'accès de niveau entreprise et un moteur de politique, permettant aux entreprises de gérer en fonction de leurs propres systèmes de permission. Nous ferons de notre mieux pour rendre OpenClaw plus sécurisé et contrôlable.
La limite de l'IA n'est pas l'algorithme, mais l'électricité.
Lex Fridman : Vous venez de parler de nombreuses choses qui étaient autrefois considérées comme des goulets d'étranglement dans le passé mais qui ont ensuite été surmontées. Alors, en y regardant maintenant, dans un avenir où les agents seront omniprésents, quel sera le véritable goulet d'étranglement ?
erreurLex Fridman : Mais vous ne semblez pas considérer la chaîne d'approvisionnement comme le goulet d'étranglement le plus préoccupant ?
Jensen Huang : Parce que j'ai systématiquement abordé ces problèmes un par un, je peux maintenant dormir paisiblement. Nous allons raisonner à partir des premiers principes : Qu'implique un changement dans l'architecture du système ? Comment le logiciel va-t-il évoluer ? Comment les processus d'ingénierie vont-ils changer ? Comment la chaîne d'approvisionnement va-t-elle évoluer ? Par exemple, le rack NVLink 72 a déplacé l'intégration du calcul haute performance de l'intérieur du centre de données vers le bord de la chaîne d'approvisionnement. Auparavant, les composants étaient livrés au centre de données pour assemblage, mais maintenant ils sont assemblés en systèmes complets directement dans la chaîne d'approvisionnement, puis transportés.
Cela signifie que la chaîne d'approvisionnement elle-même doit disposer de capacités de fabrication plus solides, comme le soutien aux tests de puissance à grande échelle. Nous avons même besoin que la chaîne d'approvisionnement ait une capacité de puissance au niveau des gigawatts pour tester ces systèmes. Ainsi, je communiquerai personnellement avec les fournisseurs, leur parlerai des besoins futurs et les inciterai à investir des milliards de dollars. Ils me font confiance, et je leur donnerai suffisamment d'informations et de temps pour comprendre ces changements.
Lex Fridman : Alors, êtes-vous inquiet au sujet de goulets d'étranglement spécifiques ? Comme l'EUV, la capacité d'emballage, et ainsi de suite ?
Jensen Huang : Je ne le suis pas. Parce que je leur ai dit ce dont j'ai besoin, et ils m'ont dit comment ils vont le faire. Je leur fais confiance.
Lex Fridman : Revenons maintenant à la question de l'énergie. Comment percevez-vous la question énergétique ?
Jensen Huang : J'aimerais que tout le monde prête attention à un fait : Notre réseau électrique est conçu sur la base du "scénario le plus défavorable", comme la demande de pointe lors de conditions météorologiques extrêmes. Mais en réalité, 99 % du temps, nous sommes loin d'atteindre ce pic, la plupart du temps, nous ne fonctionnons qu'à environ 60 %. Cela signifie que la plupart du temps, le réseau électrique a beaucoup de capacité inutilisée, mais cette capacité doit exister car des infrastructures critiques comme les hôpitaux et les aéroports doivent avoir de l'électricité à des moments cruciaux.
Donc, ce que je pense, c'est que pouvons-nous concevoir un mécanisme où, lorsque le réseau électrique doit fonctionner à pleine capacité, les centres de données réduisent leur consommation d'énergie ; et pendant la plupart du temps, utilisent cette énergie inutilisée ? Par exemple, les centres de données peuvent réduire leur performance, migrer des tâches ou même rétrograder temporairement des services pendant les périodes de pointe. De cette manière, nous pouvons utiliser le réseau électrique de manière plus efficace.
Mais le problème actuel réside dans trois domaines : Premièrement, les clients exigent que les centres de données soient disponibles à 100 % ; deuxièmement, les conceptions des centres de données doivent soutenir cette réduction dynamique ; et troisièmement, les entreprises d'électricité doivent également fournir des modes d'approvisionnement en électricité plus flexibles. Si ces trois points sont atteints, nous pouvons améliorer considérablement l'efficacité de l'utilisation de l'énergie.
Donc, je pense que l'avenir de notre utilisation des ordinateurs et de la construction des centres de données ne devrait pas seulement viser un temps de disponibilité de 100 %. Ces contrats très stricts exercent en réalité beaucoup de pression sur le réseau électrique car ils exigent que le réseau non seulement réponde à la demande de pointe, mais continue également à s'étendre au-delà de cela. Ce que je veux vraiment exploiter, c'est juste cette partie de l'énergie inutilisée excédentaire.
Lex Fridman : Ce point n'est effectivement pas suffisamment discuté. Que pensez-vous est actuellement le principal obstacle ?
Jensen Huang : Je pense que c'est un problème tripartite.
Le premier est le client final. Le client final impose des exigences au centre de données : vous ne pouvez absolument pas être hors ligne, vous ne pouvez absolument pas être indisponible. En d'autres termes, ce que le client attend, c'est la perfection. Et pour atteindre cette perfection, vous avez besoin de générateurs de secours, et le fournisseur de réseau électrique doit également être presque parfait. Ainsi, chaque maillon doit s'efforcer d'atteindre "six nines".
Remarque : "Six nines" fait référence à une disponibilité de 99,9999 %.
Je pense donc que la première chose est de rendre tous les clients, tous les PDG vraiment conscients de ce qu'ils demandent réellement. Souvent, les personnes qui signent ces contrats ne sont en réalité que quelqu'un de l'équipe des opérations du centre de données, éloigné du PDG. Je parie que de nombreux PDG n'ont aucune idée de ce que ces termes de contrat signifient. Je suis prêt à parler à tous.
Ces PDG ne prêtent probablement même pas attention à ces contrats qui sont signés. Tout le monde veut signer le meilleur contrat, ce qui est compréhensible, bien sûr. Et ensuite, ces exigences sont transmises couche par couche aux fournisseurs de cloud, qui les transmettent ensuite aux services publics, de sorte que toute la chaîne exige "six nines". Donc, la première étape est de faire comprendre aux clients et aux PDG ce qu'ils demandent réellement.
La deuxième chose est que nous devons construire des centres de données qui peuvent "se dégrader gracieusement". En d'autres termes, si le réseau nous dit : "Vous devez réduire votre consommation d'énergie à 80 %", nous devrions être en mesure de dire : "Pas de problème."
Nous pouvons reprogrammer les charges de travail. Nous veillerons à ce que les données ne soient jamais perdues, mais nous pouvons réduire le taux de calcul, utiliser un peu moins d'énergie. La qualité du service diminuera légèrement. Pour les charges de travail les plus critiques, je les migrerai immédiatement ailleurs afin qu'elles ne soient pas affectées. Donc, quel que soit le centre de données qui peut encore maintenir un temps de fonctionnement de 100 %, qu'il gère la partie la plus critique.
Lex Fridman : À quel point cette allocation de puissance intelligente et dynamique pour les centres de données est-elle difficile d'un point de vue technique ?
Jensen Huang : Tant que vous pouvez définir le problème clairement, vous pouvez l'ingénier. Vous avez posé la question de manière exceptionnellement claire. Tant que cela s'aligne avec les lois physiques au niveau des premiers principes, je crois que nous pouvons y parvenir.
Lex Fridman : Vous venez de mentionner trois choses, quelle était la troisième ?
Jensen Huang : Le deuxième est le centre de données lui-même, et le troisième est que les entreprises de services publics doivent également réaliser que c'est en fait une opportunité.
Elles ne peuvent pas toujours dire : « Vous devez attendre cinq ans pour que j'élargisse le réseau à ce niveau de capacité. » Si vous êtes prêt à accepter ce niveau d'assurance énergétique, alors je peux réellement vous fournir de l'énergie à ce prix le mois prochain.
Donc, si les entreprises de services publics peuvent également fournir des engagements énergétiques plus diversifiés, je pense que le marché trouvera des solutions correspondantes de lui-même. Il y a actuellement trop de déchets dans le réseau électrique, et nous devrions en tirer parti.
Lex Fridman : Vous avez précédemment loué la capacité d'Elon Musk à construire le superordinateur Colossus à Memphis. Que pensez-vous qu'il vaut la peine d'apprendre de son approche ?
Jensen Huang : Elon est impliqué dans un très large éventail de domaines, mais il est un penseur systémique très fort. Il pose continuellement la question : Est-ce vraiment nécessaire ? Doit-on le faire de cette manière ? Pourquoi cela prend-il autant de temps ? Il compresse le système à la complexité minimale requise tout en conservant les capacités essentielles.
Il est également extrêmement impliqué ; partout où il y a un problème, il s'y rend. Il brise beaucoup de « conventions » et de « processus » pour faire réellement avancer les choses. De plus, son sens de l'urgence imprègne toute la chaîne d'approvisionnement. Il fait en sorte que tous les fournisseurs le priorisent, ce qui est crucial.
Lex Fridman : Avez-vous une approche similaire dans le co-design de NVIDIA ?
Jensen Huang : Le co-design lui-même est la forme ultime de l'ingénierie des systèmes. Nous avons également un concept appelé « pensée à la vitesse de la lumière. » Ce n'est pas seulement la vitesse, c'est la limite physique. Nous évaluons tous les problèmes par rapport à la limite physique : la vitesse de la mémoire, la vitesse de traitement, la consommation d'énergie, le coût, le temps, le cycle de fabrication, etc. Nous posons d'abord la question : À la limite physique, que peut-on réaliser ? Et ensuite, nous faisons des compromis dans la réalité.
Je n'aime pas vraiment l'approche de "l'optimisation continue". Si un processus prend actuellement 74 jours, et que quelqu'un dit qu'il peut être optimisé à 72 jours, je ne l'accepte pas tout à fait. Je préfère repartir de zéro et demander : Pourquoi cela prend-il 74 jours ? Si l'on repart de zéro, combien de temps cela peut-il être fait maintenant ? Souvent, la réponse peut être 6 jours. Alors vous comprenez pourquoi les 68 jours restants existent.
Lex Fridman : Dans un système aussi complexe, le principe de "simplicité" est-il toujours important ?
Jensen Huang : Bien sûr. Ce que nous poursuivons, c'est la "complexité nécessaire" et la "simplicité chaque fois que possible." Nous devons continuellement demander : Cette complexité est-elle nécessaire ? Si ce n'est pas le cas, supprimez-la.
Lex Fridman : Mais votre système est déjà extrêmement complexe, comme le pod Vera Rubin, avec des trillions de transistors et des milliers de GPU.
Jensen Huang : Oui, c'est le système informatique le plus complexe au monde.
Lex Fridman : C'est très intéressant. Vous avez récemment visité la Chine. Je suis donc très curieux de vous poser une question : L'essor étonnant de la Chine dans l'industrie technologique au cours de la dernière décennie a été remarquable. Comment les voyez-vous construire autant d'entreprises de classe mondiale, d'équipes d'ingénierie de classe mondiale et un écosystème technologique qui produit constamment des produits incroyables en si peu de temps ?
Jensen Huang :
Il y a de nombreuses raisons. Commençons par quelques faits de base. À l'échelle mondiale, environ la moitié des chercheurs en IA sont chinois, grosso modo, et la plupart d'entre eux sont encore en Chine. Nous en avons beaucoup ici aussi, mais la Chine elle-même a encore un grand nombre de chercheurs excellents. L'industrie technologique de la Chine a émergé à un moment critique : l'ère de l'internet mobile et du cloud computing. Leur principale voie de contribution est le logiciel, et ce pays a une très solide base en éducation scientifique et mathématique ; les jeunes sont très instruits. Ayant grandi à l'ère du logiciel, ils sont très familiers avec les systèmes logiciels modernes.
De plus, la Chine n'est pas une entité économique unique mais est composée de plusieurs provinces et villes qui se font concurrence. C'est pourquoi vous voyez un grand nombre d'entreprises de véhicules à énergie nouvelle, de nombreuses entreprises d'IA, et presque chaque industrie a de nombreuses entreprises faisant simultanément des choses similaires. Cette concurrence interne est très féroce, et en général, seules les entreprises excellentes survivent.
De plus, leur culture sociale est "la famille d'abord, les amis ensuite, l'entreprise en troisième position." Dans cette structure, l'échange d'informations entre différentes entreprises est très fréquent et crée essentiellement un environnement ouvert à long terme. Par conséquent, leur plus grand investissement dans l'open source découle naturellement de leur réflexion : "Que protégeons-nous vraiment ?" Il existe un chevauchement significatif des relations parmi les ingénieurs : parents, amis, camarades de classe, avec "camarades de classe" étant presque une relation à vie. Cette diffusion rapide des connaissances rend l'open source plus efficace car il y a un manque de forte motivation propriétaire dans la technologie elle-même. La communauté open-source amplifie et accélère davantage le processus d'innovation.
Vous constaterez donc que la combinaison de talents de premier plan, d'innovation rapide axée sur l'open-source, de relations hautement interconnectées et d'une concurrence intense produit finalement des résultats techniques très solides. Dans cette perspective, la Chine est actuellement le pays le plus innovant au monde. Derrière tout cela se trouvent des facteurs fondamentaux : le système éducatif, l'accent mis sur l'apprentissage au sein des familles, la structure culturelle et le positionnement fortuit dans une fenêtre clé de développement technologique exponentiel.
Lex Fridman : Culturellement, être ingénieur est une chose très "cool".
Jensen Huang : Oui, c'est un "pays de type ingénieur". De nombreux dirigeants aux États-Unis ont une formation juridique, ce qui est essentiel pour la gouvernance et la stabilité institutionnelle ; tandis que de nombreux dirigeants en Chine sont eux-mêmes d'excellents ingénieurs.
Lex Fridman : Vous avez mentionné le code source ouvert plus tôt, et j'aimerais approfondir ce sujet. Vous avez toujours tenu Perplexity en haute estime.
Jensen Huang : Je l'adore.
Lex Fridman : De plus, merci d'avoir rendu Nemotron 3 Super open-source, un modèle MoE de 1,2 trillion de paramètres qui peut désormais être utilisé dans Perplexity. Comment percevez-vous l'importance à long terme du code source ouvert ? Des entreprises comme DeepSeek et MiniMax en Chine propulsent l'IA open-source, et NVIDIA travaille également sur des modèles open-source presque à la pointe de la technologie. Quelle est votre évaluation globale ?
Jensen Huang : Tout d'abord, si nous voulons être une excellente entreprise de calcul en IA, nous devons comprendre comment les modèles ont évolué. Ce que j'apprécie vraiment dans Nemotron 3, c'est qu'il n'est pas un pur Transformer mais une combinaison de Transformer et de SSM. Nous avons également été parmi les premiers à tracer des voies sur les GANs conditionnels et les GANs progressifs, qui ont progressivement évolué vers la diffusion. C'est cette accumulation dans l'architecture des modèles et la recherche fondamentale qui nous permet d'anticiper dès le départ quel type de systèmes de calcul les futurs modèles nécessiteront. Cela, en soi, fait partie de notre "co-design extrême".
Deuxièmement, d'une part, nous devons avoir des modèles de classe mondiale en tant que produits, qui peuvent être propriétaires ; mais d'autre part, nous espérons également que l'IA puisse se répandre dans toutes les industries, pays, chercheurs et étudiants. Si tout est fermé, il est difficile de mener des recherches et d'innover davantage sur cette base. Par conséquent, pour de nombreuses industries, le code source ouvert est une condition nécessaire pour participer à la révolution de l'IA. NVIDIA a l'échelle et la motivation pour construire continuellement ces modèles à long terme, et nous avons également la capacité de dynamiser l'ensemble de l'écosystème pour impliquer davantage de personnes.
Le troisième point est que l'IA n'est pas seulement une question de langage. L'IA future fera appel à des outils, des sous-modèles et impliquera différentes modalités telles que la biologie, la chimie, la physique, les fluides, la thermodynamique, qui n'existent pas toutes sous forme linguistique. Par conséquent, il doit y avoir des efforts continus pour faire progresser des directions telles que l'IA météorologique, l'IA biologique, l'IA physique, etc., et s'approcher constamment de la frontière. Nous ne fabriquons pas de voitures, mais nous espérons que chaque constructeur automobile pourra utiliser les meilleurs modèles ; nous ne participons pas au développement de médicaments, mais nous espérons que des entreprises comme Gilead pourront disposer du meilleur système d'IA biologique.
Ainsi, en considérant l'IA dans toute sa largeur, la popularité de l'IA et l'évolution collaborative de l'IA et de l'architecture informatique, l'open source est nécessaire.
Lex Fridman : Encore une fois, merci d'avoir rendu Nemotron 3 open source.
Jensen Huang : Nous avons non seulement rendu le modèle open source, mais aussi les poids, les données et les méthodes de construction.
Lex Fridman : Vraiment remarquable.
Jensen Huang : Merci.
Lex Fridman : Vous êtes né à Taïwan, en Chine, et vous avez eu un partenariat à long terme avec TSMC. Je voudrais demander, comment comprenez-vous la culture de TSMC, et comment a-t-elle réussi un succès aussi unique ?
Jensen Huang : La plus grande idée reçue des personnes extérieures à TSMC est que son cœur n'est que la technologie. Bien sûr, leur technologie est en effet très forte, y compris les transistors, les couches métalliques, l'emballage avancé, l'emballage 3D et la photonique silicium. Mais ce qui les distingue vraiment, ce sont leurs capacités de coordination en réponse aux demandes de l'ensemble de l'industrie.
Ils doivent simultanément répondre aux besoins en constante évolution de centaines de clients mondiaux : augmentations ou diminutions de commandes, changements de clients, ajouts d'urgence, pauses de production, redémarrages, etc. Malgré un environnement aussi dynamique, ils parviennent toujours à maintenir un haut débit, un rendement élevé, des coûts bas et un niveau de service extrêmement élevé.
Ils prennent leurs engagements très au sérieux. Lorsqu'ils disent qu'une plaquette sera livrée à un certain moment, elle sera livrée, et cela affecte directement les opérations des entreprises clientes. Par conséquent, leur système de fabrication peut être décrit comme un miracle.
Le deuxième point est la culture. D'une part, ils continuent de repousser la frontière technologique, et d'autre part, ils sont très centrés sur le client. De nombreuses entreprises ne peuvent bien faire qu'une de ces choses, mais elles ont réussi à faire les deux à un niveau mondial.
Le troisième point est un actif immatériel, la confiance. C'est très important. Je pourrais complètement construire mon entreprise sur la leur, et cette confiance s'accumule grâce à une coopération à long terme.
Lex Fridman : Cette confiance provient à la fois d'une collaboration à long terme et de relations interpersonnelles.
Jensen Huang : Oui. Nous collaborons depuis trente ans, impliquant des dizaines, voire des centaines de milliards de dollars en affaires, mais nous n'avons même pas de contrat entre nous.
Lex Fridman : Vraiment incroyable. Il y a un dicton selon lequel en 2013, le fondateur de TSMC, Morris Chang, vous a invité à être le PDG, et vous avez décliné. Est-ce vrai ?
Jensen Huang : C'est vrai. J'étais très honoré, mais à ce moment-là, j'étais également très clair sur le fait que ce que faisait NVIDIA était extrêmement important. J'avais vu ce que cela deviendrait à l'avenir et l'impact que cela pourrait avoir. C'était ma responsabilité, et je devais le faire. Donc, j'ai décliné, non pas parce que l'opportunité n'était pas importante, mais parce que je ne pouvais pas m'en éloigner.
Lex Fridman : Je pense que NVIDIA et TSMC sont toutes deux parmi les plus grandes entreprises de l'histoire humaine.
Jensen Huang : Merci.
Lex Fridman : Je dois poser une question. En utilisant les mots couramment entendus dans l'industrie technologique, quel est votre plus grand "rempart", c'est-à-dire, quel est l'avantage fondamental qui vous aide à repousser la concurrence ?
Jensen Huang :
Au cœur, c'est l'échelle de notre plateforme de calcul, qui est la base installée de CUDA. Nous n'avions pas cet avantage il y a vingt ans, mais aujourd'hui, la situation est complètement différente. Même si quelqu'un devait développer une technologie similaire à CUDA, il serait difficile de changer le paysage actuel. Car la clé n'a jamais été seulement la technologie elle-même, mais l'avantage systémique formé par un investissement à long terme, une itération continue et une expansion constante.
Le succès de CUDA n'a pas été atteint par une poignée de personnes, mais a été le résultat de 43 000 employés et de millions de développeurs travaillant ensemble. Les développeurs choisissent de développer sur CUDA parce qu'ils croient que nous maintiendrons cette plateforme à long terme et continuerons à faire avancer son développement. Par conséquent, la "base installée" elle-même est l'avantage le plus crucial.
Lorsque cet avantage d'échelle est combiné à notre vitesse d'exécution, cela crée une barrière plus forte. Historiquement, peu d'entreprises ont été capables de construire un système aussi complexe à cette vitesse, sans parler d'itérer continuellement sur une cadence annuelle.
Du point de vue d'un développeur, si vous choisissez de soutenir CUDA, vous pouvez vous attendre à ce qu'il soit plus puissant six mois plus tard, et en même temps, vous pouvez atteindre des centaines de millions d'appareils dans le monde entier, couvrant toutes les plateformes cloud, presque toutes les industries et divers pays. Si vous open-sourcisez un projet et priorisez le support de CUDA, vous gagnez non seulement en échelle mais aussi en vitesse de croissance.
S'ajoute à cela l'aspect de la "confiance", où les développeurs croient qu'NVIDIA maintiendra cet écosystème à long terme. Si j'étais développeur, je prioriserais le choix de CUDA.
Le deuxième avantage est notre écosystème. Nous sommes hautement intégrés dans le système de calcul verticalement et intégrés horizontalement dans presque tous les produits des entreprises. Nous existons sur Google Cloud, Amazon, Azure, et aussi sur de nouvelles plateformes cloud comme CoreWeave, couvrant les superordinateurs, les systèmes d'entreprise, les dispositifs en périphérie, les voitures, les robots, les satellites, et même l'espace.
En d'autres termes, une architecture de calcul unifiée qui a pénétré presque toutes les industries.
Lex Fridman : Donc, avec le développement des usines d'IA, comment cet avantage d'installation de CUDA va-t-il évoluer ? L'avenir d'NVIDIA deviendra-t-il essentiellement une "entreprise d'usine d'IA" ?
Jensen Huang : Dans le passé, notre unité de calcul était le GPU ; plus tard, elle est devenue un ordinateur entier, puis un cluster ; maintenant, c'est une usine d'IA complète. Dans le passé, lorsque je lançais un produit de nouvelle génération comme le lancement d'Ampere aujourd'hui, je tenais une puce. C'était mon "modèle mental" à l'époque. Mais aujourd'hui, c'est différent. Tenir une puce est devenu quelque peu "mignon" dans une certaine mesure—cela ne représente plus ce que nous avons réellement construit.
Maintenant, le modèle dans mon esprit est un énorme système : il se connecte au réseau, possède des systèmes de production d'énergie, des systèmes de refroidissement, des structures de réseau extrêmement complexes, des dizaines de milliers de personnes installant sur site, et des dizaines de milliers d'ingénieurs soutenant en coulisses. Démarrer un tel système n'est pas une question d'appuyer sur un interrupteur ; cela nécessite des milliers de personnes travaillant ensemble.
Lex Fridman : Donc, lorsque vous pensez à "une unité de calcul" maintenant, vous pensez en réalité à un ensemble complet de racks, un pod, plutôt qu'à une seule puce ?
Jensen Huang : C'est toute l'infrastructure. Et j'espère que mon prochain saut cognitif sera de comprendre l'acte de "construire un ordinateur" comme un problème de "taille planétaire". Ce serait la prochaine étape.
Lex Fridman : Pensez-vous qu'NVIDIA pourrait potentiellement atteindre une capitalisation boursière de 1 trillion de dollars à l'avenir ? Ou en le regardant sous un angle différent, si cela devait se produire, à quoi ressemblerait le monde ?
Jensen Huang : Je crois que la croissance d'NVIDIA est très probable, voire inévitable à mon avis. Permettez-moi d'expliquer la raison.
Tout d'abord, nous sommes déjà l'une des plus grandes entreprises de calcul de l'histoire. Cela seul mérite d'être médité : Pourquoi cela ?
Il y a deux raisons, toutes deux des changements technologiques fondamentaux.
Tout d'abord, il y a eu un changement dans le paradigme de calcul. Le calcul passé était fondamentalement un "système de récupération." Nous avons pré-rédigé du contenu, enregistré du contenu, généré des fichiers, puis récupéré ce contenu via un système de recommandation ou un système de recherche. En d'autres termes, c'était un système de "pré-génération humaine + récupération de fichiers". Maintenant, le calcul par IA est basé sur le contexte, nécessitant un traitement en temps réel et une génération de jetons. Nous sommes passés d'un "calcul basé sur la récupération" à un "calcul basé sur la génération".
Dans l'ancien système, nous avions besoin de beaucoup de stockage ; dans le nouveau système, nous avons besoin de beaucoup de calcul. Par conséquent, la demande de calcul augmentera considérablement. Le seul scénario qui pourrait changer cette tendance est si ce calcul génératif s'avère inefficace. Mais au cours des 10 à 15 dernières années de recherche en apprentissage profond, et des progrès récents au cours des 5 dernières années, je suis plus confiant que jamais.
Le deuxième changement est que le rôle des ordinateurs dans le monde a changé. Dans le passé, les ordinateurs ressemblaient davantage à un entrepôt ; maintenant, ils ressemblent davantage à une usine. Un entrepôt en lui-même ne génère pas directement de revenus, tandis qu'une usine est directement liée aux revenus. Les ordinateurs ne sont plus seulement des systèmes de stockage, mais des systèmes de production. Les "produits" qu'ils produisent sont des jetons. Et ces jetons sont consommés par différents groupes de personnes, montrant des couches, tout comme l'iPhone : il y en a des gratuits, des haut de gamme et des intermédiaires.
L'intelligence, fondamentalement, est devenue un produit évolutif. À l'avenir, il y aura bientôt une situation où quelqu'un sera prêt à payer 1 000 $ pour chaque million de jetons. Ce n'est pas une question de savoir si cela va se produire, c'est juste une question de temps.
Ainsi, la question devient : Combien d'"usines d'IA" le monde a-t-il besoin ? Combien de jetons sont nécessaires ? Combien la société est-elle prête à payer pour ces jetons ? Si la productivité augmente considérablement en conséquence, quels changements se produiront dans l'économie mondiale ? Découvrirons-nous de nouveaux médicaments, de nouveaux produits, de nouveaux services ?
Lorsque vous considérez tous ces facteurs ensemble, je suis très certain : Le PIB mondial va s'accélérer. En même temps, la part des dépenses en calcul sera d'un ordre de grandeur supérieur à celle du passé.
Dans ce contexte, pour revenir à NVIDIA : notre rôle dans cette nouvelle économie sera beaucoup plus important qu'il ne l'est actuellement. Quant aux chiffres, par exemple, est-il possible d'atteindre 3 trillions de dollars de revenus à l'avenir ? La réponse est, bien sûr, possible. Parce que cela n'est pas contraint par des limites physiques évidentes.
La chaîne d'approvisionnement de NVIDIA est soutenue par 200 entreprises travaillant ensemble, et nous nous développons à travers tout l'écosystème. La seule véritable contrainte est : l'énergie. Et je crois que la question de l'énergie peut finalement être résolue.
Ainsi, ces chiffres eux-mêmes ne sont que des "chiffres". Je me souviens quand NVIDIA a d'abord dépassé 1 milliard de dollars de revenus, quelqu'un m'a dit : "Une entreprise de semi-conducteurs sans usine ne peut pas dépasser 1 milliard de dollars." Plus tard, quelqu'un d'autre a dit : "Vous ne pouvez pas dépasser 25 milliards de dollars."
Ces évaluations ne sont pas basées sur des principes fondamentaux. La vraie question à poser est : Que créons-nous ? Quelle est l'ampleur de cette opportunité ?
NVIDIA ne concurrence pas la part de marché existante. Une grande partie de ce que nous faisons est destinée à un marché qui n'existe pas encore. C'est pourquoi il est difficile pour les personnes extérieures d'imaginer notre limite, car il n'y a pas de point de référence prêt. Mais j'ai suffisamment de temps. Je continuerai à déduire et à articuler. Chaque GTC rendra cet avenir plus concret. En fin de compte, nous franchirons cette étape. Je suis 100 % certain de cela.
Lex Fridman : En le regardant du point de vue d'une "usine de jetons", tout le système peut en fait être compris comme : générer des jetons par watt, par seconde, et chaque jeton a une valeur, avec une valeur différente pour différentes personnes. De cette manière, le monde entier est composé de nombreuses "usines de jetons". En partant des premiers principes, tant que les problèmes que l'IA peut résoudre continuent d'augmenter, nous pouvons déduire que la demande pour ces "usines" dans le futur augmentera de manière exponentielle.
Jensen Huang : Oui. Une chose qui m'excite beaucoup, c'est que le "moment iPhone des jetons" est arrivé.
Lex Fridman : Que voulez-vous dire ?
Jensen Huang : Agent. L'agent devient la forme d'application à la croissance la plus rapide de l'histoire.
Lex Fridman : Donc, à partir de décembre dernier, les gens ont vraiment commencé à réaliser les capacités de systèmes comme Claude Code, Codex et OpenClaw ? Honnêtement, je me sens un peu gêné d'admettre : quand j'étais à l'aéroport, j'ai commencé à "parler à l'ordinateur pour coder" pour la première fois, tout comme je communique avec des collègues. Je ne suis pas sûr de ce à quoi cela ressemblera pour tout le monde d'interagir avec l'IA de cette manière à l'avenir, mais l'efficacité est en effet très élevée.
Jensen Huang : Ce qui est plus probable, c'est que votre IA vous "interrompra" constamment. Parce qu'elle accomplit les tâches très rapidement, elle vous donnera continuellement des retours : « C'est fait, quelle est la prochaine étape ? »
Lex Fridman : C'est vraiment un avenir incroyable.
Lex Fridman : J'ai vu que vous mentionnez que votre succès est en grande partie dû à votre capacité à travailler plus dur que les autres et à endurer plus de douleur que les autres.
Cette "douleur" englobe en réalité de nombreux aspects, tels que faire face à l'échec, les défis d'ingénierie et les problèmes de coûts dont nous venons de parler, ainsi que les problèmes interpersonnels, l'incertitude, la responsabilité, la fatigue, l'embarras, et ces moments que vous avez mentionnés lorsque l'entreprise était au bord de l'effondrement.
Mais au-delà de cela, il y a aussi la pression. En tant que PDG d'une entreprise entourée de gouvernements et d'économies à travers le monde, façonnant l'allocation des ressources et la planification de l'infrastructure de l'IA, comment gérez-vous ce type de pression ? Avec tant de pays et de personnes comptant sur vous, d'où vient votre force ?
Jensen Huang : Je suis pleinement conscient que le succès de NVIDIA est important pour les États-Unis. Nous générons une quantité significative de revenus fiscaux, établissons une position technologique de premier plan, et le leadership technologique lui-même fait partie de la sécurité nationale. Une nation plus riche peut mieux promouvoir des politiques sociales. En même temps, nous contribuons également à la réindustrialisation, créant un grand nombre d'opportunités d'emploi, reconstruisant les capacités de fabrication nationales, y compris les puces, les ordinateurs et les usines d'IA. Je suis également très conscient que de nombreux investisseurs ordinaires—enseignants, policiers—ont gagné de la richesse en investissant dans NVIDIA. De plus, NVIDIA fait partie d'un vaste écosystème, avec de nombreux partenaires en amont et en aval qui comptent sur nous.
Face à tout cela, mon approche est très simple : décomposer le problème.
Je me demande, quelle est la situation actuelle ? Qu'est-ce qui a changé ? Où se trouvent les défis ? Que puis-je faire ? Une fois le problème décomposé, il devient une série de tâches réalisables.
Il ne reste alors qu'une seule question : L'avez-vous fait ? Ou avez-vous fait faire cela par quelqu'un d'autre ? Si vous croyez que quelque chose doit être fait mais que vous ne l'avez ni fait vous-même ni poussé les autres à le faire, alors il n'y a pas de raison de s'en plaindre.
Je suis assez strict avec moi-même. Mais en même temps, j'évite également la panique en décomposant les problèmes. Je peux dormir paisiblement sachant que j'ai identifié tous les points de risque et informé les parties responsables concernées. Tant que les choses avancent comme elles le devraient, il n'est pas nécessaire d'être anxieux.
Lex Fridman : Avez-vous connu des baisses psychologiques dans ce processus ?
Jensen Huang : Bien sûr, de nombreuses fois.
Lex Fridman : Et votre méthode consiste-t-elle toujours à décomposer le problème ?
Jensen Huang : Oui. Un autre point est "apprendre à oublier." Dans l'apprentissage automatique, il existe une capacité importante appelée "oubli sélectif." C'est la même chose pour les humains : vous ne pouvez pas tout emporter avec vous. Je décompose rapidement un problème et ensuite je répartis la pression. Tout ce qui m'inquiète, je le dis aux personnes concernées dès que possible plutôt que de le porter moi-même. Bien sûr, vous devez également être strict avec vous-même : ne vous laissez pas submerger par les émotions, continuez simplement à avancer.
Une autre chose est que vous serez attiré par le "futur." Comme les athlètes, ils se concentrent uniquement sur le prochain point, pas sur l'erreur du précédent.
Lex Fridman : Vous avez dit un jour que si vous aviez su à quel point NVIDIA était difficile dès le début, vous ne l'auriez peut-être pas fait.
Jensen Huang : Oui. Mais ce que je veux exprimer, c'est que cela s'applique presque à tout ce qui vaut la peine d'être fait. Vous devez avoir un "esprit d'enfant" : lorsque vous voyez quelque chose, votre première réaction devrait être : "À quel point cela est-il difficile ?" plutôt que de simuler toutes les difficultés à l'avance. Vous ne devriez pas répéter tous les revers avant même de commencer. Vous devriez entrer avec l'attente que "cela sera génial." Cependant, une fois que vous êtes à l'intérieur, vous devez être résilient. Des revers, des échecs et des humiliations se produiront, souvent de manière inattendue. À ce stade, ce que vous devez faire est : oublier cela et continuer à avancer. Tant que votre jugement de base sur l'avenir n'a pas changé, vous devriez continuer.
Lex Fridman : Après avoir connu tant de succès, est-il plus difficile de rester humble ?
Jensen Huang : Au contraire. Parce que beaucoup de choses que je fais sont publiques, une fois qu'une erreur de jugement se produit, tout le monde peut le voir. De plus, mon style de gestion est "raisonnement ouvert." Je ne donne pas directement de conclusions ; j'explique le processus de raisonnement et laisse chacun juger de sa validité.
Je continue de dire : "C'est mon chemin de compréhension actuel," puis j'explique le processus de raisonnement. Cela donne à chacun l'opportunité de soulever différentes opinions à chaque étape. Ils n'ont pas besoin de nier la conclusion, juste de signaler un problème dans une certaine étape de raisonnement, et nous pouvons continuer la déduction à partir de là. C'est essentiellement une manière de "trouver collectivement un chemin," et c'est très efficace.
Lex Fridman : Lorsque vous expliquez un problème, vous maintenez toujours un état ouvert, faisant sentir aux gens qu'ils peuvent participer et même influencer votre pensée. Il est en fait très difficile de maintenir cet état après avoir connu tant de succès et de pression. Beaucoup de gens se ferment à cause de la douleur.
Jensen Huang : Je pense qu'une clé est la tolérance à "faire le fou."
Lex Fridman : Oui, c'est en effet une capacité très réelle. Au fil des ans, vivre à plusieurs reprises "prendre une décision lors d'une réunion qui s'est révélée être erronée", et pouvoir l'admettre franchement et en tirer des leçons est en réalité très difficile sur le plan psychologique.
Jensen Huang : Oui. Vous savez, mon tout premier emploi était en fait de nettoyer les toilettes.
Lex Fridman : Je suis heureux que vous ayez toujours maintenu cette même attitude que vous aviez lorsque vous travailliez chez Denny's. L'expérience de commencer chez Denny's est en elle-même très émouvante. Je veux parler de jeux vidéo. Je suis moi-même un grand joueur, et je dois remercier NVIDIA pour la formidable expérience graphique qu'ils ont fournie au fil des ans.
Jensen Huang : Au fait, à ce jour, GeForce reste notre point d'entrée marketing le plus important. Beaucoup de gens ont connu NVIDIA à travers les jeux vidéo durant leur adolescence. Ensuite, ils sont allés à l'université en sachant déjà ce qu'était NVIDIA. Ils ont commencé par jouer à "Call of Duty", à "Fortnite", puis ont commencé à utiliser CUDA, et finalement ils ont utilisé des outils au sein de l'écosystème NVIDIA comme Blender, Dassault, Autodesk, etc.
Lex Fridman : Oui. J'ai dit à un ami que j'allais avoir une conversation avec vous, et sa première réaction a été : "Ils fabriquent vraiment de très bonnes cartes graphiques pour les jeux."
Jensen Huang : C'est exact (rit).
Lex Fridman : Bien sûr, il y a beaucoup plus que cela. Mais en effet, beaucoup de gens aiment vraiment ces produits, et ils apportent beaucoup de plaisir. Le matériel lui-même donne vraiment vie à ces mondes virtuels. Cependant, il y a eu récemment quelques controverses concernant DLSS 5. Certains joueurs s'inquiètent que cela fasse ressembler les jeux à "du contenu bon marché généré par l'IA." Comment voyez-vous cette discussion ?
Jensen Huang : Je peux comprendre leur point de vue et d'où vient cette préoccupation. Parce qu'une grande partie du contenu généré par l'IA de nos jours devient en effet de plus en plus homogène, bien que tout soit très "beau", mais manquant de personnalité. Je n'aime pas moi-même ce genre de "contenu formulaïque généré par l'IA".
Mais ce n'est pas ce que DLSS 5 essaie de faire. J'ai montré quelques exemples. DLSS 5 est basé sur des contraintes de conditions 3D, guidées par des données structurelles réelles. La structure géométrique de la scène est entièrement déterminée par l'artiste, et le système adhère strictement à ces structures dans chaque image.
En même temps, il est également contraint par les textures et le style artistique. Par conséquent, chaque image est "améliorée", et non "changée". Concernant "l'amélioration", DLSS 5 lui-même est un système ouvert. Les développeurs peuvent entraîner leurs propres modèles, et à l'avenir, ils peuvent même définir des styles par le biais de prompts, tels que le rendu de dessins animés, ou fournir des échantillons de référence pour que le système génère dans un certain style.
Cependant, tous les résultats doivent s'aligner sur le style et l'intention créative de l'artiste. L'existence de ces outils est d'assister les artistes dans la création de contenu plus beau tout en maintenant le style qu'ils désirent.
De nombreux joueurs se méprennent, pensant que le jeu est d'abord créé tel quel, puis traité par DLSS. Mais ce n'est pas ainsi que DLSS est conçu. DLSS est profondément intégré dans le processus créatif ; il fournit essentiellement des outils d'IA aux artistes. Leur décision de l'utiliser leur appartient entièrement.
Lex Fridman : Je pense que les humains sont particulièrement sensibles au "visage". Maintenant, les gens sont également devenus sensibles au contenu généré par l'IA, ce que je considère comme une bonne chose. C'est comme un miroir qui nous fait réaliser que ce que les humains poursuivent vraiment n'est pas nécessairement la perfection mais parfois une sorte d'"imperfection". Cela nous aide à comprendre quel type de monde est attrayant. Tant que ces outils nous aident à créer ces mondes, c'est une bonne chose.
Jensen Huang : Exactement. C'est juste un autre outil. Si les développeurs souhaitent générer du contenu de style non réaliste, le modèle peut le faire aussi. En un sens, cela est similaire à lorsque nous avons introduit des shaders de peau dans le passé. Nous avons un jour ajouté de la diffusion sous-surface pour rendre la peau plus réaliste. Toute l'industrie recherche davantage d'outils pour exprimer l'art, et le DLSS n'est qu'un d'entre eux. La décision ultime revient toujours au créateur.
Lex Fridman : Une question plutôt décontractée. Du point de vue de NVIDIA, quel est selon vous le jeu le plus grand ou le plus influent de l'histoire ?
Jensen Huang : Doom.
Lex Fridman : Doom, sans aucun doute. Il a marqué le début de l'ère 3D.
Jensen Huang : Du point de vue de l'art, de l'influence culturelle et des tournants de l'industrie, Doom est crucial. Il a transformé le PC d'un outil d'automatisation de bureau en un ordinateur personnel pour les foyers et les joueurs, ce qui était une étape significative. Bien sûr, il y avait des jeux de simulation de vol avant cela, mais ils n'ont pas eu l'impact généralisé de Doom. D'un point de vue purement technique, je choisirais Virtua Fighter. Nous avons de bonnes relations avec les équipes derrière ces deux œuvres.
Lex Fridman : Il existe également des œuvres plus récentes, telles que "Cyberpunk 2077", qui excellent en matière d'accélération GPU.
Jensen Huang : Oui, c'est entièrement ray-tracé.
Lex Fridman : J'aime personnellement "The Elder Scrolls V: Skyrim". Bien qu'il ait été publié depuis de nombreuses années, grâce à divers mods, chaque partie de jeu semble être un tout nouveau jeu.
Jensen Huang : Nous aimons également la communauté des moddeurs. Nous avons introduit le Mod RTX, qui est un outil de modding permettant à la communauté d'injecter la dernière technologie graphique dans de vieux jeux.
Lex Fridman : Bien sûr, un grand jeu ne se résume pas seulement aux graphismes, mais aussi à l'histoire et aux personnages. Cependant, d'excellents graphismes peuvent effectivement améliorer l'immersion et vous faire sentir que vous êtes transporté dans un autre monde.
Jensen Huang : Je suis tout à fait d'accord.
Lex Fridman : Un point que vous avez mentionné et que je trouve très juste : le calendrier pour l'AGI dépend essentiellement de la façon dont vous définissez l'AGI.
Lex Fridman : Je veux poser une question sur le temps. Nous pouvons discuter de l'AGI avec une définition peut-être quelque peu extrême : imaginez un système d'IA capable de faire votre travail : c'est-à-dire, partir de zéro, créer, développer et gérer une entreprise technologique prospère avec une capitalisation boursière dépassant 1 milliard de dollars.
Jensen Huang : Parlons-nous de "sociétés prospères" ou "une seule suffit" ?
Lex Fridman : Il doit s'agir d'une entreprise prospère avec une capitalisation boursière dépassant 1 milliard de dollars. Comme vous le savez, cela implique de nombreux facteurs complexes. Alors, combien de temps pensez-vous que cette capacité pourrait prendre ? 5 ans, 10 ans, 15 ans ou 20 ans ? Nous parlons d'un système comme OpenClaw qui peut effectuer tout un ensemble de tâches complexes telles que l'innovation, la recherche de clients, la vente de produits, la gestion d'équipes (y compris la collaboration homme-IA), etc.
Jensen Huang : Je crois que cela peut être fait maintenant. Je pense que nous avons déjà atteint l'AGI.
Lex Fridman : Dites-vous qu'il est possible dès maintenant d'avoir une entreprise dirigée par une IA ?
Jensen Huang : C'est possible. La raison est, comme vous l'avez dit, d'"atteindre 1 milliard de dollars", mais il n'y a aucune exigence pour la "durabilité à long terme". Par exemple, une IA pourrait très bien développer un service ou une application réseau, soudainement utilisée par des milliards de personnes, chacune payant 0,5 $, puis disparaître rapidement en peu de temps. À l'ère d'Internet, il y a en fait eu de nombreuses entreprises comme celle-ci. Et leur complexité technologique à l'époque n'était pas plus élevée que ce qu'OpenClaw peut réaliser aujourd'hui.
Lex Fridman : Donc, la clé est d'atteindre une diffusion virale et de la monétiser.
Jensen Huang : Oui. Nous ne savons tout simplement pas exactement quel produit ce sera. Tout comme à l'époque, nous ne pouvions pas prédire quelles entreprises Internet réussiraient.
Lex Fridman : Votre déclaration enthousiasmerait de nombreuses personnes—cela ressemble à : tout ce que j'ai à faire est de déployer un agent et je peux gagner beaucoup d'argent.
L'IA prendra-t-elle des emplois ? Non, mais elle changera la définition du travail.
Jensen Huang : En fait, cela se produit déjà. Si vous allez en Chine, vous verrez de nombreuses personnes former leurs agents pour trouver des emplois, effectuer des tâches, ou même gagner de l'argent directement. Si une application sociale explose soudainement dans le futur, je ne serais pas surpris. Par exemple, un personnage numérique très mignon, ou un produit similaire à un Tamagotchi, pourrait devenir extrêmement populaire pendant quelques mois avec une large base d'utilisateurs, puis s'estomper rapidement. Bien sûr, la probabilité de succès si 100 000 agents essaient de "construire un NVIDIA" est nulle.
Mais je tiens à souligner une chose : de nombreuses personnes se sentent anxieuses à propos du travail en ce moment.
Je veux rappeler à tout le monde que le "but" du travail et les "tâches et outils" pour accomplir le travail sont liés mais pas identiques. Je suis dans ce poste depuis 33 ans, ce qui fait de moi le PDG en poste le plus ancien dans l'industrie technologique (34 ans). Au cours de ces 34 années, les outils que j'ai utilisés ont toujours changé, parfois de manière spectaculaire.
Il y a une histoire que je veux que tout le monde entende. Au départ, les informaticiens et les chercheurs en IA prédisaient que la première profession à disparaître serait celle de radiologue. Parce que la vision par ordinateur atteindrait ou dépasserait les niveaux humains, et en effet, c'est ce qui s'est produit. Vers 2019 à 2020, la vision par ordinateur avait déjà dépassé les niveaux humains. La prédiction à l'époque était : puisque l'IA peut effectuer des analyses d'images, la profession de radiologue disparaîtrait.
Mais le contraire s'est produit. Aujourd'hui, toutes les plateformes de radiologie sont pilotées par l'IA, pourtant le nombre de radiologues a augmenté, et il y a toujours une pénurie mondiale.
Pourquoi est-ce ainsi ? Parce que le "but" d'un radiologue est de diagnostiquer des maladies, d'aider les médecins et les patients à prendre des décisions. Lorsque l'IA a rendu l'analyse d'images plus rapide : nous pouvions analyser plus d'images, diagnostiquer plus précisément, voir plus de patients, augmenter les revenus des hôpitaux, attirer plus de patients, et ainsi, la demande pour les radiologues a augmenté.
C'est un résultat très intuitif. La même logique s'applique aux ingénieurs logiciels. Le nombre d'ingénieurs logiciels chez NVIDIA va augmenter, pas diminuer. Parce que le "but" des ingénieurs logiciels est de résoudre des problèmes, et le codage n'est qu'un moyen d'y parvenir.
Leur travail comprend : la résolution de problèmes, le travail d'équipe, le diagnostic de problèmes, l'évaluation des résultats, la recherche de problèmes, la conduite de l'innovation et l'établissement de connexions. Ces compétences ne disparaîtront pas.
Lex Fridman : Pensez-vous que le nombre de programmeurs augmentera plutôt que de diminuer ?
Jensen Huang : Oui. La clé est de savoir comment nous définissons "la programmation". Je pense qu'en fin de compte, la programmation est "la spécification". Vous pouvez donner des instructions claires, même définir l'architecture du système.
Alors la question est : combien de personnes peuvent faire cela ? Essentiellement, c'est "dire à l'ordinateur quoi faire." Dans le passé, peut-être environ 30 millions de personnes pouvaient le faire ; dans le futur, peut-être qu'il y aura 1 milliard de personnes. À l'avenir, chaque menuisier deviendra un "programmeur." Et avec l'IA, ils sont aussi des "architectes." Ils peuvent considérablement augmenter la valeur qu'ils créent pour les clients, et leur capacité d'expression est grandement améliorée. De même, les comptables de l'avenir auront également des compétences en analyse financière et en conseil.
Toutes les professions seront "élevées." Si j'étais menuisier, je serais extrêmement enthousiaste à propos de l'IA car elle peut me permettre de fournir des services à un niveau complètement différent ; et si j'étais plombier, je le serais aussi.
Lex Fridman : Les ingénieurs logiciels actuels peuvent encore être en position de leader pour comprendre comment interagir avec l'IA en langage naturel et comment concevoir des systèmes.
Jensen Huang : C'est exact.
Lex Fridman : Mais à long terme, cette capacité deviendra progressivement répandue. Cependant, je crois toujours que l'apprentissage de la programmation traditionnelle, des langages, des principes de conception et de l'architecture de systèmes à grande échelle a encore de la valeur.
Jensen Huang : Oui. Parce que "comment définir un problème" est, en soi, une compétence. La manière dont une spécification est exprimée dépend du problème que vous essayez de résoudre. Par exemple, au niveau d'une entreprise, lors de la formulation d'une stratégie, je fournirai une direction suffisamment claire pour que l'équipe puisse exécuter ; mais je laisse également délibérément de la place pour que 43 000 personnes fassent mieux que ce que j'imaginais à partir de cela. Par conséquent, le niveau de détail dans la spécification est différent selon les scénarios. À l'avenir, chacun doit trouver sa place sur ce "spectre de programmation." Écrire une spécification est en soi de la programmation.
Parfois, vous avez besoin d'instructions très claires ; parfois, vous avez besoin d'une exploration plus ouverte, en interagissant avec l'IA de manière répétée, en élargissant votre créativité. C'est l'avenir de la programmation.
Lex Fridman : Cependant, d'un point de vue plus large, de nombreuses personnes sont anxieuses au sujet de l'emploi, en particulier parmi les travailleurs de bureau. Chaque fois que l'automatisation et les nouvelles technologies apparaissent, elles entraînent des bouleversements. Je pense que nous devons avoir de l'empathie pour cette anxiété car la douleur du chômage est une expérience réelle pour les individus et les familles. J'espère que ces technologies apporteront finalement plus d'opportunités, rendront les gens plus efficaces et rendront le travail plus intéressant, comme c'est actuellement le cas dans le domaine de la programmation. Mais dans le processus de transition, il y aura effectivement beaucoup de douleur.
Jensen Huang : Mon premier conseil à tous concerne la manière de gérer l'anxiété. Comme nous venons de le discuter, je commencerais par décomposer le problème.
Quelles sont les choses que vous pouvez contrôler ? Quelles sont les choses que vous ne pouvez pas contrôler ? Pour les parties contrôlables, analysez et agissez.
Si je devais embaucher un jeune diplômé et que je devais choisir entre deux candidats, l'un qui n'a aucune compréhension de l'IA et un autre qui maîtrise l'IA, je choisirais sans aucun doute ce dernier. Que ce soit dans la comptabilité, le marketing, la chaîne d'approvisionnement, le service client, les ventes, le développement commercial ou même le droit, je choisirais la personne qui comprend mieux l'IA.
Par conséquent, mon conseil est le suivant : Chaque étudiant devrait apprendre à utiliser l'IA ; chaque enseignant devrait encourager les étudiants à utiliser l'IA ; chaque diplômé devrait devenir compétent en IA. Que vous soyez menuisier, électricien, agriculteur ou pharmacien, vous devriez essayer l'IA et voir comment elle peut améliorer vos compétences professionnelles.
En même temps, nous devons également reconnaître que la technologie automatisera de nombreuses tâches. Si votre travail consiste essentiellement en ces "tâches", alors vous êtes à haut risque d'être remplacé. Si vos aspirations professionnelles sont plus élevées, alors vous devez apprendre à utiliser l'IA pour accomplir ces tâches.
Lex Fridman : Un autre point crucial est que l'IA elle-même peut vous aider à décomposer les problèmes. Vous pouvez lui demander directement : "Comment puis-je améliorer mes compétences ?" Comment puis-je utiliser l'IA ?" Elle peut fournir des étapes très spécifiques. Elle peut même devenir un "coach de vie."
Jensen Huang : Oui. Si vous ne savez pas comment utiliser l'IA, elle vous apprendra.
Lex Fridman : C'est en effet une expérience très "méta" mais aussi très puissante.
Jensen Huang : Vous ne pouvez pas dire à Excel : "Je ne sais pas comment vous utiliser," mais vous pouvez le dire à l'IA.
Lex Fridman : Y a-t-il des choses qui sont fondamentalement "non calculables" ? En d'autres termes, peu importe la puissance de la puce, elle ne peut pas reproduire ?
Jensen Huang : Je ne suis pas sûr qu'une puce puisse "ressentir le stress." Bien sûr, les conditions qui mènent à l'anxiété, au stress ou à d'autres émotions peuvent être reconnues et comprises par l'IA, mais je ne pense pas que la puce elle-même puisse "ressentir." Par conséquent, la manière dont ces émotions, telles que l'anxiété, l'excitation et la peur, affectent la performance humaine est une dimension complètement différente.
Par exemple, dans les mêmes conditions, différentes personnes montreront des performances complètement différentes : certains excellent tandis que d'autres ont des performances moyennes ou même en dessous de la moyenne. Cette différence provient en grande partie de l'expérience subjective d'une personne.
Et dans un système informatique, si deux systèmes reçoivent exactement la même entrée, il peut bien sûr y avoir des différences statistiques, mais ces différences ne sont pas dues à des "différences de perception."
Lex Fridman : Oui, en effet, l'expérience subjective humaine est vraiment unique. Par exemple, alors que je vous parlais tout à l'heure, je me sentais nerveux, avec des attentes, des peurs, des anxiétés, et la richesse de la vie elle-même—l'amour, le chagrin, la peur de la mort, la douleur de perdre des êtres chers—tout cela, il est difficile d'imaginer un système informatique l'incarnant vraiment.
Jensen Huang : En effet, il est difficile d'imaginer. Mais nous savons encore si peu de choses à ce sujet, et il y a de nombreux mystères non résolus. Par conséquent, je garde également l'esprit ouvert et suis prêt à accueillir les surprises futures. Au cours des dernières années, et surtout ces derniers mois, le développement de l'IA m'a surpris à plusieurs reprises. La "dimension" elle-même peut en effet engendrer des changements presque miraculeux.
Jensen Huang : De plus, je pense qu'un point est très important, à savoir décomposer le concept d'"intelligence". Nous utilisons souvent le mot "intelligence", mais ce n'est pas un concept mystérieux.
L'intelligence, fondamentalement, est un ensemble de capacités systémiques, y compris : la perception, la compréhension, l'inférence, la planification et le cycle d'action. C'est cela l'intelligence.
Mais "l'intelligence" n'est pas équivalente à "l'humain". Ce sont deux concepts différents, et nous devons les différencier. Je ne vais pas trop mythifier "l'intelligence". À mon avis, l'intelligence est une "capacité fonctionnelle". On pourrait même dire que l'intelligence devient une "marchandise".
Je suis entouré de nombreuses personnes très intelligentes qui sont plus excellentes et professionnelles dans leurs domaines respectifs que moi. Elles ont reçu une meilleure éducation et sont plus spécialisées dans leurs domaines respectifs. Mais je joue tout de même un rôle dans ce système.
Cela, en soi, est très intéressant.
Vous pouvez demander : Pourquoi quelqu'un qui a un jour lavé des plats dans un restaurant peut-il coordonner le travail d'un groupe d'individus "surhumains" ?
Cela illustre simplement que "l'intelligence" n'est qu'une dimension. « L'humanité » est le concept supérieur. Nos expériences de vie, notre capacité à endurer la douleur, notre volonté — tout cela est différent de « l'intelligence ».
Jensen Huang : Si je pouvais donner un conseil à chacun, ce serait celui-ci : Ne placez pas le mot « intelligence » trop haut.
Ce qui devrait vraiment être valorisé, ce sont : le caractère, l'humanité, l'empathie, la générosité. Ce sont les « capacités surhumaines ». L'intelligence, en revanche, deviendra progressivement répandue et banalisée.
Lex Fridman : Donc, ce que vous dites, c'est que nous devrions nous concentrer davantage sur « l'humanité ».
Jensen Huang : Oui. L'humanité, le caractère, l'empathie, la générosité – ce sont les choses les plus importantes. La société a longtemps compressé tout dans le mot 'intelligence', mais la vie est tellement plus. D'après mon expérience, même si je ne suis pas aussi intelligent que beaucoup de personnes autour de moi, j'ai tout de même réussi. Donc, j'espère que chacun ne se sentira pas anxieux à propos de l'« ubiquité de l'intelligence », mais plutôt sera inspiré par cela.
Lex Fridman : Je crois également que l'IA nous fera davantage valoriser l'humanité.
Jensen Huang : Exactement. L'IA rendra l'humanité plus puissante.
Lex Fridman : Le succès de NVIDIA et la vie d'innombrables personnes dépendent en partie de vous. Mais vous êtes aussi une personne ordinaire et vous ferez finalement face à la mort. Pensez-vous à cette question ? Avez-vous peur de la mort ?
Jensen Huang : Je ne veux pas mourir.
J'ai une bonne vie, une bonne famille, et je fais un travail très important. Ce n'est pas seulement l'expérience d'une seule personne, mais une expérience au niveau de l'histoire humaine. NVIDIA est l'une des entreprises technologiques les plus importantes de l'histoire, et ce que nous faisons est profondément significatif, et je prends cela très au sérieux.
Bien sûr, il y a aussi des questions pratiques, comme la planification de la succession. Je dis souvent que je ne crois pas vraiment à la 'planification de la succession'. Non pas parce que je pense que je ne partirai pas, mais parce que : si vous vous souciez vraiment de l'avenir de l'entreprise après vous, la chose la plus importante que vous devriez faire aujourd'hui est de transférer continuellement des connaissances. Transmettez continuellement des informations, des idées, de l'expérience et des compétences à l'équipe.
C'est pourquoi je continue à raisonner devant l'équipe. Chaque réunion concerne essentiellement le transfert de cognition.
Je ne garderai aucune information 'dans mes mains'. Une fois que j'apprends quelque chose, je le partage presque immédiatement. Même lorsque je ne l'ai pas entièrement compris, je dis déjà aux autres : 'C'est important ; vous devriez faire des recherches à ce sujet.' Je continue à responsabiliser ceux qui m'entourent, les aidant à améliorer leurs compétences. Mon état idéal est : Je sors de mon travail, et c'est instantané, sans agonie prolongée.
Lex Fridman : En tant qu'observateur et fan, bien sûr, j'espère que vous pourrez continuer à travailler éternellement (rires). Le rythme d'innovation de NVIDIA est époustouflant et constitue en soi un hommage à l'ingénierie.
Alors, la question finale : en regardant vers l'avenir dans 10, 20, 50 ou même 100 ans, qu'est-ce qui vous donne de l'espoir pour l'avenir de l'humanité ?
Jensen Huang : J'ai toujours eu confiance en la bonté, la générosité et l'empathie de l'humanité. Parfois, j'ai même plus confiance que je ne devrais, ce qui explique pourquoi je suis parfois déçu. Mais cela ne changera pas mon jugement. Je crois toujours que les gens sont prêts à faire le bien, prêts à aider les autres. Et la plupart du temps, ce jugement est correct, dépassant même mes attentes.
Jensen Huang : Ce qui me remplit d'espoir, c'est que lorsque je vois ce qui se passe maintenant et que j'extrapole cela dans le futur, de nombreux problèmes deviennent "résolvables".
Nous avons trop de problèmes à résoudre, trop de choses à créer, et celles-ci deviennent à portée de main, peut-être même réalisables de mon vivant. Il est difficile de ne pas se sentir romantique à propos d'un tel avenir. Par exemple, la fin des maladies est une attente raisonnable ; une réduction significative de la pollution est une attente raisonnable ; et même une forme de "téléportation" à une vitesse proche de celle de la lumière est un avenir concevable.
Jensen Huang : J'envisage même une possibilité : à l'avenir, nous pourrions être capables de transmettre la "conscience" sous forme numérique. Nous pouvons progressivement distiller toutes les informations d'une personne, ses e-mails, ses pensées, ses comportements dans une IA. Lorsque les conditions seront réunies, envoyez ce "soi numérisé" dans l'espace pour fusionner avec un robot.
Lex Fridman : C'est en effet une idée très choquante. Mais d'un point de vue scientifique, il reste encore de nombreuses questions non résolues, comme la conscience elle-même.
Jensen Huang : Oui. Mais comprendre le "système de vie" pourrait être à portée de main, peut-être une percée dans cinq ans.
Lex Fridman : Que ce soit la conscience ou les problèmes profonds de la physique, tout cela rend l'avenir très excitant.
Lex Fridman : Jensen, merci beaucoup pour tout ce que vous avez fait et merci pour votre partage aujourd'hui.
Jensen Huang : Merci, Lex. J'ai vraiment apprécié cette conversation. J'apprécie également les interviews que vous réalisez, votre profondeur, votre respect et vos recherches nous permettent de mieux comprendre ces figures et ces idées.
Lex Fridman : Cela signifie beaucoup pour moi, merci.
Lex Fridman : Je vous remercie tous d'avoir écouté cette conversation avec Jensen Huang. Comme l'a dit Alan Kay, "La meilleure façon de prédire l'avenir est de l'inventer avec vos mains." Merci d'avoir écouté, et nous nous verrons la prochaine fois.
Vous pourriez aussi aimer

Infos du matin | Bitmine lance sa plateforme institutionnelle de staking Ethereum MAVAN ; Franklin Templeton lance un ETF tokenisé ; Morgan Stanley va émettre et sponsoriser un ETF Bitcoin

Premiers employés de Kalshi : Celui qui contrôle le trafic contrôle le marché

Fier de vous présenter Aethir Claw : Votre agent IA, notre infrastructure

Pourquoi acheter de l'or peut mener à la faillite

Si le rendement du Trésor américain dépasse 5 %, le Bitcoin tombera-t-il en dessous de 50 000 $ ?

Circle s'effondre de 20 % : Un séisme sur le marché des cryptomonnaies provoqué par un projet de proposition

Après la fin des hostilités : 5 fins possibles au conflit au Moyen-Orient

Fin des rendements sur les stablecoins : Circle s'effondre de 20 % en une journée

L'IA connectée à la machine de guerre | Rewire News Nightly

Web3 est incroyable, mais le remède n'est pas l'IA

Pourquoi les projets Web3 doivent-ils être intégrés à RootData ?

Bittensor (TAO) +18 % : Informations essentielles pour les investisseurs
Points clés à retenir : Le marché du Bittensor (TAO) est passé d'un potentiel spéculatif à une utilité avérée, enregistrant une hausse de 18 %…

La flambée du cours du Bittensor (TAO) suscite l'intérêt : Une cassure à la hausse de la zone de résistance est-elle imminente ?
Points clés à retenir : Le cours du TAOUSD de Bittensor a bondi de plus de 66 %, franchissant la barre des 300 dollars pour la première fois depuis…

22x Subvention pour 1 USD de revenus : Combien de temps le mythe de la croissance de TAO peut-il durer ?

Utilisez judicieusement le Claude, une seule pièce suffit

Netflix est prêt à adapter l'histoire de FTX à l'écran : Représenter l'histoire ou glorifier une escroquerie ?

Fluid rembourse 70 millions de dollars de dette USR : Ce que cela signifie pour les utilisateurs de DeFi
Key Takeaways Fluid a remboursé environ 70 millions de dollars de dette liée à l’USR. Un plan de…

Outline
H1: Binance Retire des Paires de Trading Spot Clés H2: Vue d’Ensemble de l’Alerte de Binance H3: Contexte…
