banner
Centre d'Information
Nos produits garantissent une expérience confortable, pratique et sécurisée.

PDG de Nvidia : Nous avons parié toute la ferme sur l'IA et personne ne le savait

Sep 24, 2023

Le fondateur et PDG de Nvidia, Jensen Huang, a déclaré aujourd'hui que la société avait pris une décision commerciale existentielle en 2018 dont peu de gens savaient qu'elle redéfinirait son avenir et contribuerait à redéfinir une industrie en évolution. Bien sûr, cela a été extrêmement payant, mais Huang a déclaré que ce n'était que le début d'un avenir proche alimenté par l'IA – un avenir alimenté principalement par le matériel Nvidia. Ce pari réussi a-t-il été chanceux ou intelligent ? Il semble que la réponse soit « oui ».

Il a fait ces remarques et réflexions lors d'un discours au SIGGRAPH à Los Angeles. Ce moment décisif il y a cinq ans, a déclaré Huang, a été le choix d'adopter le traitement d'image alimenté par l'IA sous la forme de traçage de rayons et de mise à l'échelle intelligente : RTX et DLSS respectivement. (Les citations sont tirées de mes notes et peuvent ne pas être textuelles, quelques corrections mineures peuvent avoir lieu après vérification de la transcription.)

« Nous avons réalisé que la rastérisation atteignait ses limites », a-t-il déclaré, faisant référence à la méthode traditionnelle et largement utilisée pour restituer une scène 3D. « 2018 a été un moment où l'on pariait sur l'entreprise. Cela a nécessité de réinventer le matériel, les logiciels, les algorithmes. Et pendant que nous réinventions la CG avec l’IA, nous réinventions le GPU pour l’IA.

Alors que le lancer de rayons et le DLSS sont encore en train d'être adoptés dans le monde diversifié et complexe des GPU grand public et des jeux, l'architecture qu'ils ont créée pour le permettre s'est avérée être un partenaire idéal pour la communauté croissante de développement de l'apprentissage automatique.

La quantité massive de calculs nécessaires pour former des modèles génératifs de plus en plus grands n'a pas été mieux servie par les centres de données traditionnels dotés d'une certaine capacité GPU, mais par des systèmes comme le H100 conçus dès le départ pour effectuer les opérations nécessaires à grande échelle. Il serait juste de dire que le développement de l’IA n’était, à certains égards, limité que par la disponibilité de ces ressources informatiques. Nvidia possédait un boom à l'échelle de Beanie Baby et a vendu autant de serveurs et de postes de travail qu'il a pu en fabriquer.

Mais Huang a affirmé que ce n’était que le début. Les nouveaux modèles doivent non seulement être formés, mais également être exécutés régulièrement en temps réel par des millions, voire des milliards d’utilisateurs.

« L'avenir est un LLM au-dessus de presque tout : « Human » est le nouveau langage de programmation », a-t-il déclaré. Tout, des effets visuels à un marché manufacturier qui se numérise rapidement, en passant par la conception d'usines et l'industrie lourde, adoptera dans une certaine mesure une interface en langage naturel, a risqué Huang.

« Des usines entières seront définies par logiciel et robotisées, et les voitures qu'elles construiront seront elles-mêmes robotisées. Il s'agit donc de robots conçus de manière robotique qui construisent des robots », a-t-il déclaré.

Certains ne partageront peut-être pas son point de vue, qui, bien que plausible, s'avère également extrêmement favorable aux intérêts de Nvidia.

Mais même si le degré de dépendance à l’égard des LLM est inconnu, rares sont ceux qui diraient qu’ils ne seront pas adoptés du tout, et même une estimation prudente de qui les utilisera et pour quoi nécessitera un investissement sérieux dans de nouvelles ressources informatiques.

Investir des millions de dollars dans des ressources informatiques de dernière génération, comme des racks axés sur le processeur, est insensé quand quelque chose comme un GH200, le matériel de développement d'IA récemment dévoilé et dédié aux centres de données, peut faire le même travail pour moins d'un dixième du coût et besoins en puissance.

Il a joyeusement présenté une vidéo montrant un assemblage de type LEGO de plusieurs unités informatiques Grace Hopper dans une lame, puis un rack, puis une rangée de GH200, tous connectés à des vitesses si élevées qu'ils constituaient « le plus grand GPU unique au monde », comprenant un exaflop complet de puissance de calcul spécialisée en ML.

Crédits images :Devin Coldewey

"Au fait, c'est une taille réelle", a-t-il déclaré, représentant l'effet dramatique au centre de la visualisation. "Et il exécute probablement même Crysis."

Il s’agira de l’unité de base de l’industrie numérique du futur, dominée par l’IA, a-t-il proposé.

« Je ne sais pas qui l'a dit, mais… plus vous achetez, plus vous économisez. Si je pouvais vous demander de retenir une chose de mon discours d'aujourd'hui, ce serait celle-là », a-t-il déclaré, faisant rire le public du jeu ici à SIGGRAPH.