Lorsque la fondatrice et PDG de Nvidia, Jensen Huang, monte sur scène pour un keynote lors d’un grand événement de l’industrie informatique, il ne fait aucun doute qu’il annoncera plusieurs innovations et améliorations de sa société de GPU de pointe. C’est exactement ce qu’il a fait cette semaine pour lancer Calculx 2025 à Taipei, Taiwan.
Quiconque a participé à un événement majeur avec Huang Keynoting est probablement habitué à lui dévoiler une multitude d’innovations pour faire avancer l’IA. Huang a commencé la conférence en déclarant comment L’IA révolutionne le monde. Il a ensuite décrit comment Nvidia permet cette révolution.
La passion de Huang pour les avantages que l’IA peut offrir est évidente dans les nouveaux produits que Nvidia et ses partenaires développent rapidement.
“L’IA est maintenant une infrastructure”, a déclaré Huang. “Et cette infrastructure, tout comme Internet, tout comme l’électricité, a besoin d’usines. Ces usines sont essentiellement ce que nous construisons aujourd’hui.”
Il a ajouté que ces usines ne sont “pas les centres de données du passé”, mais les usines où “vous y appliquez de l’énergie, et elle produit quelque chose d’incroyablement précieux”. La plupart des nouvelles se sont concentrées sur les produits pour construire des usines d’IA plus grandes, plus rapides et plus évolutives.
Présentation de la fusion nvlink
L’un des plus grands défis de l’échelle de l’IA est de maintenir les données qui coulent entre les GPU et les systèmes. Les réseaux traditionnels ne peuvent pas traiter les données de manière fiable ou rapide pour répondre aux demandes de connectivité. Au cours de son discours, Huang a décrit les défis de l’échelle de l’IA et comment c’est un problème de réseau.
“La façon dont vous évoluez n’est pas seulement de rendre les jetons plus rapides”, a-t-il déclaré. “Il n’y a qu’une limite à la vitesse à laquelle vous pouvez faire des jetons et à la taille [NVIDIA] Blackwell, nous avons même connecté deux puces ensemble pour le rendre possible. “
Nvidia Nvlink Fusion vise à résoudre ces limites, a-t-il déclaré. NVLink relie un rack de serveurs sur une colonne vertébrale et permet aux clients et aux partenaires de Construisez leurs propres conceptions à échelle de rack personnalisées. La possibilité pour les concepteurs de systèmes d’utiliser des processeurs et des accélérateurs tiers avec des produits NVIDIA crée de nouvelles possibilités dans la façon dont les entreprises déploient l’infrastructure d’IA.
Selon Huang, NVLink crée “un chemin facile pour évoluer les usines d’IA à des millions de GPU, en utilisant n’importe quelle ASIC, les systèmes à l’échelle de rack de Nvidia et la plate-forme de mise en réseau de bout en bout Nvidia.” Il offre jusqu’à 800 Gbit / s de débit et dispose des éléments suivants:
NVIDIA ConnectX-8 Supernics.
Nvidia Spectrum-X Ethernet.
NVIDIA Quantum-X800 Infiniband commutateurs.
Propulsé par Blackwell
La puissance de calcul est le carburant de l’innovation de l’IA, et le moteur conduisant l’écosystème de l’IA de Nvidia est son Architecture Blackwell. Huang a déclaré que Blackwell offre une architecture unique de Cloud IA à l’entreprise AI ainsi que de l’IA personne à AI.
Parmi les produits alimentés par Blackwell est DGX Sparkdécrit par Huang comme étant “pour quiconque souhaite avoir son propre supercalculateur d’IA”. DGX Spark est une version plus petite et plus polyvalente du DGX-1 de la société, qui a fait ses débuts en 2016. DGX Spark sera disponible auprès de plusieurs fabricants informatiques, dont Dell, HP, ASUS, Gigabyte, MSI et Lenovo. Il est équipé de GB10 Grace Blackwell Superchip de Nvidia.
DGX Spark offre jusqu’à 1 Petaflop de calcul AI et 128 Go de mémoire unifiée. “Ce sera votre propre supercalcupteur DGX personnel”, a déclaré Huang. “Cet ordinateur est la plus performance que vous pouvez éventuellement retirer d’une prise murale.”
Conçu pour les charges de travail AI les plus exigeantes, la station DGX est alimentée par la superchip Nvidia Grace Blackwell Ultra Desktop, qui offre jusqu’à 20 Petaflops de performances d’IA et 784 Go de mémoire système unifiée. Huang a déclaré que c’est “une capacité et des performances suffisantes pour exécuter un modèle de paramètre AI de 1 billion”.
Nouveaux serveurs et plate-forme de données
NVIDIA a également annoncé la nouvelle gamme RTX Pro Entreprise et les serveurs OMIVERSE pour Agent IA. Faisant partie de la nouvelle conception de l’usine d’IA d’entreprise de NVIDIA, les serveurs RTX Pro sont “une base pour les partenaires pour construire et exploiter des usines d’intermédiaire sur site”, selon un communiqué de presse de l’entreprise. Les serveurs sont disponibles maintenant.
Étant donné que la plate-forme de calcul AI moderne est différente, elle nécessite un type de plate-forme de stockage différent. Huang a déclaré que plusieurs partenaires NVIDIA «construisent une infrastructure de stockage intelligente» avec NVIDIA RTX Pro 6000 Blackwell Server Edition GPUS et la conception de référence de la plate-forme de données AI de la société.
Accélérer le développement de robots humanoïdes
La robotique est un autre domaine d’intervention en IA pour Nvidia. Dans son discours, Huang a introduit Isaac Groot N1.5, la première mise à jour du “modèle de base entièrement personnalisable ouvert, généralisé et personnalisable de l’entreprise pour le raisonnement et les compétences humanoïdes”. Il a également dévoilé le Isaac Groot-Dreams Blueprint Pour générer des données de mouvement synthétique – appelées trajectoires neuronales – pour que les développeurs d’IA physiques puissent utiliser lorsqu’ils forment les nouveaux comportements d’un robot, y compris comment s’adapter aux environnements changeants.
Huang a utilisé son discours de haut niveau pour montrer comment Nvidia continue d’avoir un pied lourd sur la pédale d’accélération technologique. Même pour une entreprise aussi tournée vers l’avenir que Nvidia, il est imprudent de le laisser en place parce que le reste du marché essaie toujours de se dénover.