vendredi, septembre 20, 2024
AccueilActualitésTechnologieNvidia dévoile la superpuce GH200 avec HBM3e, prête à redéfinir les normes...

Nvidia dévoile la superpuce GH200 avec HBM3e, prête à redéfinir les normes de performance et d’efficacité de l’IA

Des superpuces à un million de dollars aux puissants GPU de jeu, Nvidia a annoncé une variété de nouvelles offres bien adaptées à l'intelligence artificielle.

Nvidia a mis en avant sa puissance en matière d’IA cette semaine, en dévoilant une série de produits de nouvelle génération pour entrer dans la nouvelle ère de l’intelligence artificielle. De ce qu’elle a décrit comme une super-puce révolutionnaire axée sur l’IA à des outils de développement plus intuitifs, Nvidia a clairement l’intention de rester le moteur de la révolution de l’IA.

La présentation de Nvidia au SIGGRAPH 2023, une conférence annuelle dédiée à la technologie et à la recherche en infographie, était presque entièrement axée sur l’IA. Le PDG de Nvidia, Jensen Huang, a déclaré que l’IA générative représente un point de basculement similaire à la révolution de l’internet il y a plusieurs décennies. M. Huang a ajouté que le monde entrait dans une nouvelle ère où la plupart des interactions entre l’homme et l’ordinateur seront pilotées par l’IA.

“Chaque application, chaque base de données, tout ce avec quoi vous interagissez sur un ordinateur, il est probable que vous rencontriez d’abord un grand modèle de langage”, a déclaré M. Huang.

NVIDIA Keynote at SIGGRAPH 2023

En combinant des logiciels et du matériel spécialisés, Nvidia se positionne comme le chaînon manquant pour réaliser le plein potentiel de l’IA.

Le superpuce Grace Hopper fait ses débuts pour l’entraînement à l’IA

Le clou de l’événement a été le Superchip Grace Hopper GH200, le premier GPU doté d’une mémoire à large bande passante 3e (HBM3e). Avec une bande passante incroyable pouvant atteindre 2 To/s, la HBM3e offre une bande passante près de trois fois supérieure à celle de la génération précédente, la HBM2e. La puce révolutionnaire GH200 avec HBM3e établit une nouvelle référence en matière de performance et d’efficacité pour les applications IA haut de gamme.

Nvidia définit sa puce Grace Hopper comme un “processeur accéléré conçu dès le départ pour les applications d’IA à grande échelle et de calcul à haute performance (HPC)”. Cette puce est le résultat de la combinaison des architectures Grace (CPU haute performance) et Hopper (GPU haute performance) de Nvidia, nommées d’après le célèbre informaticien américain.

Selon M. Huang, le GH200 peut offrir des performances d’entraînement jusqu’à six fois supérieures à celles du GPU A100, fleuron de Nvidia, pour les grands modèles d’IA ou LLM. Le GH200 devrait être disponible au deuxième trimestre 2024.

“Le GH200 est un nouveau moteur pour l’entraînement et l’inférence”, a déclaré Huang, ajoutant que “les futurs modèles frontières seront construits de cette manière”. Il a ajouté que cette nouvelle super-puce “ferait probablement tourner Crysis”, un jeu vidéo de tir à la première personne dont les exigences matérielles sont notoirement élevées.

L’architecture GPU Ada Lovelace arrive sur les stations de travail

Nvidia avait également des nouvelles pour les particuliers. Le fabricant de puces a dévoilé ses nouveaux GPU RTX pour stations de travail basés sur l’architecture Ada Lovelace : les RTX 5000, RTX 4500 et RTX 4000. Avec jusqu’à 7680 cœurs CUDA, ces GPU offrent jusqu’à 5 fois plus de performances que les cartes de la génération précédente pour le développement de l’IA, le rendu 3D, l’édition vidéo et d’autres flux de travail professionnels exigeants.

La carte phare RTX 6000 Ada reste le premier choix pour les professionnels exigeant des performances maximales. Cependant, la nouvelle gamme étend l’architecture Ada Lovelace à un plus grand nombre d’utilisateurs. Les RTX 4000, 4500 et 5000 seront disponibles à partir du troisième trimestre 2022 auprès des principaux OEM.

Cependant, ces nouvelles cartes ne sont pas bon marché. Le prix de la RTX 4000 commence à 1 250 dollars et celui de la RTX 5000 à environ 4 000 dollars.

Pour les professionnels et les entreprises qui souhaitent faire passer leurs initiatives d’IA au niveau supérieur, Nvidia a dévoilé son nouveau GPU à l’échelle du centre de données, le Nvidia L40. Avec jusqu’à 18 176 cœurs CUDA et 48 Go de vRAM, le L40 offre des performances d’entraînement à l’IA jusqu’à 9,2 fois supérieures à celles de l’A100.

Nvidia indique que les fabricants mondiaux de serveurs prévoient d’intégrer le L40 dans leurs systèmes, ce qui permettra aux entreprises d’entraîner des modèles d’IA géants avec une efficacité optimale et une réduction des coûts. Associé au logiciel de Nvidia, le L40 pourrait constituer une solution complète pour les organisations qui adoptent l’IA.

Les microservices natifs dans le nuage améliorent les communications vidéo

Poursuivant ses efforts dans le domaine des applications vidéo, Nvidia a également annoncé un nouvel ensemble de kits de développement logiciel accélérés par le GPU et un service cloud-natif pour l’édition vidéo appelé Maxine.

Optimisé par l’IA, Maxine offre des fonctionnalités telles que l’annulation du bruit, l’amélioration de la résolution à grande échelle et la simulation du contact visuel pour les appels vidéo, permettant aux utilisateurs distants d’avoir des conversations naturelles depuis presque n’importe quel endroit.

Nvidia indique que ses partenaires en matière de narration visuelle ont déjà intégré Maxine dans des flux de travail tels que la vidéoconférence et le montage vidéo.

Real-Time Radiance Fields for Single-Image Portrait View Synthesis with NVIDIA Maxine

La boîte à outils simplifie le développement de l’IA générative

Enfin, Nvidia a annoncé la sortie prochaine d’AI Workbench, une plateforme unifiée qui rationalise le développement, le test et le déploiement de modèles d’IA générative.

En fournissant une interface unique pour gérer les données, les modèles et les ressources sur plusieurs machines, AI Workbench permet une collaboration et une évolutivité transparentes, du poste de travail local à l’infrastructure cloud.

Avec sa dernière gamme d’offres, couvrant le matériel, les logiciels et les services, Nvidia déclare vouloir accélérer l’adoption de l’IA par les entreprises grâce à une pile technologique complète conçue pour répondre à ses nombreuses complexités.

Pascal Dalibard
Pascal Dalibardhttp://appel-aura-ecologie.fr
Pascal est un passionné de technologie qui s'intéresse de près aux dernières innovations dans le domaine de la téléphonie mobile et des gadgets. Il est convaincu que la technologie peut changer le monde de manière positive, mais il est également soucieux de l'impact environnemental de ces produits.

Actualités

Coups de cœur