Nvidia dévoile une nouvelle « super puce » dédiée à l’IA générative
C’est le symbole d’une incroyable course de vitesse. Mardi 8 août, Nvidia a officiellement dévoilé une nouvelle version de sa “super puce” GH200, dédiée à l’intelligence artificielle générative, alors même que la commercialisation de la précédente génération ne débutera qu’en septembre.
Cette nouvelle puce combine un CPU Grace à 72 cœurs avec un GPU H100, spécialement conçu pour l’accélération des calculs liés à l’IA. La nouveauté provient de la mémoire associée. Celle-ci passe de 96 Go de mémoire HBM3 à 141 Go de mémoire HBM3e, qui est “50% plus rapide que l’actuelle HBM3”, selon Nvidia.
La nouvelle GH200 devrait entrer en production avant la fin de l’année, pour une commercialisation prévue au deuxième trimestre 2024. Elle cohabitera avec la précédente génération. Celle-ci reste au cœur d’un nouveau supercalculateur, baptisé DGX GH200, capable d’entraîner les prochains modèles d’IA générative.
L’extension de la mémoire doit permettre à la dernière GH200 de faire tourner les modèles d’IA les plus avancés sur un seul système, équipé d’une ou deux « super puces ». « Le coût de l’inférence va diminuer de manière significative », promet ainsi Jensen Huang, le cofondateur et patron du spécialiste des GPU, qui s’exprimait dans le cadre de la conférence Siggraph, organisée à Los Angeles.
Cette annonce intervient deux mois après la présentation d’une puce concurrente par AMD, qui mettait en avant une mémoire de 192 Go. Elle doit permettre au géant américain de conserver sa position archi-dominante sur ce marché en très forte croissance. Une position qui lui a permis de franchir au printemps la barre symbolique des 1000 milliards de dollars de capitalisation boursière.