NVIDIA a annoncé le début de la production en série des accélérateurs 4nm H100 (Hopper). Les partenaires commenceront à proposer des solutions basées sur cette architecture le mois prochain. Le NVIDIA H100 utilise une configuration CoWoS 2.5D multi-puces et contient environ 80 milliards de transistors.
La combinaison de Gen 4 NVlink pour une connectivité GPU à GPU de 900 Go/s, NVSwitch pour accélérer la communication collective nœud-accélérateur, PCIe 5.0 et le logiciel NVIDIA Magnum IO offre une évolutivité efficace des petites entreprises aux grands clusters unifiés.
Selon NVIDIA, les nouveaux accélérateurs sont 3,5 fois plus économes en énergie que les accélérateurs de la génération précédente et peuvent réduire le coût total de possession par un facteur de trois, tout en permettant une réduction par cinq du nombre de nœuds de serveur pour atteindre le même niveau de performances d'IA. .
Les instances basées sur H100 ont l'intention de déployer de nombreuses plates-formes cloud. Il s'agit d'Amazon Web Services, Google Cloud, Microsoft Azure et Oracle Cloud. Et pour ceux qui ont hâte de découvrir les nouveautés en ce moment, elles sont désormais accessibles dans le cadre du NVIDIA Launchpad. Les accélérateurs seront également utilisés dans les supercalculateurs de prochaine génération.
Les serveurs avec ces solutions seront proposés par Atos, Cisco, Dell Technologies, Fujitsu, Gigabyte, Hewlett Packard Enterprise, Lenovo et Supermicro. Jusqu'à la fin, plus de 50 modèles de serveurs avec de nouveaux accélérateurs apparaîtront sur le marché, et l'année prochaine plusieurs dizaines de solutions supplémentaires seront présentées. De plus, avec les serveurs, un abonnement de cinq ans à NVIDIA AI Enterprise sera également offert. Et NVIDIA lui-même accepte déjà les commandes de systèmes DGX.
2022-09-21 04:12:30
Auteur: Vitalii Babkin