NVIDIA gab den Start der Serienproduktion von 4-nm-Beschleunigern H100 (Hopper) bekannt. Partner werden nächsten Monat damit beginnen, Lösungen anzubieten, die auf dieser Architektur basieren. Der NVIDIA H100 verwendet ein Multi-Chip-2,5-D-CoWoS-Layout und enthält etwa 80 Milliarden Transistoren.
Die Kombination aus Gen 4 NVlink für GPU-zu-GPU-Konnektivität mit 900 GB/s, NVSwitch zur Beschleunigung der kollektiven Kommunikation von Knoten zu Beschleuniger, PCIe 5.0 und NVIDIA Magnum IO-Software bietet effiziente Skalierbarkeit von kleinen Unternehmen bis hin zu großen einheitlichen Clustern.
Laut NVIDIA sind die neuen Beschleuniger 3,5-mal energieeffizienter als Beschleuniger der vorherigen Generation und können die Gesamtbetriebskosten um den Faktor drei senken, während sie eine fünffache Reduzierung der Anzahl der Serverknoten ermöglichen, um die gleiche KI-Leistung zu erreichen .
H100-basierte Instanzen beabsichtigen, viele Cloud-Plattformen bereitzustellen. Dies sind Amazon Web Services, Google Cloud, Microsoft Azure und Oracle Cloud. Und für diejenigen, die es kaum erwarten können, sich die aktuellen Neuigkeiten anzusehen, können sie jetzt als Teil des NVIDIA Launchpad darauf zugreifen. Beschleuniger werden auch in Supercomputern der nächsten Generation eingesetzt.
Server mit diesen Lösungen werden von Atos, Cisco, Dell Technologies, Fujitsu, Gigabyte, Hewlett Packard Enterprise, Lenovo und Supermicro angeboten. Bis zum Ende werden mehr als 50 Servermodelle mit neuen Beschleunigern auf den Markt kommen, und im nächsten Jahr werden mehrere Dutzend weitere Lösungen vorgestellt. Darüber hinaus wird zusammen mit den Servern auch ein Fünfjahresabonnement für NVIDIA AI Enterprise bereitgestellt. Und NVIDIA selbst nimmt bereits Bestellungen für DGX-Systeme entgegen.
2022-09-21 04:12:30
Autor: Vitalii Babkin