NVIDIA ha annunciato l'inizio della produzione in serie degli acceleratori a 4 nm H100 (Hopper). I partner inizieranno a offrire soluzioni basate su questa architettura il mese prossimo. NVIDIA H100 utilizza un layout CoWoS 2.5D multi-chip e contiene circa 80 miliardi di transistor.
La combinazione di NVlink Gen 4 per la connettività da GPU a GPU da 900 GB/s, NVSwitch per l'accelerazione della comunicazione collettiva da nodo a acceleratore, PCIe 5.0 e il software NVIDIA Magnum IO offre scalabilità efficiente dalle piccole imprese ai grandi cluster unificati.
Secondo NVIDIA, i nuovi acceleratori sono 3,5 volte più efficienti dal punto di vista energetico rispetto agli acceleratori della generazione precedente e possono ridurre il costo totale di proprietà di un fattore tre, consentendo al contempo una riduzione di cinque volte del numero di nodi server per ottenere lo stesso livello di prestazioni dell'IA .
Le istanze basate su H100 intendono distribuire molte piattaforme cloud. Si tratta di Amazon Web Services, Google Cloud, Microsoft Azure e Oracle Cloud. E per coloro che non vedono l'ora di scoprire le novità in questo momento, è possibile accedervi ora come parte di NVIDIA Launchpad. Gli acceleratori saranno utilizzati anche nei supercomputer di prossima generazione.
I server con queste soluzioni saranno offerti da Atos, Cisco, Dell Technologies, Fujitsu, Gigabyte, Hewlett Packard Enterprise, Lenovo e Supermicro. Fino alla fine appariranno sul mercato più di 50 modelli di server con nuovi acceleratori e il prossimo anno verranno presentate diverse dozzine di soluzioni. Inoltre, insieme ai server, verrà concesso anche un abbonamento quinquennale a NVIDIA AI Enterprise. E la stessa NVIDIA sta già accettando ordini per i sistemi DGX.
2022-09-21 04:12:30
Autore: Vitalii Babkin