NVIDIA は、4nm アクセラレータ H100 (Hopper) の連続生産の開始を発表しました。パートナーは来月、このアーキテクチャに基づくソリューションの提供を開始します。 NVIDIA H100 は、マルチチップ 2.5D CoWoS レイアウトを使用し、約 800 億個のトランジスタを搭載しています。
900GB/秒の GPU-to-GPU 接続用の Gen 4 NVlink、ノード-to-アクセラレータの集団通信を高速化するための NVSwitch、PCIe 5.0、および NVIDIA Magnum IO ソフトウェアの組み合わせにより、小規模企業から大規模な統合クラスターまで効率的なスケーラビリティが提供されます。
NVIDIA によると、新しいアクセラレータは、前世代のアクセラレータよりもエネルギー効率が 3.5 倍高く、総所有コストを 3 分の 1 に削減できると同時に、サーバー ノードの数を 5 分の 1 に削減して、同じレベルの AI パフォーマンスを実現できます。 .
H100 ベースのインスタンスは、多くのクラウド プラットフォームをデプロイすることを目的としています。これらは、Amazon Web Services、Google Cloud、Microsoft Azure、および Oracle Cloud です。また、今すぐ新機能をチェックするのが待ちきれない人のために、NVIDIA Launchpad の一部として今すぐアクセスできます。アクセラレータは、次世代のスーパーコンピュータでも使用されます。
これらのソリューションを備えたサーバーは、Atos、Cisco、Dell Technologies、Fujitsu、Gigabyte、Hewlett Packard Enterprise、Lenovo、および Supermicro から提供されます。最後まで、新しいアクセラレータを搭載した 50 以上のサーバー モデルが市場に登場し、来年にはさらに数十種類のソリューションが発表される予定です。さらに、サーバーと共に、NVIDIA AI Enterprise の 5 年間のサブスクリプションも提供されます。また、NVIDIA 自身も DGX システムの注文を既に受け付けています。
2022-09-21 04:12:30
著者: Vitalii Babkin