Intelは、オンボードの高速HBM2eメモリを搭載した一連のプロセッサであるXeon Maxを発表しました。同社によると、これらはオンボードHBMを搭載した世界初のCPUです。以前は、これらのチップのコードネームは Sapphire Rapids HBM でした。このプロセッサは、112 個の仮想スレッドをサポートする最大 56 個の処理コアを提供し、TDP は 350 W で、高性能サーバー システム向けに設計されています。
Xeon Max プロセッサは、4 つのダイとコンピューティング コアを組み合わせた EMIB インターフェイスを使用し、同じ基板上に 64 GB の高速 HBM2e メモリを並べて配置し、それぞれ 16 GB の 4 つのクラスターに分割します。合計スループットは約 1 TB/秒です。したがって、プロセッサー・コアごとに 1 GB を超える HBM2e メモリーがあります。
Xeon Max の主な機能は、PCIe 5.0 および CXL 1.1 インターフェイスのサポートです。 HBM2e メモリは、追加のキャッシュと追加の RAM の両方として使用できます。さらに、Xeon Max を搭載したサーバーには RAM モジュールをまったく装備できません。システムは HBM のみに依存します。
同社は、Xeon Max の消費電力は、同じパフォーマンスの AMD Milan-X プロセッサよりも 68% 低いと主張しています。 Xeon Max での新しい AMX 命令のサポートにより、AI タスクが高速化され、INT8 および INT32 操作で AVX-512 命令の最大 8 倍のピーク パフォーマンスが実現します。
Intel は、Xeon Max が Intel Xeon 8380 または AMD EPYC 7773X (3D V-Cache テクノロジを搭載した Milan-X) よりも一部の操作で最大 5 倍高速であると主張しています。また、このプレゼンテーションでは、Xeon Max と AMD EPYC 7763 モデルを比較します。これに対して、新しい Intel は最大 3.6 倍のパフォーマンスを発揮します。
Xeon Max は、NVIDIA A100 サーバー アクセラレータと比較して、AI スーパーコンピューター シミュレーションを加速および強化するコンピューティングを扱う MLPerf DeepCAM テストで、競合他社よりも最大 1.2 倍高速です。
Xeon Max シリーズのサーバー プロセッサは、2023 年 1 月に市場に出回る予定です。 Xeon Max の主な競合相手は、新しい AMD EPYC Genoa プロセッサです。彼らの発表は明日、11月10日に予定されています。噂によると、これらのプロセッサは、HBM メモリを搭載したソリューションの形を含めてリリースされる予定です。
2022-11-10 10:55:27
著者: Vitalii Babkin
ソース URL