フランスの新興企業LightOnは、その光学処理装置(OPU)の1つを、国内で最も高性能なアカデミックスーパーコンピューターであるJeanZayに統合することに成功しました。この作業は、National Agency for High Performance Computing(GENCI)のパイロットプログラムの一環として、Institute for Intensive Scientific Computing Development and Resources(IDRIS)と協力して実施されました。
標準のサーバーCPUおよびNVIDIAA100アクセラレーターと連携して動作する光コプロセッサーは、実行速度を劇的に向上させ、リソースを大量に消費する機械学習(ML)およびAIタスクの消費電力を削減する必要があります。一部のJeanZayユーザーは、今後数か月以内にOPUをテストできるようになります。
開発者によると、OPUの利点は、超大規模タスクでの確率的アルゴリズムの実行を高速化するためにフォトニクスを使用することによるものです。このアプローチは、正確な計算が非常に複雑でコストがかかる場合に不可欠です。たとえば、GPT-3モデルのトレーニングには、NVIDIAV100アクセラレータで約300万GPU時間が必要です。確率的手法(RandNLA)を使用すると、近似値を取得できますが、さまざまな行列変換を使用することで、実際のアプリケーションの結果を短時間で得ることができます。
ただし、最新のAIモデルがまさに必要としている大規模なアレイを操作するには、「クラシック」CPUまたはGPUの場合、大量のコンピューティングリソースと、巨大なメモリアレイが必要です。 LightOnデバイスは、空間光変調器とCCDを使用することにより、このボトルネックを回避します。それらはすでに1兆個の要素の配列を処理できます。
キロヘルツのオーダーのマトリックスリフレッシュレートでは、同等のパフォーマンスは1秒あたり1.5兆回の操作(1.5ペタオプス)のレベルに達しますが、消費電力はわずか30ワットです。 OPUは、デバイス自体の物理的特性により、パッシブモードで必要な変換を実行します。これにより、スーパーコンピューターの主要なリソースがアンロードされ(データの前処理と後処理は引き続きCPU / GPUによって実行されます)、全体的なエネルギーが増加します。システムの効率。
同社は、この春から2Uシャーシで最初の市販のOPUAurora2をリースする予定です。 Jean Zayは、これらのコプロセッサーをインストールした最初のTOP500マシンになります。同社は、GPUのみでの計算と比較して、システムのAIパフォーマンスが8〜40倍向上すると予想しています。 LightOnのCEOであるIgorCarron氏によると、このAIアクセラレーターのHPCシステムへの統合により、ハイブリッドソリューションがエクサスケールスーパーコンピューターに続くデジタル進化の次のマイルストーンになるという研究者の信頼が高まります。
2021-12-24 22:14:05
著者: Vitalii Babkin