Nach dem Start des Supercomputers Frontier 1-Eflops legten die Vereinigten Staaten die Messlatte für die Leistung der nächsten Maschinenserie höher, die etwa 5- bis 10-mal schneller sein sollte als der Frontier. Mindestens ein solches System soll zwischen 2025 und 2030 auf den Markt kommen, und das US-Energieministerium holt bereits Informationen von Anbietern ein, um „nationale Labors bei der Planung, dem Entwurf, der Inbetriebnahme und dem Erwerb der nächsten Generation von Supercomputing-Systemen zu unterstützen“.
Aus dem vom Ministerium veröffentlichten Request for Information (RFI) des Ministeriums geht hervor, dass die Abteilung daran interessiert ist, einen oder mehrere Supercomputer einzusetzen, die wissenschaftliche Probleme 5- bis 10-mal schneller lösen oder komplexere Probleme beispielsweise mit einer Vielzahl physikalischer Berechnungen lösen können oder mit Berechnungen mit höherer Genauigkeit als die modernen Computersysteme von heute.
Es wird auch darauf hingewiesen, dass die neuen Maschinen Netzwerke, Speicherarchitekturen und einen leistungsstarken Software-Stack benötigen, der für eine solche Leistung geeignet ist und für eine breite Palette von Anwendungen und Arbeitslasten ausgelegt ist, einschließlich groß angelegter Modellierung und Simulation, Maschinenintelligenz und Datenanalyse. Darüber hinaus müssen sie resistent gegen Hardware- und Softwareausfälle sein, um den Bedarf an manueller Arbeit zu minimieren.
Der Antrag besagt, dass diese Systeme in der Größenordnung von 20-60 MW verbrauchen werden. Der Hinweis verdeutlicht Leistungsschätzungen auf 10-20+ Eflops (FP64) nach 2025 und 100+ Eflops (FP64) nach 2030. Diese Indikatoren werden "aufgrund der Mechanismen der Hardware- und Softwarebeschleunigung" erreicht. Im Allgemeinen wird eine „große Konvergenz von Modellierung und Simulation, Datenanalyse, Deep Learning, KI, Quantencomputing und anderen neuen Möglichkeiten in integrierten Infrastrukturen“ erwartet.
Das RFI schlägt auch vor, den Ansatz zum Erstellen von Systemen zu überdenken, um kürzere Aktualisierungszyklen bereitzustellen, indem von monolithischen Komplexen zugunsten von Modularität abgerückt wird, um die Implementierung von Innovationen in Hardware und Software zu beschleunigen - zum Beispiel alle ein oder zwei Jahre und nicht alle 4-5 Jahre. Das ideale zukünftige System wird flexibler, modularer und erweiterbar sein. Darüber hinaus soll sich die nächste Generation von Supercomputern in das ACE-Ökosystem (Advanced Computing Ecosystem) integrieren können, das die Automatisierung verschiedener Arten von Arbeitsabläufen unterstützt.
Die vom US-Energieministerium von Lieferanten angeforderten Informationen sind sehr detailliert und umfassen nicht nur die Arten von Prozessoren, Speicher, Speicher und Verbindungen, die die Lieferanten zwischen 2025 und 2030 verwenden wollen, sondern auch, welche Herstellungsprozesse ihrer Meinung nach verwendet werden Chips, ob die Prozessoren APU/XPU sein werden, was die erwartete Bandbreite der Verbindung ist, was die möglichen Knotenkonfigurationen sind usw.
Antworten auf diese Anfrage, die bis Ende Juli fällig sind, werden dem US-Energieministerium und den National Laboratories dabei helfen, ihre langfristigen Pläne zur Implementierung von Advanced Computing zu aktualisieren. Der Design Brief hebt die Bedeutung der datengesteuerten Modellierung und Simulation für nationale Wissenschafts-, Energie- und Sicherheitsprioritäten hervor.
Gleichzeitig glauben einige Experten, dass die Vereinigten Staaten im Supercomputer-Rennen deutlich hinter China zurückliegen – China hatte letztes Jahr zwei Maschinen der Exascale-Klasse, und bis 2025 könnte ihre Zahl auf 10 anwachsen. Auch an Systemen der nächsten Generation wird gearbeitet. Allerdings glauben nicht alle HPC-Experten, dass die Verwendung des aktuellen Ansatzes zum Bau immer leistungsfähigerer und unersättlicherer Supercomputer in nationalen Labors sinnvoll und effektiv ist.
2022-07-02 18:17:21
Autor: Vitalii Babkin