Erster europäischer Supercomputer durchbricht Petaflops-Barriere

Posted by Julia Werner  • 

Ein US-Supercomputer hat gerade die Exascale-Barriere durchbrochen und ist der schnellste der Welt

Den USA ist es gelungen, den weltweit ersten „echten“ Exascale-Supercomputer zu entwickeln, ein Versprechen von Präsident Obama vor fast sieben Jahren einzulösen und die Welt in eine neue Ära der Rechenleistung einzuleiten.

Bisher arbeiteten die schnellsten Supercomputer der Welt noch im Petamaßstab und schafften eine Billiarde Rechenoperationen pro Sekunde. Die Exascale bringt dies auf eine ganz neue Ebene, eine Trillion Operationen pro Sekunde erreichen.

Das Grenz-Supercomputerder im Oak Ridge National Laboratory des Energieministeriums in Tennessee gebaut wurde, ist nun der weltweit erste bekannte Supercomputer, der eine Prozessorgeschwindigkeit von 1,1 exaFLOPS (1,1 Quintillionen Gleitkommaoperationen pro Sekunde oder FLOPS).

Das Ergebnis wurde in einem Benchmarking-Test namens bestätigt Hochleistungs-Linpack (HPL). So beeindruckend das auch klingen mag, die ultimativen Grenzen von Frontier sind noch atemberaubender, da der Supercomputer theoretisch zu einer Spitzenleistung von 2 Quintillionen Berechnungen pro Sekunde fähig ist Oak Ridge Labor sagt.

Doch bei aller Theorie zählt in erster Linie der standardisierte HPL-Benchmark TOP500, eine zweimal jährlich erscheinende Rangliste der leistungsstärksten Supercomputer der Welt; Frontiers Debütergebnis bedeutet, dass es jetzt als das schnellste System der Welt in diesem Elite-Bereich von Maschinen eingestuft wird.

„Mit einem exakten HPL-Score von 1.102 exaFLOPS ist Frontier nicht nur der leistungsstärkste Supercomputer, der je existiert hat – es ist auch die erste echte Exascale-Maschine“, so TOP500 Bekanntgabe der neuen Rangliste erklärt.

Technisch gesehen wurde die Exascale-Grenze erstmals 2020 durch das Distributed-Computing-Projekt Folding@home durchbrochen, das an verschiedenen medizinischen Problemen arbeitet. Aber Frontier ist die erste echte Exascale-Maschine, weil die Berechnungen nicht wie Folding@home auf zahlreiche Heimcomputer verteilt wurden.

Informatiker arbeiten seit Jahren auf den Exascale-Meilenstein hin, wobei die Schwelle eine neue Stufe der Rechenleistung für darstellt Berechnung von Lösungen für sehr komplexe Probleme mit riesigen Datenmengen, wie der Modellierung von Klimasystemen, der Entwicklung neuer Arten von Materialien und Medikamenten und dem Blick in die tiefsten Rätsel der Physik.

Der Fortschritt auf diesem Gebiet war fast so schnell wie die Supercomputer selbst. Die Maschine Nummer eins war in den letzten zwei Jahren der japanische Supercomputer Fugaku, der im Jahr 2020 415,5 Billiarden FLOPS (415,5 PetaFLOPS) erzielte.

Damals war das fast dreimal besser als die Maschine, die es von Platz eins verdrängte, der von IBM gebaute Summit-Supercomputer, der ebenfalls im Oak Ridge National Laboratory steht.

Im Die neue Rangliste 2022ist Summit auf den vierten Platz der TOP500-Liste abgestiegen (mit einem neuen Ergebnis von 148,8 petaFLOPS), weit hinter der Leistung von Frontier, Fugaku (auf dem zweiten Platz mit 442 petaFLOPS) und Newcomer LUMI aus Finnland, der 151,9 petaFLOPS erzielte.

Unter all diesen enorm leistungsstarken Supercomputern hat laut TOP500 nur Frontier eine echte Exascale-Leistung erreicht, zumindest dort, wo es darauf ankommt.

„In Anbetracht der Tatsache, dass Fugakus theoretische Spitze über der 1-ExaFLOP-Grenze liegt, gibt es Anlass, dieses System auch als Exascale-Maschine zu bezeichnen“, TOP500 Bekanntmachung liest.

„Allerdings ist Frontier das einzige System, das dies im HPL-Benchmark-Test nachweisen kann.“

Es gibt, einige haben darauf hingewiesenein Elefant im Raum: das Fehlen neuer chinesischer Supercomputer auf der TOP500-Liste, die nicht offiziell zur Prüfung im Wettbewerb eingereicht wurden.

Das bedeutet, dass wir nicht sicher wissen, wie sie im Vergleich zu den diesjährigen Ranglistensystemen abschneiden werden, obwohl chinesische Supercomputer in den Ranglisten der vergangenen Jahre sicherlich gut abgeschnitten haben, und einige Kommentatoren glauben, dass China dies getan haben könnte mehrere bevorstehende Exascale-Systeme in der Pipeline.

Nichts davon schmälert die gigantische Leistung von Frontier. Im Moment gilt diese unglaubliche Maschine als der fortschrittlichste Computer der Welt – a 600 Millionen US-Dollar Kraftpaket bereit, uns viele wunderbare und wichtige Dinge zu sagen.

„Frontier leitet eine neue Ära des Exascale-Computing ein, um die größten wissenschaftlichen Herausforderungen der Welt zu lösen“, sagt ORNL-Direktor Thomas Zacharia.

„Dieser Meilenstein bietet nur einen Vorgeschmack auf die unübertroffene Leistungsfähigkeit von Frontier als Werkzeug für wissenschaftliche Entdeckungen.“

Du kannst Lesen Sie hier mehr über Frontierund finde TOP500-Rangliste für Juni 2022 hier.

Petaflops war gestern: Supercomputer werden leistungsfähiger

Ende Juni knallten am Oak Ridge National Laboratory die Sektkorken. Zum ersten Mal nach sechs Jahren übernahmen US-Amerikaner wieder die Spitze auf der Liste der schnellsten Supercomputer der Welt.

Das neue System mit dem Namen Summit schafft 122,3 Petaflops und übertrifft das bis dato führende System, den chinesischen Sunway Supercomputer, um knapp 30 Petaflops. Platz drei geht ebenfalls an die USA (Sierra mit 71,6 Petaflops) und Platz vier an China (Tianhe-2A mit 61,4 Petaflops). Auf dem fünften Platz folgt mit einem deutlichen Abstand Japan (AI-Bridge mit 19,9 Petaflops).

Exaflops im Visier Doch diese Systeme werden bald schon übertrumpf, denn die neue Generation an Supercomputern wird in Exaflops gemessen. Das sind eine Milliarde mal eine Milliarde, also zehn hoch 18, Floating-Point-Operationen pro Sekunde. Oder, anders ausgedrückt, wenn jeder Mensch auf der Erde fünf Jahre lang ununterbrochen jede Sekunde eine arithmetische Operation ausführt, wäre am Ende genau so viel geleistet, wie eine Exaflop-Maschine in einer Sekunde schafft. Bis 2021 soll das erste System mit dieser Leistungsfähigkeit verfügbar sein. Europa, Japan, China und die USA befinden sich hier in einem ehrgeizigen Wettrennen, um die Exascale-Marke als erster zu durchbrechen. Derzeit sieht es nach einem Kopf-an-Kopf-Rennen zwischen China und den USA aus. Beide Länder planen die Inbetriebnahme einer solchen Maschine in drei Jahren. Japan und Europa werden dann ein oder zwei Jahre später folgen. Das US-System wird unter dem Projektnamen Aurora von Cray Research und Intel gemeinsam entwickelt.

Dreidimensionale Chips Um diese neue Leistungsstufe erreichen zu können, gibt es verschiedene Ansätze. So hat die Forschungsagentur des Pentagon, DARPA, zwei Projekte gestartet, für die 1,5 Milliarden Dollar bereitgestellt wurden. Beide zielen darauf ab, die Leistungsfähigkeit von Supercomputern deutlich zu erhöhen. Beim Projekt ERI (Eletronics Resurgence Initiative) geht es um die Entwicklung eines dreidimensionalen System on a Chip (3 Dimensional Monolithic System on a Chip, 3DSoC). In der Projektbeschreibung heißt es unter anderem, dass man „Materialien, Tools und Fertigungsverfahren entwickeln will, um vertikal integrierte Chips zu schaffen, die neben dem Prozessor auch noch Memory und I/O-Teile enthalten“. Dadurch wird die Transferzeit zwischen den drei Hauptkomponenten (Prozessor, Speicher, Input/Output) drastisch reduziert. Bei DARPA erhofft man sich davon eine Leistungssteigerung um den Faktor 50, eine deutliche Steigerung der Energieeffizienz sowie einer I/O-Bandbreite von 50 Terabits pro Sekunde.

Abkehr vom von-Neumann-Flaschenhals Das zweite DARPA-Projekt läuft unter dem Akronym FRANC (Foundations Required for Novel Compute). Hierbei handelt es sich mehr um Grundlagenforschung im Bereich der fundamentalen Funktionsweise von Computern. Dazu gehört zum Beispiel die Ablösung der von-Neumann-Architektur, insbesondere dem sogenannten von-Neumann-Flaschenhals, also dem Verbindungssystem zwischen dem Prozessor und dem Datenspeicher. „Wir experimentieren mit Memory-zentrierten Architekturen, bei denen wir neue Non-Volatile-Storage-Chips testen, die genauso schnell sind wie heutige SRAMs“, sagt Y.K. Chen, Projektleiter bei DARPA. Zu den Technologien, die man hier testet, gehören unter andern Mott Memory, Kohlenstoff-Memory, Molekül-Memory und Ferro-elektrische Tunnel-Einspritzungen. Kurzfristig wird sich das aber nicht auf Supercomputerlandschaft auswirken. Das 3DSoC-Projekt ist auf einen Zeitraum von 4,5 Jahre ausgelegt, das FRANC-Projekt auf 3,5 Jahre.

Einsatzfelder: Rüstung, Energie und KI Abgesehen vom Prestige, einen Supercomputer zu bauen und zu betreiben, stellt sich die Frage: Wofür werden diese Power-Maschinen eigentlich genutzt? Ein Großteil der Anwendungen ist immer noch in Bereichen angesiedelt, für die bereits die ersten Supercomputer in den 1970er Jahren geschaffen wurden: Rüstung und Energie. In beiden Bereichen geht es immer noch um die Simulation von nuklearen Prozessen und deren Umgebungen. Es gibt noch tausende ungelöste wissenschaftliche Aufgaben, für die selbst die heutigen Supercomputer noch zu schwach sind. Martin Giles MIT Technology Review In den letzten Jahren sind aber neue Bereiche hinzugekommen, die dichter an kommerziellen Anwendungen angesiedelt sind. Hierzu gehören vor allem künstliche, neuronale Netze, also ein Bereich der künstlichen Intelligenz, Umweltsimulationen, Klimaforschung- und -prognosen und Very Big Data Analytics in der Astronomie. „Es gibt noch tausende ungelöste wissenschaftliche Aufgaben, für die selbst die heutigen Supercomputer noch zu schwach sind“, sagt Martin Giles von MIT Technology Review. Trotz der Anschaffungspreise von mehreren hundert Millionen Dollar sind Supercomputer ein lohnendes Geschäft. Laut Hyperion Research beträgt der ROI für jeden in High Performance Computing investierten Dollar bis zu 500 Dollar. Folglich ist der Bedarf an solchen Exascale-Systemen – zumindest in den USA – vorhanden. So hat das Energieministerium der Vereinigten Staaten inzwischen zwei weitere Systeme in Auftrag gegeben, die noch bis 2023 geliefert werden sollen. Das gesamte Auftragsvolumen beläuft sich auf rund 1,8 Milliarden Dollar.

Erster europäischer Supercomputer durchbricht Petaflops-Barriere

Es handelt sich um das Modell Tera 100 der französischen Atomenergiebehörde CEA. Der Supercomputer setzt sich aus 4370 Servern mit insgesamt 17.480 Xeon-Prozessoren und 300 TByte RAM zusammen. Die Spitzenleistung im Linpack-Test beträgt 1,25 Petaflops.

Der Supercomputer Tera 100 hat als erstes europäisches Modell die Petaflops-Grenze überwunden. Im Benchmark Linpack schaffte er 1,05 Billiarden Gleitkommaoperationen pro Sekunde. Die Spitzenleistung betrug 1,25 Petaflops. Derzeitiger Rekordhalter ist der chinesische Supercomputer Tianhe-1A, der es kürzlich auf 2,507 Petaflops brachte und der die Mitte November erscheinende halbjährliche Top-500-Rangliste voraussichtlich anführen wird.

Tera 100 hat Bull im Auftrag von CEA-DAM gebaut, dem militärischen Bereich der staatlichen Atomkraftbehörde CEA. Der Supercomputer wird von ihr vor allem für Simulationen genutzt.

Das System besteht aus 4370 geclusterten Servern der Reihe Bullx S, die zusammen 17.480 Intel-Prozessoren vom Typ Xeon 7500 einsetzen. Mit über 140.000 Speichermodulen kommt er auf eine Gesamtkapazität von über 300 TByte. Der Plattenspeicher ist 20 Petabyte groß und mit 500 GByte/s ansprechbar.

Für Bull dürfte Tera 100 nur ein Meilenstein sein, hat doch die nationale französische Einrichtung für High Performance Computing GENCI bei ihm den Bau eines Supercomputers mit 1,6 Petaflops in Auftrag gegeben. Er soll nach den Wissenschaftlern Pierre und Marie Curie benannt werden. Die Fertigstellung ist für Oktober 2011 geplant.

Tagged:

  • Computing durchbricht die Exaflop-Grenze
  • Leave a Reply