Deutschland hat Europas schnellsten Supercomputer
Posted by Julia Werner •
Universität Regensburg installiert ersten ARM-basierten Fujitsu Supercomputer
Kern des FUJITSU Supercomputer PRIMEHPC FX700 ist ein neuer ARM-basierter A64FX-Prozessor für maximale Leistung und minimalem Energieverbrauch.
Wissenschaftler an der Universität Regensburg schauen ab sofort mit noch schärferem Blick in die fernste Vergangenheit: Mithilfe des neuen FUJITSU Supercomputer PRIMEHPC FX700 mit ARM-basiertem Fujitsu A64FX-Prozessor wollen die Forscher den Ursprung des Universums sichtbar machen. Das QPACE4 (QCD Parallel Computing Engine 4) Projekt der Universität kann damit völlig neue Einsichten und Erkenntnisse generieren. Der PRIMEHPC FX700 nutzt die gleiche A64FX-CPU wie der Supercomputer Fugaku, der erst kürzlich als leistungsstärkster Supercomputer der Welt den ersten Platz in der TOP500-Liste eingenommen hat
Mit dem QPACE4 Projekt sind die Regensburger Wissenschaftler die ersten Nutzer der neuen PRIMEHPC FX700 mit Fujitsu A64FX-CPUs in Europa. Diese CPUs sind kompatibel mit ARMs Armv8.2-A SVE, der aktuellsten Befehlssatzarchitektur für Hochleistungsserver. Sie sind zudem besonders energieeffizient.
Die Universität nutzt den technischen Vorsprung für neuartige und anspruchsvolle Simulationen der Quantenchromodynamik (QCD). Dabei geht es um ein besseres Verständnis der Elementarteilchen, insbesondere der inneren Struktur von Protonen, im Zusammenhang mit dem Zustand des Universums unmittelbar nach dem Urknall. Auch in der Bioinformatik mit Schwerpunkt Krebsforschung sowie der Immunologie kommt der Superrechner zum Einsatz.
Quelle: Fujtsu QPACE4 ist – der Name verrät es – das vierte Projekt im Rahmen des SFB/TRR-55 der Deutschen Forschungsgesellschaft (DFG). Es nutzt die gleiche Prozessorarchitektur wie der Supercomputer Fugaku, den Fujitsu gemeinsam mit dem renommierten RIKEN Center for Computational Science in Kobe, Japan entwickelt hat.
Über eine erstaunliche Spitzenrechenleistung pro Watt hinaus bietet der A64FX-Prozessor auch Scalable Vector Extensions (SVE). Er wurde speziell für Anwendungen im High Performance Computing (HPC) entwickelt und beschleunigt hochkomplexe, datenintensive Rechenvorgänge dadurch, dass er mehrere davon parallel zulässt. Darüber hinaus ist er mit einem sehr schnellen Arbeitsspeicher verbunden (High Bandwidth Memory / HBM2), der für schnelle und komplexe Prozesse nicht weniger wichtig ist. Damit liefert der Supercomputer genau die richtige Kombination aus Rechenleistung, Speicher- und Netzwerk-Bandbreite. Leistungsengpässe können so wirksam vermieden werden. Ein besonderes Merkmal ist die Tatsache, dass die Rechenleistung nicht auf Grafikkarten fusst. Das macht die Programmierarbeit wesentlich leichter, insbesondere im Hinblick auf massive Parallelisierung, die für sogenannte «Grand Challenge»-Anwendungen unerlässlich ist.
Quelle: Fujitsu Der Einsatz des neuen Rechners in Regensburg ist das aktuellste Ergebnis einer langen Zusammenarbeit der Universität mit Fujitsu insbesondere beim High Performance Computing. Bereits im Jahr 2016 machten sich die Universitäten Regensburg und Wuppertal die Vorteile des Supercomputings zu eigen und installierten den von Fujitsu gelieferten QPACE3 Supercomputer im Jülich Supercomputing Centre (JSC).
Dazu Prof. Dr. Tilo Wettig, Physikprofessor an der Universität Regensburg: «Einmal mehr hat uns Fujitsu mit der ultimativen Technik ausgestattet, was uns bei unserer Arbeit ein enormes Stück weiter nach vorn bringt, gerade bei der Physik-Grundlagenforschung und in der Medizin. Die Partnerschaft hat sich in den vergangenen Jahren mehr als bewährt. Besonders beeindruckt hat uns das Engagement zur Maximierung der Rechenleistung und Minimierung des Energieverbrauchs sowie die Flexibilität und Reaktionsfähigkeit von Fujitsu gegenüber uns als Kunden. Die Zeitspanne für die Lieferung, Installation, Konfigurierung und Inbetriebnahme dieser fortschrittlichen Technologie ist besonders erwähnenswert.»
Quelle: Universität Regensburg Rupert Lehner, Head of Central and Eastern Europe, Products Europe bei Fujitsu, bestätigt: «Fujitsu hat sich nicht nur als Entwickler der weltschnellsten Supercomputer profiliert, sondern auch als Experte für die besonderen Anforderungen bei den HPC-Kunden im Hinblick auf Leistung, Anwendungsbreite und Service. Unsere Partnerschaft mit der Universität Regensburg steht exemplarisch für diesen Ansatz – und wir sind stolz darauf, dass wir die dortigen Wissenschaftler so umfassend mit unserer Technik unterstützen können.»
Supercomputer können uns im Krisenfall helfen – wir sollten sie deshalb auch einsetzen
Ein Kommentar von Prof. Dieter Kranzlmüller
Zwei Monate nach Ausbruch der Corona-Epidemie in Wuhan entdeckten chinesische Wissenschaftler die Genom-Sequenz des COVID-19-Virus. Weitere zwei Monate später waren die ersten 41 möglichen Wirkstoffe gegen das Virus identifiziert. Sie werden inzwischen getestet. Ohne die Rechenkraft von Supercomputern wären solche Forschungsergebnisse im Eiltempo heute nicht mehr denkbar.
Aus Zigtausenden von Prozessoren und Rechnerknoten aufgebaut, simulieren diese Systeme nicht nur das Infektionsverhalten von Viren oder testen Hunderttausende von medizinischen Wirkstoffen. Mit ihnen modellieren Physikerinnen, Seismologen, Meteorologen oder Biologinnen aus Daten die Ursachen von Naturkatastrophen. Das ist Grundlagenforschung auf höchstem Niveau. Dieses Wissen präzisiert die Planung von Sofortmaßnahmen und von langfristigem Schutz. Deshalb sollte High Performance Computing, kurz: HPC, zum festen Bestandteil von Notfallplänen werden. Im Krisen- oder Katastrophenfall muss der Zugang zu den staatlich geförderten Hoch- und Höchstleistungsrechnern für Wissenschaftler beschleunigt werden, damit Politik und Gesellschaft in diesen Zeiten konzertiert Strategien auf Basis von Erkenntnissen entwickeln können. Noch geschieht dies nur im Einzefall und Supercomputer werden vor allem für Grundlagenforschung eingesetzt.
Werde Mitglied von 1E9 – schon ab 3 Euro im Monat! Als Mitglied unterstützt Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein. Jetzt Mitglied werden!
Supercomputer und Daten ermöglichen detailgetreue Simulationen
HPC ist schon länger ein Teil der Forschung, insbesondere in der datenintensiven Astro- und Grundlagenphysik oder in der Thermodynamik. Durch detailliertere Messungen und interdisziplinäre Experimente beginnt gerade auch in den Lebenswissenschaften die Menge von Forschungsdaten so exponentiell anzuschwellen, dass sie nur von Supercomputern verarbeitet werden können. Gleichzeitig verbreiten Forscherinnen ihre Ergebnisse und Datengrundlagen online immer schneller in aller Welt, auf dass Kollegen diese mit weiteren Ergebnissen aus anderen Projekten kombinieren. Auch so wachsen Datenmengen – und Wissen.
Die großen Rechnerkapazitäten der Supercomputer sowie wachsende Datenmengen bilden die Basis für immer genauere Modellrechnungen und detailgetreue, hoch aufgelöste Simulationen für die Grundlagenforschung in beinahe allen Wissenschaftsdisziplinen, insbesondere in den Naturwissenschaften. So erfassen und begreifen wir immer mehr medizinische Symptome, molekulare Prozesse oder Naturphänomene. Supercomputer ermöglichen erst das Arbeiten mit künstlich intelligenten Systemen und Mustererkennungen, die aus Big Data noch mehr Wissen ziehen.
Dass diese computergestützte und mit Millionen geförderte Forschung den Menschen nützt, zeigt sich gerade jetzt in der Corona-Krise: Das EU-Projekt CompBioMed hat das Ziel, den Menschen zu virtualisieren. In den letzten Jahren entstanden dafür an europäischen Universitäten rund 20 HPC-Programme und -Algorithmen für Supercomputer, die beispielsweise das Geschehen in Blutbahnen verdeutlichen oder die Funktionsweisen von Proteinen und Enzymen simulieren. Mit ihnen wurden auch Corona-Viren analysiert, Forscher entdeckten so mögliche Angriffspunkte für Medikamente und Impfstoffe. Mit diesem Wissen entwickelten Mediziner, Mathematikerinnen und Informatiker die Algorithmen, mit deren Hilfe heute die Supercomputer Bibliotheken aus Millionen möglicher Medikamente, pflanzlicher und tierischer Substanzen sowie chemischer Verbindungen screenen, um jene Stoffe zu identifizieren, die das für COVID-19 verantwortliche SARS-Cov-2-Virus hemmen, sich zu vermehren.
Grundlagenforschung mit Hilfe von HPC spürt auch den Ursachen von Naturkatastrophen nach: Wissenschaftler aus München sammelten 2018 aus unterschiedlichsten Quellen Messdaten zu einem Erdbeben mit Tsunami bei Palu in Indonesien. Mit eigenen Modellrechnungen bestimmten sie Ursachen jener Flutwelle, die nur drei Minuten nach dem Beben die Küstenstadt fast vollkommen zerstörte. Ihre Simulation kann nun helfen, vergleichbare seismologische und geologische Regionen aufzufinden und besser zu schützen. Für das Projekt ClimEx entstanden am Leibniz-Rechenzentrum in Garching aus Daten zu den bayerischen Hochwassern von 1999, 2002, 2005 und 2013 eine Reihe von Wettersimulationen, die jetzt belastbare Prognosen zum Verlauf künftiger Überschwemmungen liefern. Werden starke Regenfälle vorhergesagt, könnten damit Städte und stark betroffene Regionen akute Schutzmaßnahmen besser planen.
Supercomputing liefert nützliche Tools – und Kontakte
Das sind nur einige Beispiele, was HPC der Grundlagenforschung ermöglicht. Und es sollten noch viel mehr werden. Mit diesen Ergebnissen und den dabei entstehenden Anwendungen, Programmen oder Algorithmen können Wissenschaftler in Krisenzeiten schneller und gezielter Daten verarbeiten, Szenarien modellieren und Strategien entwickeln, die Leben retten. Länder und Bund fördern in Deutschland bereits drei Höchstleistungsrechenzentren, in Europa stehen weitere vier Supercomputing-Zentren zur Verfügung. Noch werden diese Ressourcen als Spielwiese einer ausgewählten Forschergemeinde und als Ausgangspunkt für technische Rekorde gesehen. Noch ist auch für manche Naturwissenschaftler der Einsatz von HPC in ihrer Disziplin ungewohnt. Und noch rechnen Politik und Gesellschaft viel zu selten mit den schnellsten Computern ihres Landes und den Spezialisten, die sie betreiben. Das aber kann sich jetzt ändern – die Corona-Krise führt einen wichtigen Beweis, wie Supercomputing bei der Bewältigung von Krisen unterstützt.
HPC ist ein Forschungsgebiet, aber zugleich auch eine innovative Dienstleistung für die Grundlagenforschung und damit indirekt für den Katastrophenschutz. Das Gauss Centre for Supercomputing, kurz: GCS, der Zusammenschluss der Höchstleistungszentren Garching, Jülich und Stuttgart vergibt bereits gemeinsam Rechnerkapazitäten und bietet aktuell Forscherteams rund um die Erkundung von Corona und COVID-19 beschleunigten Zugang zu den Supercomputern Hawk, Jewels und SuperMUC-NG. Die dabei entstehenden Abläufe sollten für künftige Notfälle etabliert und optimiert werden. Spezialisten aus den Höchstleistungsrechenzentren können Expertenrunden aus Politik, Wirtschaft, Gesellschaft bereichern und die Ursachenforschung sowie Planung mit Hilfe der Rechenleistung von Supercomputern beschleunigen. Im Umfeld von HPC sammeln sich außerdem die Kontakte zu Wissenschaftlerinnen und Experten aus Europa und der Welt, die bereits Naturphänomene oder Epidemien erforschen: Vernetzung im technischen wie im persönlichen Sinn ist ein wertvoller Zusatznutzen beim Supercomputing.
Prof. Dr. Dieter Kranzlmüller ist Leiter des Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften.
Titelbild: Der Supercomputer SuperMUC am Leibniz-Rechenzentrum in Garching bei München. Bild: Hohenegger / Leibniz Rechenzentrum
Deutschland hat Europas schnellsten Supercomputer
Michael Söldner
Mit dem JUWELS Booster und HAWK hat Deutschland zwei weitere Supercomputer auf Spitzenniveau zu bieten.
Vergrößern JUWELS Booster kann Platz 7 der schnellsten Supercomputer ergattern. © fz-juelich.de
Nach einer Bauzeit von siebeneinhalb Jahren hat das Jülich Supercomputing Centre den Supercomputer JUWELS Booster an den Start gebracht, der Deutschland im europäischen Umfeld den Spitzenplatz beschert. Der Rechner besteht aus AMD Epyc 7402-Prozessoren sowie 3.744 Nvidia-Ampere-Grafikkarten und erreicht damit 44,1 PFlops im Linpack-Benchmark. Weltweit bringt ihm diese Rechenleistung in der Top500-Liste den siebten Platz ein, der bislang schnellste Supercomputer in der EU, der HPC5 aus Italien, landet dadurch auf Platz 8. JUWELS Booster kann zudem im Bereich der Energieeffizienz neue Maßstäbe setzen: Mit 25 GFlops pro Watt kann der deutsche Supercomputer seine Aufgaben so effizient wie keiner der anderen Rechner abarbeiten. Der japanische Fugaku kommt beispielsweise nur auf 15 GFlops pro Watt.
Der Spitzenreiter weltweit bei der Rechenleistung bleibt aber weiterhin der japanische Fugaku, der auf 442 PFlops kommt. Danach folgen die beiden US-Rechner Summit (149 PFlops) und Sierra (94,6 PFlops). Auf Platz 4 folgt China mit dem Sunway TaihuLight, der es auf 93 PFlops bringt. Doch Deutschland hat noch einen zweiten Supercomputer namens HAWK zu bieten. Dieser steht in Stuttgart und wurde bereits im Februar gestartet. Der Rechner kommt auf 19,33 PFlops und landet damit auf Platz 15. Im Gegensatz zu den Spitzenreitern nutzt HAWK ausschließlich CPUs für Berechnungen, konkret AMD Epyc 7742 Prozessoren.
Microsoft baut Supercomputer mit 285.000 CPU-Kernen
Tagged:
Leave a Reply
neueste Artikel
- How to Check The Serial Number...
Buying a huawei watch can sometimes be a dream come true, especially if you have had b... - Synology DiskStation Manager
Der DiskStation Manager (DSM) ist das Betriebssystem für die Network Attached Storage-Systeme (NAS... - SAN vs. NAS: Unterschied ...
„Big Data“ lässt grüßen! Laut einer Studie des Festplatten-Giganten Seagate soll sich der weltweit... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Ninite – das wohl nützlic...
System-Tools gibt es wie Sand am Meer. Die meisten versprechen viel und halten wenig. Wirklich gut... - Digitalisierung anpacken:...
Die Corona-Pandemie hat ohne Zweifel einen starken Beitrag zur Digitalisierung kleinerer und mitte...
populäre Artikel
- How to Check The Serial Number...
Buying a huawei watch can sometimes be a dream come true, especially if you have had b... - Synology DiskStation Manager
Der DiskStation Manager (DSM) ist das Betriebssystem für die Network Attached Storage-Systeme (NAS... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Einrichten einer lokalen...
Dieser Artikel richtet sich an alle Hobby-Webentwickler, die ihre erstellten Web-Projekte auf dem... - Digitalisierung anpacken:...
Die Corona-Pandemie hat ohne Zweifel einen starken Beitrag zur Digitalisierung kleinerer und mitte...
Lieblingsartikel
- SAN vs. NAS: Unterschied ...
„Big Data“ lässt grüßen! Laut einer Studie des Festplatten-Giganten Seagate soll sich der weltweit... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Ninite – das wohl nützlic...
System-Tools gibt es wie Sand am Meer. Die meisten versprechen viel und halten wenig. Wirklich gut... - Einrichten einer lokalen...
Dieser Artikel richtet sich an alle Hobby-Webentwickler, die ihre erstellten Web-Projekte auf dem...