Was ist Grid Computing?

Posted by Julia Werner  • 

Mit Supercomputern bei Naturkatastrophen Leben retten

Bei Naturkatastrophen zählt jede Sekunde. „Technologie kann uns Zeit verschaffen, und bei einer Naturkatastrophe ist Zeit gleichbedeutend mit geretteten Leben“, so Arnau Folch vom Barcelona Supercomputing Centre (BSC), Koordinator des EU-finanzierten Projekts Centre of Excellence for Exascale in Solid Earth (ChEESE).

Folch und sein Team untersuchen, wie sich der Nutzen von Technologie bei einer Naturkatastrophe noch weiter verbessern lässt. „Unser Ziel ist es, die enorme Leistungsfähigkeit von Supercomputern optimal einzusetzen und sie auf Gefahrenbewertungen und Frühwarnvorhersagen für Erdbeben, Tsunamis und Vulkane anzuwenden“, ergänzt Folch.

Die Superkräfte von Supercomputern

Wie Folch erklärt, handelt es sich bei einem Supercomputer, der auch als Hochleistungsrechner bezeichnet wird, um einen Computer, der eine wesentlich höhere Leistung als ein typischer Desktop- oder Laptop-Computer bietet. „Mit Supercomputern lassen sich Hunderte, ja sogar Tausende Szenarien in kürzester Zeit lösen, sodass die Ergebnisse unter den strengen Zeitvorgaben für Notfallsituationen rechtzeitig zur Verfügung stehen“, merkt er an.

Folch zufolge ist diese Fähigkeit bei einer Naturkatastrophe besonders wichtig, da hier häufig viele Unwägbarkeiten bestehen. „Dank Supercomputern können wir probabilistische Tsunami-Vorhersagen erstellen, die Tausende physikgestützter Szenarien kombinieren, um Warnungen auszusprechen und die Auswirkungen vorherzusagen, lange bevor die Welle auf die Küste trifft“, sagt Folch. „Ebenso können hochauflösende Vorhersagen für Vulkanaschewolken ausgegeben werden, um die Zivilluftfahrtbehörden entsprechend bei der Planung zu unterstützen.“

Das ist alles schön und gut, solange die Behörden Zugriff auf die zusammengetragenen und verarbeiteten Supercomputersimulationen haben – was jedoch nicht immer der Fall ist. Aus diesem Grund hat sich ChEESE auf die sogenannte dringende Datenverarbeitung konzentriert. „Die dringende Datenverarbeitung lässt sich mit einer speziellen Infrastruktur vergleichen, die den Behörden den sofortigen Zugriff auf die supercomputergestützten Simulationen und zugehörigen Technologien ermöglicht, die sie zur Anfertigung von Notfallberechnungen benötigen“, erklärt Folch.

Genauer gesagt nutzt die von ChEESE entwickelte Lösung für die dringende Datenverarbeitung sowohl das Capability- als auch das Capacity-Computing. Der Unterschied liegt darin, erklärt Folch weiter, dass sich das Capability-Computing tendenziell auf die großen Probleme konzentriert, während das Capacity-Computing eher auf die Durchführung vieler kleiner Simulationen abzielt.

„Mithilfe des Capability-Computing können Fachleute im Bereich der Seismik die Entstehung und Ausbreitung von Erdbeben mit bisher unerreicht hohen Frequenzen simulieren und Auswirkungen wie Tsunamis und Erdrutsche vorhersagen“, führt Folch aus. „Mittels Capacity-Computing können viele Simulationen, die jeweils ein anderes Szenario darstellen, kombiniert werden, um Modellunsicherheiten auszugleichen.“

Bei Vulkanausbrüchen ist auf ChEESE Verlass

Supercomputer, dringende Datenverarbeitung, Capability- und Capacity-Computing – das sind eine Menge Begrifflichkeiten rund um das Thema der Datenverarbeitung. Aber was kann damit eigentlich erreicht werden? Am 19. September 2021 durfte die Welt das herausfinden.

Damals brach der Vulkan Cumbre Vieja auf der Kanareninsel La Palma aus. Seitdem setzt er verheerende Lavaströme frei und stößt große Mengen Asche in die Luft aus, zerstört Eigentum, verschmutzt die Luft und sorgt für Unterbrechungen des Flugverkehrs. Bislang wurden über 1 000 Häuser und Gebäude vernichtet und mehr als 6 000 Menschen evakuiert.

Zur Bewältigung der anhaltenden Notlage haben die lokalen Behörden den ChEESE-Pilotdemonstrator für Vulkanasche eingesetzt. „Seit Beginn des Ausbruchs hat ChEESE den lokalen Behörden täglich operationelle Vorhersagen geliefert“, so Folch.

Der Demonstrator basiert auf einem Supercomputer am BSC, der Berechnungen in verschiedenen Auflösungen durchführt und eine Reihe möglicher Eruptionsszenarien abdeckt. Er umfasst ein spezielles System für die dringende Datenverarbeitung, das sicherstellt, dass ChEESE seine Simulationen jeden Morgen zwischen 6.00 und 7.00 Uhr ausführen und seine Vorhersage bis spätestens 7.30 Uhr abgeben kann.

Anhand dieser Vorhersagen können die lokalen Behörden dann genau abschätzen, was in den nächsten zwei Tagen passieren könnte. „Entscheidungsverantwortliche können nachvollziehen, wie sich die bevorstehende vulkanische Aktivität auf die Zivilluftfahrt auswirken wird, und auf dieser Grundlage bereits frühzeitig mit der Umleitung des Flugverkehrs beginnen“, fügt Folch hinzu. „Sie können auch Probleme in Bezug auf die Luftqualität vorhersagen und für Personen, die innerhalb der Sperrzone wohnen, Ausgangsbeschränkungen anordnen.“

Der Ausbruch des Cumbre Vieja ist ein Beweis dafür, dass die öffentlichen Behörden durch den Einsatz von Supercomputern schneller und effizienter agieren und so potenzielle Schäden reduzieren können.

„Dieser Ausbruch zeigt deutlich die Vorteile der dringenden Datenverarbeitung in Notsituationen“, so Folch abschließend. „Sie informiert nicht nur die Behörden über zu erwartende Szenarien und unterstützt sie darin, bessere Entscheidungen zu treffen, sondern trägt vor allem dazu bei, Leben zu retten.“

Supercomputer für alle

Fujitsu gab kürzlich die Einführung seines neuen Serviceportfolios "Fujitsu Computing as a Service (CaaS)“ bekannt. Damit ermöglicht das Unternehmen seinen Kunden den Cloud-Zugang zu einigen der modernsten Computing-Technologien.

Der neue Service umfasst fortschrittliche Rechenressourcen wie quanteninspirierte Digital Annealer-Technologie – die Rechentechnologie, die auch das Herzstück des weltweit schnellsten Supercomputers Fugaku bildet, sowie Softwareanwendungen für KI und maschinelles Lernen. Der vorläufige Launch für den japanischen Markt ist für Oktober 2022 geplant, der globale Start werde folgen.

„CaaS wird den Kunden einen nahtlosen Zugang zu Services in der Public Cloud bieten, um die schnell wachsenden Anforderungen an das Computing zu erfüllen. In Zukunft wollen wir das Portfolio mit Technologien wie Quantencomputing weiter ausbauen“, so Vivek Mahajan, Chief Technology Officer bei Fujitsu.

Senkung der Eintrittsbarrieren

Die Kosten stellen nach wie vor ein großes Hindernis für viele Unternehmen dar, die fortschrittliche Rechentechnologien einsetzen wollen. Um dieses Problem zu lösen, will Fujitsu Anwender*innen im Rahmen seines neuen CaaS-Portfolios einen einfachen Zugang zu einer Reihe von Services bieten: „Dieser Schritt ist ein wichtiger Meilenstein auf dem Weg zur Demokratisierung von High-Performance- und Quanten-Computing und wird eine wichtige Rolle spielen: die Welt nachhaltiger zu machen, indem wir durch Innovation Vertrauen in der Gesellschaft schaffen.“, so Mahajan.

Außerdem soll der neue Service die kommerzielle Nutzung einer Reihe von fortschrittlichen Rechentechnologien fördern, die bisher weitgehend auf Anwendungen im akademischen Kontext beschränkt waren – zum Teil aufgrund der hohen Investitionskosten, aber auch durch die Implementierungs- und Betriebslasten.

Übersicht über CaaS

Das CaaS-Portfolio bietet eine Software, eine Service-Integrationsplattform sowie Beratungs- und Tuning-Services, die auf der Cloud basieren. So können Nutzer*innen die Problemlösungsfähigkeiten und den Zugang zu schnelleren Rechenressourcen nutzen, ohne dass Bereitstellungs- und Betriebskosten anfallen, die normalerweise mit Technologien wie Supercomputern verbunden sind.

Der Fujitsu Cloud Service HPC bietet Anwendern Zugang zum PRIMEHPC FX1000, dem Supercomputer-Modell von Fujitsu, das ähnliche Technologien wie der weltweit leistungsstärkste Supercomputer Fugaku nutzt. Die Support-Services umfassen standardmäßig eine Reihe von Softwares und Bibliotheken, um Kunden bei der Implementierung von HPC (Hochleistungsrechnern) zu unterstützen. Auf der operativen Seite bietet Fujitsu auch Services für Performance-Tuning und App-Analyse an, um Kunden zu unterstützen, die sich auf Forschung und Analyse konzentrieren.

Was ist Grid Computing?

Grid Computing ist ein Teilbereich des Distributed Computing. Als Oberbegriff steht Distributed Computing für digitale Infrastrukturen, die aus autonomen, zu einem Rechnerverbund zusammengeschlossenen Computern bestehen. Der Rechnerverbund ist in der Regel hardwareunabhängig. Somit lassen sich Rechner mit verschiedenen Leistungen und Ausstattungen in das Netzwerk einbinden. Verteilte Anwendungen und Prozesse arbeiten auf diese Weise geräteübergreifend mit vernetzten Rechnereinheiten. Die Rechnereinheiten wiederum können innerhalb des Netzwerks lokal und überregional miteinander kommunizieren und Probleme lösen.

Die Abgrenzung zwischen Distributed Computing und Grid Computing ist fließend. Distributed Computing kann für verschiedene Erscheinungsformen dezentralisierter Datenverarbeitung in Rechnerverbunden stehen. Grid Computing wiederum bezeichnet einen virtuellen Supercomputer, der durch den Zusammenschluss lose gekoppelter Rechner entsteht. Dieser kommt zum Einsatz, um rechenintensive Prozesse oder Aufgaben zu erledigen. Zusammengeschlossene Server und Rechner stellen dabei ihre Ressourcen und Rechenleistung zur Verfügung, um für bessere Skalierbarkeit der benötigten Computer-Performance zu sorgen.

Tagged:

  • Was nützt Supercomputer?
  • Leave a Reply