7. Wettstreit um den schnellsten Supercomputer
Posted by Julia Werner •
Was ist ein Supercomputer?
Von der Cray bis zum Linux-Cluster mit GPU Was ist ein Supercomputer?
Supercomputer, der Begriff beschreibt Computersysteme mit extrem großer Leistungsfähigkeit, auch im Vergleich zu den schnellsten normalen Computern. Er schließt dabei Grid- oder Cloud-Computing-Lösungen aus, bei denen räumlich verteilte, vernetzte Computer numerische Probleme gemeinschaftlich lösen, oft auf freiwilliger Basis.
Der erste Supercomputer rechnet mit Terabyte. (Bild: © djarma/
Seinen Ursprung hat der Begriff Supercomputer in der von Seymour Cray entworfenen „CDC-6600“, die bei ihrer Vorstellung 1964 rund zehnmal so schnell rechnete wie die schnellsten Computer ihrer Zeit. Am typischen Aufbau von Supercomputern hat sich inzwischen allerdings sehr viel verändert.
Die Top500: Supercomputer im Vergleich
Die TOP500-Liste bietet seit 1993 einen detaillierten, zweimal jährlich aktualisierten Überblick der weltweit leistungsfähigsten Supercomputer. Sie bietet daher neben dem Vergleich der jeweils aktiven Systeme hinsichtlich Rechenleistung, verschiedenen Hardware-Kennzahlen, Betriebssystem, Hersteller, geographischer Verteilung und nationaler Zugehörigkeit ebenso die Grundlage für eine Analyse der historischen Entwicklung.
Seit 2007 ergänzt die Green500-Liste der Energie-effizientesten Supercomputer den Vergleich der leistungsstärksten Systeme. Zu den bedeutsamsten aktuellen Trends zählen die massive Zunahme der Anzahl Prozessorkerne pro Cluster, der fast durchgängige GPU-Einsatz zur Leistungssteigerung bei reduziertem Energieverbrauch, eine Verschiebung der Führung von den USA nach China und eine abnehmende Fluktuation unter den ersten zehn Plätzen.
Energieeffizienter Fujitsu-Supercomputer QPACE3 in Jülich in Betrieb Der Urknall im Rechner
Geblieben ist dagegen die Dominanz von Betriebssystemen aus der Unix-Welt in der TOP500 Liste, wobei sich ab 1998 ein Wechsel vom Vektorrechner zum Cluster mit Linux als Betriebssystemkern vollzogen hat. Selbst Cray konnte sich dem Trend zum Linux Cluster nicht entziehen.
Petaflops und Terabyte
Im Gegensatz zum Desktop-PC bemisst sich die Performance von Supercomputern nicht in Instruktionen (MIPS), sondern Gleitkommaoperationen pro Sekunde (FLOPS, Floating point Operations per Second), beziehungsweise deren durch SI-Präfixe gekennzeichneten Vielfachen wie TFLOPS. Aber auch in anderer Hinsicht können aktuelle, massiv parallele Linux Cluster, die Terabyte-weise Daten verarbeiten, mit beeindruckenden Zahlen aufwarten.
Die chinesische Nummer Eins der TOP500-Liste vom November 2016, Sunway TaihuLight, verfügt beispielsweise über 1.311 Terabyte RAM und hat eine Anschlussleistung von gut 15 Megawatt. Der bis 2015 leistungsfähigste deutsche Supercomputer, die im Forschungszentrum Jülich installierte JUQUEEN, nimmt sich mit 459 Terabyte Speicher und 2,3 Megawatt fast bescheiden aus, lieferte aber auch nur 5 PFLOPS, im Vergleich zum TaihuLight mit 93 PFLOPS. Im November 2015 verdrängte ihn die Hazel Hen des Stuttgarter Höchstleistungsrechenzentrums (HLRS), einer von nur zwei Neuzugängen unter den ersten zehn der TOP500-Liste.
Mehr Rechenpower aus der GPU
Fast alle aktuellen Supercomputer, von der Cray bis zum Linux Cluster, ziehen Rechenleistung nicht nur aus den für allgemeine Rechenaufgaben im Computer vorgesehenen CPUs, sondern auch aus GPU Bausteinen (Graphical Processing Unit). Ein Vorteil des GPU-Einsatzes ist der geringere Stromverbrauch pro Recheneinheit. Die ursprüngliche Aufgabe der GPU ist die Beschleunigung der Berechnung von Bilddaten, die für die Speisung von Ausgabegeräten wie Monitoren benötigt werden.
Die GPU ist daher für die parallele Manipulation großer Speicherblöcke optimiert. Diese Eigenschaft macht sie aber ebenfalls für den Einsatz in einem Linux Cluster interessant, dessen Datendurchsatz sich in Terabyte misst. Sogar in den Rechnersystemen von Cray Inc. taucht die GPU auf, zuerst 2010 bei den Cray CX1000 Systemen und danach, 2011 in der Cray XK6. Ab der Cray XK6 kommen die von Nvidia als General Purpose GPU (GPGPU) vermarkteten Tesla und Kepler Prozessoren zum Einsatz.
TOP500 2016: China und USA Kopf an Kopf
Seit der ersten Veröffentlichung haben die USA die TOP500 Liste mit den schnellsten, meisten und auch insgesamt leistungsfähigsten Systemen angeführt. Mit 167 Supercomputern und zusammen 211 PFLOPS führte China in der ersten TOP500-Liste 2016 erstmals mit mehr Systemen und mehr Leistung als die USA mit 165 Supercomputern und insgesamt 173 PFLOPS. Bei der Anzahl konnten die USA Ende des Jahres wieder mit China gleichziehen und sich dank einem neuen Cray-Supercomputer mit 14 PFLOPS bei der Gesamtleistung sogar wieder an die Spitze setzen.
Auf dem ersten Platz steht jedoch weiterhin der chinesische Supercomputer TaihuLight, mit Linux-basiertem RaiseOS, nur noch knapp 7 PFLOPS von der 100-PFLOPS-Marke entfernt. Die chinesische Nummer Eins mit 1.311 Terabyte Speicher zeichnet sich außerdem dadurch aus, dass es vollständig aus chinesischer Produktion stammt. Mitverantwortlich dafür ist ein US-Exportverbot für Intel Xeon Chips aus dem Jahr 2015.
Bei welchen Aufgaben kommen Supercomputer zum Einsatz?
Zu den typischen Anwendungen von Supercomputern zählen nach wie vor Wettervorhersagen, für die bereits die Cray-1 genutzt wurde. Von der Simulation eines vollständigen Wettermodells, das bis zu einem Zeitraum von zwei Wochen eine genaue Wettervorhersage liefern könnte, sind die aktuellen Linux Cluster und Cray Superrechner wahrscheinlich noch gut zwei Jahrzehnte entfernt. Ein weiteres Einsatzgebiet ist die Simulation nuklearer Explosionen.
Darüber hinaus konnten IBM BlueGene/P Supercomputer mit rund 200 TFLOPS und etwa 150 Terabyte Speicher bereits ein System von 1,6 Milliarden Neuronen mit etwa 9 Billionen Verbindungen simulieren, was etwa einem Prozent des menschlichen Gehirns entspricht. Mit dem Stampede Supercomputer am Texas Advanced Computing Center haben drei Wissenschaftler 2016 einen Beweis für ein kombinatorisches Problem im Zusammenhang mit pythagoreischen Zahlentripeln ausgerechnet, der im DRAT-Format 200 Terabyte Speicher benötigt.
* LineFeed arbeitet für die Agentur Content.de.
Jetzt Newsletter abonnieren Täglich die wichtigsten Infos zu RZ- und Server-Technik Geschäftliche E-Mail Bitte geben Sie eine gültige E-Mailadresse ein. Abonnieren Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Aufklappen für Details zu Ihrer Einwilligung Stand vom 30.10.2020 Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung. Einwilligung in die Verwendung von Daten zu Werbezwecken Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden. Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden. Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Recht auf Widerruf Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://support.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
(ID:44572142)
19 der besten Computer und Supercomputer, die es auf der Welt gibt
Diese Seite wurde mit Hilfe von KI und maschinellem Lernen übersetzt, bevor sie von einem menschlichen Redakteur in Ihrer Muttersprache überprüft wurde.
(Pocket-lint) - Supercomputer, die Ungetüme der Technikwelt und Erfindungen des Menschen, die oft gezielt eingesetzt werden, um unglaubliche Probleme zu lösen, die Sterbliche allein nicht ergründen könnten.
Von der Untersuchung des Zerfalls von Nuklearmaterialien bis hin zur Vorhersage der Entwicklung unseres Planeten aufgrund der globalen Erwärmung und allem, was dazwischen liegt, übernehmen diese Maschinen die Verarbeitung und das Knacken von Zahlen. Sie berechnen in wenigen Augenblicken, wofür Normalsterbliche Jahrzehnte oder mehr brauchen würden, um sie zu entschlüsseln.
Der Earth Simulator war zwischen 2002 und 2004 der schnellste Supercomputer der Welt. Er wurde in Japan im Rahmen des"Earth Simulator Project" entwickelt, mit dem die Auswirkungen der globalen Erwärmung auf unseren Planeten modelliert werden sollten.
Der ursprüngliche Earth Simulator-Supercomputer kostete die Regierung 60 Milliarden Yen, war aber mit 5120 Prozessoren und 10 Terabyte Speicher für die damalige Zeit ein wirklich beeindruckendes Stück Technologie.
Er wurde später durch den Earth Simulator 2 im Jahr 2009 und den Earth Simulator 3 im Jahr 2015 ersetzt.
Der ursprüngliche Earth Simulator-Supercomputer wurde 2004 von IBMs Prototyp Blue Gene/L in seiner Leistung übertroffen.
Blue Gene wurde entwickelt, um Betriebsgeschwindigkeiten im PetaFLOP-Bereich zu erreichen und gleichzeitig den Stromverbrauch niedrig zu halten. Infolgedessen zählen die verschiedenen Blue Gene-Systeme zu den leistungsstärksten und energieeffizientesten Supercomputern der Welt.
Die Blue Gene-Supercomputer wurden so genannt, weil sie für die Analyse und das Verständnis der Proteinfaltung und der Genentwicklung entwickelt wurden. Am bekanntesten waren sie jedoch für ihre Kraft und Leistung: Sie erreichten eine Spitzenleistung von 596 TFLOPS. Im Jahr 2008 wurden sie dann von IBMs Cell-basiertem Roadrunner-System überholt.
ENIAC war einer der allerersten Supercomputer. Er wurde ursprünglich von der US-Armee entwickelt, um Artillerieabschusspläne zu berechnen und sogar die Möglichkeit thermonuklearer Waffen zu untersuchen. Es hieß, er könne in nur 30 Sekunden berechnen, wofür ein Mensch 20 Stunden bräuchte.
Der Bau dieses Supercomputers kostete rund 500.000 Dollar (über 6 Millionen Dollar in heutigem Geld).
Der Electronic Numerical Integrator and Computer wurde später zur Berechnung von 2.037 Stellen von Pi verwendet und war damit der erste Computer, dem dies gelang. Selbst diese Berechnung dauerte 70 Stunden.
Im Jahr 2018 wurde der chinesische Supercomputer Sunway TaihuLight als der drittschnellste Supercomputer der Welt gelistet. Dieses System verfügte über fast 41.000 Prozessoren mit jeweils 256 Rechenkernen, also insgesamt über 10 Millionen Rechenkerne.
Dieser Supercomputer war auch dafür bekannt, dass er unglaubliche 93 Billiarden Berechnungen pro Sekunde durchführen konnte. Die IT war für alle Arten von Forschung konzipiert, von der Wettervorhersage über Industriedesign und Biowissenschaften bis hin zu allem, was dazwischen liegt.
Die Difference Engine wurde 1822 von Charles Babbage entwickelt. Dies war im Wesentlichen der erste Computer oder zumindest einer von ihnen. Sie konnte zur Berechnung mathematischer Funktionen verwendet werden, kostete aber leider einen für die damalige Zeit astronomischen Betrag.
Diese Maschine war nicht nur wegen ihrer Fähigkeiten beeindruckend, sondern auch wegen der Maschinen, die sie in den folgenden Jahren und Jahrzehnten inspirierte.
Der IBM-Supercomputer Roadrunner war ein 100 Millionen Dollar teures System, das am Los Alamos National Laboratory in New Mexico, USA, gebaut wurde.
Im Jahr 2008 wurde er zu einem der schnellsten Supercomputer der Welt und erreichte eine Spitzenleistung von 1,456 petaFLOPS.
Obwohl der Roadrunner 296 Serverschränke beansprucht und eine Fläche von 6.000 Quadratmetern einnimmt, war er zu diesem Zeitpunkt der viert-effizienteste Supercomputer.
Das System wurde eingesetzt, um den Zerfall von US-Atomwaffen zu analysieren und zu untersuchen, ob das Kernmaterial in den folgenden Jahren sicher sein würde.
Summit ist einer der jüngsten und leistungsfähigsten Supercomputer, die von Menschenhand gebaut wurden. Ein weiteres unglaubliches, von IBM gebautes System, das dieses Mal im Oak Ridge National Laboratory eingesetzt und vom US-Energieministerium gefördert wird.
Zwischen 2018 und Juni 2020 erreichte Summit (auch bekannt als OLCF-4) den Rekord als schnellster Supercomputer der Welt und erreichte Benchmark-Ergebnisse von 148,6 petaFLOPS. Summit war auch der erste Supercomputer, der Exaflop-Geschwindigkeiten (eine Quintillion Operationen pro Sekunde) erreichte.
Summit verfügt über 9.216 22-Core-CPUs und 27.648 Nvidia Tesla V100-GPUs, die in allen möglichen komplexen Forschungsbereichen eingesetzt werden, von der Erdbebensimulation über die Simulation extremer Wetterbedingungen bis hin zur Vorhersage der Lebensdauer von Neutrinos in der Physik.
Der Sierra ist ein weiterer Supercomputer, der von IBM für die US-Regierung entwickelt wurde. Wie Summit verfügt auch Sierra mit 1.572.480 Rechenkernen und einer Spitzenleistung von 125 petaFLOPS über eine enorme Rechenleistung.
Wie der IBM Roadrunner wird auch dieser Supercomputer zur Verwaltung des US-Atomwaffenbestands eingesetzt, um die Sicherheit dieser Waffen zu gewährleisten.
Tianhe-2 ist ein weiterer leistungsstarker Supercomputer, der von den Chinesen gebaut wurde. Er befindet sich im National Supercomputer Center in Guangzhou, China, und kostete unglaubliche 2,4 Milliarden Yuan (390 Millionen US-Dollar).
Ein Team von 1.300 Personen war an der Entwicklung beteiligt, und die harte Arbeit hat sich gelohnt: Tianhe-2 wurde zwischen 2013 und 2015 als schnellster Supercomputer der Welt anerkannt.
Das System verfügt über fast fünf Millionen Prozessorkerne und 1.375 TiB Speicher und ist damit in der Lage, über 33 Billiarden Berechnungen pro Sekunde durchzuführen.
Der CDC 6600 wurde 1964 für 2.370.000 Dollar gebaut. Diese Maschine gilt als der erste Supercomputer der Welt, der drei MegaFLOPS schaffte und damit dreimal so schnell war wie der vorherige Rekordhalter.
Damals war dieses System so erfolgreich, dass es zu einem "Muss" für alle wurde, die Spitzenforschung betrieben, und in der Folge wurden über 100 davon gebaut.
Der Cray-1 kam fast ein Jahrzehnt nach dem CDC 6600 auf den Markt, wurde aber schnell zu einem der erfolgreichsten Supercomputer der damaligen Zeit. Das lag an seinem einzigartigen Design, das nicht nur eine ungewöhnliche Form, sondern auch die erste Implementierung eines Vektorprozessors beinhaltete.
Es handelte sich um ein Supercomputersystem mit einem 64-Bit-Prozessor, der mit 80 MHz und 8 Megabyte Arbeitsspeicher lief, was eine Spitzenleistung von 250 Megaflops ermöglichte. Ein bedeutender Fortschritt im Vergleich zum CDC 6600, der nur ein Jahrzehnt zuvor entwickelt worden war.
Der Supercomputer Frontera ist der schnellste universitäre Supercomputer der Welt. Im Jahr 2019 erreichte er 23,5 PetaFLOPS und war damit in der Lage, in nur einer Sekunde zu berechnen, wofür ein durchschnittlicher Mensch eine Milliarde Jahre bräuchte.
Das System wurde entwickelt, um Teams an der Universität von Texas bei der Lösung äußerst schwieriger Probleme zu unterstützen, die von Molekulardynamik über Klimasimulationen bis hin zu Krebsstudien reichen.
Trinity ist ein weiterer Supercomputer, der für die Analyse der Wirksamkeit von Atomwaffen entwickelt wurde.
Mit 979.072 Rechenkernen und einer Leistung von 20,2 petaFLOPS ist er in der Lage, alle möglichen Daten zu simulieren, um die Sicherheit des Waffenarsenals des Landes zu gewährleisten.
Im Jahr 2019 baute IBM Pangea III, ein System, das der weltweit leistungsstärkste kommerzielle Supercomputer sein soll. Er wurde für Total, ein weltweit tätiges Energieunternehmen, entwickelt.
Bei Pangea III handelte es sich um einen KI-optimierten Supercomputer mit einer leistungsstarken Struktur, der jedoch deutlich energieeffizienter als frühere Modelle sein sollte.
Das System wurde zur Unterstützung der seismischen Datenerfassung durch Geowissenschaftler entwickelt, um die Lage von Öl- und Gasvorkommen zu ermitteln. Pangea III hat eine Rechenleistung von 25 Petaflops (das entspricht etwa 130.000 Laptops) und belegte damals Platz 11 in der Rangliste der besten Supercomputer.
Die Connection Machine 5 ist aus mehreren Gründen interessant, nicht nur, weil sie ein wunderschön aussehender Supercomputer ist, sondern auch, weil sie wahrscheinlich das einzige System auf unserer Liste ist, das in einem Hollywood-Blockbuster zu sehen war. Richtig, dieser Supercomputer tauchte am Set von Jurassic Park auf, wo er sich als zentraler Kontrollcomputer des Parks ausgab.
Die Connection Machine 5 wurde 1991 angekündigt und 1993 zum schnellsten Computer der Welt erklärt. Er verfügte über 1024 Kerne mit einer Spitzenleistung von 131,0 GFLOPS.
In den Anfangsjahren soll er auch von der National Security Agency verwendet worden sein.
HPC4 ist ein spanischer Supercomputer, der besonders dafür bekannt ist, dass er energieeffizient ist und dennoch über eine beachtliche Rechenleistung verfügt, die 253.600 Prozessorkerne und 304.320 GB Speicher umfasst.
Im Jahr 2018 wurde der aktualisierte Supercomputer HPC5 mit HPC4 kombiniert, um eine kombinierte Rechenkapazität von 70 petaFlops zu erreichen. Das bedeutet, dass dieses System in der Lage ist, 70 Millionen Milliarden mathematische Operationen in einer einzigen Sekunde durchzuführen.
Selene ist der Supercomputer von Nvidia, der auf der DGX SuperPOD Architektur basiert. Es handelt sich um einen von Nvidia betriebenen Supercomputer mit 2.240 NVIDIA A100-GPUs, 560 CPUs und einer beeindruckenden Bilanz, zu der auch gehört, dass er der zweit-effizienteste Supercomputer auf dem Markt ist.
Selene ist besonders beeindruckend, wenn man bedenkt, dass er in nur drei Wochen gebaut wurde. Uns gefällt auch, dass er einen eigenen Roboter als Betreuer hat und über Slack mit menschlichen Bedienern kommunizieren kann.
Perlmutter wurde Mitte des Jahres 2021 vorgestellt. Ein leistungsstarker GPU-beschleunigter Supercomputer, der von HPE in Zusammenarbeit mit Nvidia und AMD gebaut wurde. Dieser Supercomputer nutzt die Leistung von 6 159 Nvidia A100 GPUs und 1 500 AMD Milan CPUs, um die Auswirkungen der dunklen Energie auf die Expansion des Universums zu analysieren.
Der Supercomputer hilft im Wesentlichen bei der Kartierung des sichtbaren Universums und ist in der Lage, die vom Dark Energy Spectroscopic Instrument gelieferten Daten zu verarbeiten. Diese Karte wird sich über 11 Milliarden Lichtjahre erstrecken und einen beeindruckenden Überblick über unser Universum geben.
Im Mai 2022 stellte Nvidia seinen Supercomputer Venado vor, den ersten, der den Grace-Hopper-Superchip des Computerriesen verwendet.
Er wurde in Zusammenarbeit mit Hewlett Packard Enterprise am Los Alamos National Laboratory gebaut und soll in der Lage sein, Laborarbeiten dreimal schneller auszuführen als ältere GPUs im Labor.
Venado soll eine KI-Leistung von 10 Exaflops erbringen, wenn er für fortgeschrittene Forschung in den Bereichen Materialwissenschaft und erneuerbare Energien eingesetzt wird. Außerdem ist er effizienter und liefert doppelt so viel Leistung pro Watt wie herkömmliche zentrale Recheneinheiten.
Schreiben von Adrian Willings.
7. Wettstreit um den schnellsten Supercomputer
Dieser neue Supercomputer am Leibniz-Rechenzentrum (LRZ) schafft 26,7 Petaflops, also mehr als 26 Billiarden Rechenschritte pro Sekunde. Er ist damit mehr als doppelt so schnell wie Juwels. Allerdings hinkt dieser Vergleich etwas, denn SuperMUC-NG beginnt erst einmal mit Testläufen, während Juwels bereits den Betrieb aufgenommen hat. SuperMUC-NG könnte den Spitzenplatz in Deutschland aber durchaus für einige Zeit halten.
Der SuperMUC-NG geht zunächst in den Testlauf. Voraussichtlich Ende des Jahres wird er seine volle Leistung erreichen, sodass sein Vorgänger, der 6,4 Petaflops schnelle SuperMUC, dann abgeschaltet werden kann. Wie sein Vorgänger wird auch der SuperMUC-NG mit Strom aus hundert Prozent erneuerbaren Energiequellen betrieben und mit warmem Wasser gekühlt. Das senkt die Stromkosten. Unter anderem wird die Abwärme zur Erzeugung von Kaltwasser genutzt, das wiederum der Kühlung von Rechnerteilen dient.
Der neue Rechner soll Forschern verschiedenster Wissenschaftsbereiche aus ganz Europa zur Verfügung stehen. Neben den Gebieten Kosmologie und Astrophysik, Festkörperphysik und Strömungsmechanik wird die Rechenleistung zunehmend in der Medizin, in der Genforschung oder in der Katastrophen- und Umweltforschung gebraucht.
Auch Unternehmen können den Rechner nutzen, wenn die Ergebnisse veröffentlicht werden. Schon mithilfe des SuperMUC gelangen laut Akademie der Wissenschaften einige Durchbrüche. Ein internationales Team konnte berechnen, welches Brustkrebsmedikament bei welcher Patientin wirken wird. Außerdem errechnete der SuperMUC eine Simulation des Meeres-Erdbebens, das 2004 einen verheerenden Tsunami ausgelöst hatte. Auch Simulationen zu Auswirkungen des Klimawandels, zu Regenmengen und Hochwassergefahren in Bayern wurden angestellt.
Tagged:
Leave a Reply
neueste Artikel
- How to Check The Serial Number...
Buying a huawei watch can sometimes be a dream come true, especially if you have had b... - Synology DiskStation Manager
Der DiskStation Manager (DSM) ist das Betriebssystem für die Network Attached Storage-Systeme (NAS... - SAN vs. NAS: Unterschied ...
„Big Data“ lässt grüßen! Laut einer Studie des Festplatten-Giganten Seagate soll sich der weltweit... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Ninite – das wohl nützlic...
System-Tools gibt es wie Sand am Meer. Die meisten versprechen viel und halten wenig. Wirklich gut... - Digitalisierung anpacken:...
Die Corona-Pandemie hat ohne Zweifel einen starken Beitrag zur Digitalisierung kleinerer und mitte...
populäre Artikel
- How to Check The Serial Number...
Buying a huawei watch can sometimes be a dream come true, especially if you have had b... - Synology DiskStation Manager
Der DiskStation Manager (DSM) ist das Betriebssystem für die Network Attached Storage-Systeme (NAS... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Einrichten einer lokalen...
Dieser Artikel richtet sich an alle Hobby-Webentwickler, die ihre erstellten Web-Projekte auf dem... - Digitalisierung anpacken:...
Die Corona-Pandemie hat ohne Zweifel einen starken Beitrag zur Digitalisierung kleinerer und mitte...
Lieblingsartikel
- SAN vs. NAS: Unterschied ...
„Big Data“ lässt grüßen! Laut einer Studie des Festplatten-Giganten Seagate soll sich der weltweit... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Ninite – das wohl nützlic...
System-Tools gibt es wie Sand am Meer. Die meisten versprechen viel und halten wenig. Wirklich gut... - Einrichten einer lokalen...
Dieser Artikel richtet sich an alle Hobby-Webentwickler, die ihre erstellten Web-Projekte auf dem...