Infrastruktur von Lenovo und Nvidia: Schwedischer Supercomputer für die Forschung
Posted by Julia Werner •
Jülich: Modulare Supercomputing-Architektur
Experte für maschinelles Lernen: das Data-Analytics-Modul (DAM)
Die Hauptaufgabe des DAM besteht darin, Datenanalyseaufgaben so schnell wie möglich auszuführen, wodurch sich das Modul für maschinelles Lernen, künstliche Intelligenz und Deep Learning ideal eignet. Obwohl es sich um ein spezialisiertes Modul handelt, haben die Entwickler auf kostspielige speziell entwickelte Komponenten verzichtet und in erster Linie Standardprodukte wie Grafik- und FPGA-Karten eingesetzt. Ein wesentlicher Bestandteil ist die Intel Optane Technik: Über PCIe angeschlossene SSDs bieten schnellen Datenspeicher und jeder Knoten verfügt neben 384 GB DDR4-RAM über bis zu 3 TB persistenten Intel® Optane™ Speicher (PMem). Persistenter Intel Optane Speicher lässt sich in zwei Modi einsetzen: als nicht-flüchtiger, schneller Byte-adressierbarer Arbeitsspeicher (App-Direct-Modus) oder als Erweiterung des installierten DRAM um flüchtigen, transparenten Speicher (Memory-Modus), womit Anwendungen bis zu 3 TB RAM mit beinahe an DRAM heranreichender Leistung zur Verfügung stehen. Persistenter Intel Optane Speicher bietet extrem geringe Latenz und ein sehr gutes Verhältnis zwischen Preis und Kapazität, wodurch der Speicher die Anforderungen in den Bereichen HPC und HPDA optimal erfüllt.
Darüber hinaus kann jeder Knoten mit zwei 1,5 TB Intel® Optane™ SSDs der für Rechenzentren ausgelegten Produktreihe ausgestattet werden. Diese sind je nach Anwendung als temporäre USER-Partition, als Checkpoint/Reboot-Memory oder als paralleles Dateisystem BeeOND (BeeGFS on Demand) konfiguriert.
Das DAM besteht aus 16 Knoten, die über jeweils zwei Intel® Xeon® Platinum 8260M Prozessoren (mit je 24 Kernen, 2,4 GHz Taktfrequenz und 35,75 MB L3-Cache) verfügen und über ein 40-GbE-Cluster-Fabric angeschlossen sind. Ein 100-Gbit/s-EXTOLL-Interconnect mit Tourmalet-PCIe-Gen3-Erweiterungskarten bildet den krönenden Abschluss der Hardware. Das DAM wurde speziell für die Ausführung von HPDA-Codes konzipiert, wie beispielsweise unbeaufsichtigtes Clustering (DBSCAN oder KMeans), beaufsichtigtes Clustering mit Support Vector Machines (SVMs) oder Random Forests und natürlich Deep Learning. Ein praktisches Beispiel für diese Art von Anwendung sind die Co-Design-Workloads für Bildanalyse der KU Leuven und der Universität von Island.
Homogene Arbeitsspeicherbereiche für optimale Leistung beim maschinellen Lernen
HPC-Anwendungen lesen und verarbeiten Daten in der Regel sequenziell als große Arrays. Anwendungen für maschinelles Lernen und Datenanalyse nutzen jedoch wahllose Speicherzugriffe. Hierbei werden mehr Operationen auf kleinen Dateneinheiten ausgeführt und es werden kleinere Datentypen verwendet. Aufgrund dieser spezifischen Anforderungen, die von herkömmlicher HPC-Architektur nicht erfüllt werden, ist das DAM extrem wichtig geworden, denn es verfügt über FPGAs, welche den Anforderungen perfekt entsprechen. Ein skalierbares Cluster-System wie das DAM ist eine energieeffiziente Lösung für parallele Anwendungen, da die von einer Aufgabe benötigte Arbeitsspeicherkapazität durch die Zuweisung einer passenden Anzahl von Knoten bereitgestellt werden kann.
Für Aufgaben mit HPDA und ML spielt der I/O-Durchsatz eine wesentlich größere Rolle als für traditionelle Simulationen. Dennoch ist starke Integer-Rechenleistung erforderlich, um von den Optimierungen zu profitieren, die in vielen Algorithmen für maschinelles Lernen eingebaut sind, zum Beispiel im Co-Design-Workload des Partners KU Leuven. Das DAM-Design ermöglicht die effiziente Ausführung arbeitsspeicherintensiver Anwendungen im Bereich der Bioinformatik und des maschinellen Lernens. Für den zeitaufwändigen Modellierungsprozess von HPDA-Anwendungen werden häufig große Datenmengen wiederverwendet. Mit persistentem Speicher wie Intel Optane können diese Datenmengen, auf die wiederholt zugegriffen wird, deutlich schneller bereitgestellt werden als mit herkömmlicher Technik für Datenspeicher oder flüchtigen Arbeitsspeicher.
Die im DAM verwendeten Intel FPGA-PAC-Karten D5005 (PCIe Gen3 x16) sind frei programmierbar und stellen die einfachste Möglichkeit dar, bestehende ML-Frameworks zu verwenden. Für Intel FPGA-PACs können Entwickler aus einer Vielzahl bereits optimierter Bibliotheken und Frameworks wählen. Da eine große Menge bestehender und getesteter Software verfügbar ist, kann die Implementierung von Workloads auf dem DAM schneller erfolgen. Die Notwendigkeit individueller Anpassungen und Code-Entwicklung ist auf ein Minimum reduziert. Bei Bedarf können Nutzer dennoch angepassten Code erstellen, wenn beispielsweise bestehende Software eine Anwendung noch nicht abgedeckt. Die Auswahl beginnt bei höheren Programmiersprachen wie OpenCL und Data Parallel C++ (Teil des Intel® oneAPI), kann aber auch eine extrem Hardware-orientierte Sprache wie VHDL umfassen. Darüber hinaus nutzen die Intel FPGA-PACs den Intel® Acceleration Stack für die Intel Xeon CPU, wobei FPGAs optimierte und vereinfachte Hardware-Schnittstellen und Software-Programmierschnittstellen, kurz APIs (Application Programming Interfaces), bereitstellen, um Entwicklern Zeit zu sparen, damit sie sich auf den eigentlichen Mehrwert ihrer Lösung konzentrieren können. Die für das Testen der modularen Supercomputing-Architektur verwendeten Workloads nutzen bereits beide Ansätze – bestehende Frameworks und speziell angepasste Software.
Bisherige Ergebnisse und nächste Schritte
Obwohl das Projekt noch nicht abgeschlossen ist, zeigen die gesammelten Erfahrungen bereits großes Potenzial für künftige Anwendungen und für andere institutionelle sowie private und betriebliche Forschungseinrichtungen. Die Projektpartner erwarten für geeignete Workloads eine signifikante Leistungssteigerung gegenüber monolithischen Systemen. Dies gilt für Workloads, die von der Berechnung auf spezialisierten Modulen profitieren. Alle beteiligten Partner werden vollen Zugang zu allen Messungen und Testergebnissen haben, sodass jede Einrichtung individuelle Varianten der Architektur testen und optimieren kann. Das Endergebnis sollten vorgefertigte Software-Pakete sein, die bereits die meisten Anpassungen für bestimmte Workloads enthalten und noch schneller implementiert werden können.
Das JSC wird seine zukünftigen Beschaffungen nach dem DEEP-EST-Konzept ausrichten. Bereits Mitte 2020 ist die Installation eines Booster-Moduls für das Produktionssystem JUWELS geplant. Selbst die aktuelle DEEP-EST-Test-Plattform hat Anwender von ihrer Eignung für ein sehr gutes universelles Blueprint-Design überzeugt. Während Wissenschaftler der beteiligten Partneruniversitäten und -institute die Plattform noch evaluieren, zeigt das breite Spektrum von Anwendungen und deren Tauglichkeit, dass die modulare Supercomputer-Architektur auf dem richtigen Weg zu einer brillanten HPC-Zukunft ist.
Effiziente Unterstützung vieler wissenschaftlicher Anwendungsbereiche
Eine der Hauptanforderungen an die modulare Supercomputer-Architektur (MSA) ist die effiziente Unterstützung möglichst vieler wissenschaftlicher Anwendungsbereiche. Mehrere wichtige Partner nutzen den Prototypen am Supercomputing Centre in Jülich bereits für Referenzprojekte:
Radioastronomie, Astron
Weltweit betrachten große Antennenarrays das Universum über Radiowellen. Die von den einzelnen Antennen empfangenen Daten müssen zusammengeführt und analysiert werden. Die Verarbeitung erfolgt sequenziell. Zwei dieser Schritte sind besonders intensiv: die Zusammenführung der Daten (Correlator) und die Berechnung des Bildes (Imager). Correlator und Imager wurden auf mehrere Plattformen portiert (GPUs, Intel Xeon CPUs, DSP und FPGA). Mithilfe des MSA-Prototyps können die Forscher die für jede Aufgabe beste Plattform und den energieeffizientesten Ansatz ermitteln.
Weltraumwetter, Katholieke Universiteit Leuven
Die Sonne ist eine riesige Plasmakugel, eine Ansammlung von Molekülen, die so heiß sind, dass Elektronen von Atomkernen getrennt werden. Diese elektrisch aufgeladenen Teilchen sind in den starken Magnetfeldern unseres Sterns gefangen. Die Magnetfelder dehnen sich allmählich in das Sonnensystem aus und tragen das Plasma nach außen. Wenn sie auf der Sonnenoberfläche zu stark werden, können sie riesige magnetische Eruptionen erzeugen, sogenannte Flares. Magnetische Felder und Plasmaeruptionen können Störungen in elektronischen Geräten verursachen und Satelliten in ihrer Funktion beeinträchtigen. Mit dem neuen Simulationsmodell versucht die Universität Leuven, die Auswirkungen der Sonnenaktivität auf unseren Planeten vorherzusagen. Ein auf dem DAM laufender ML-Code wird verwendet, um die Sonne und die Erde zu verbinden. Anschließend wird ein traditioneller HPC-Code, der auf den anderen Modulen läuft, eingesetzt, um die Plasmaumgebung der Erde zu studieren.
Neurowissenschaften, Universität für Umwelt- und Biowissenschaften, Ås (Norwegen)
Mit der Software NEST werden neuronale Netzwerkmodelle simuliert, die Netzwerke auf der Ebene vereinfachter Neuronen und Synapsen darstellen, welche über typische elektrische Impulse, sogenannte Spikes, interagieren. Diese Simulationen sind für ein breites Spektrum von Forschungsthemen nützlich, von neuen Lernparadigmen für die Neurorobotik über Modelle von Tieren und schließlich sogar das menschliche Gehirn. NEST selbst schöpft die Möglichkeiten herkömmlicher Supercomputer-Architekturen sehr gut aus, hinterlässt den Wissenschaftlern jedoch enorme Mengen an Ausgabedaten, die weiterverarbeitet und analysiert werden müssen. Mit dem MSA können die von NEST auf dem Rechenmodul generierten Daten direkt in das auf dem DAM laufende statistische Analysetool Elephant eingespeist werden, um aus den Rohdaten relevante Signale zu extrahieren, während eine umfangreiche Gehirnsimulation ausgeführt wird.
Hochenergiephysik, CERN Genf
Der Large Hadron Collider (LHC) des CERN ist der weltweit größte und leistungsstärkste Teilchenbeschleuniger. Teilchen werden beinahe auf Lichtgeschwindigkeit beschleunigt und dann zur Kollision gebracht, wobei riesige Datenmengen generiert werden. Kollisionsereignisse werden anhand der Daten riesiger Detektoren rekonstruiert. Das DAM hilft bei der Zuordnung der entsprechenden Energien zu den neu entstandenen Teilchen und bei der Rekonstruktion der Kollision, indem alle einzelnen Datenpunkte kombiniert werden. Diese Aufgabe ist perfekt für das DAM geeignet, da es große Datenmengen ohne langwierige Einrichtungs- und Vorformatierungsprozesse verarbeiten kann.
Datenanalyse in der Geowissenschaft, Universität Island
Die Fernerkundung, beispielsweise über Satellitensensoren oder laserbasiertes LiDAR (Light Detection and Ranging), wird in vielen Bereichen eingesetzt. Einer davon ist die Geowissenschaft. Diese wissenschaftliche Disziplin beobachtet die Erde hinsichtlich der Landoberfläche, um beispielsweise Umweltveränderungen aufzuzeigen. Maschinelles Lernen wird eingesetzt, um die Klassifizierung der Landoberfläche anhand von Satellitenbildern zu automatisieren und um LiDAR-Punktwolken zu gruppieren und so Objekte zu trennen. Das Training von neuronalen Netzwerken und Support Vector Machines profitiert von den schnellen und energieeffizienten Beschleunigern und dem riesigen Arbeitsspeicher des DAM.
Highlights des Lösungsansatzes
Herausforderung Exascale
Herausforderung Exascale
Auf der TOP500-Liste der schnellsten Supercomputer der Welt steht seit Mai 2022 erstmals ein System der Exascale-Klasse. Auch am Forschungszentrum Jülich arbeitet man intensiv an neuen Technologien, die einen solchen Sprung ermöglichen. Im Interview erläutern Prof. Thomas Lippert und Prof. Estela Suarez vom Jülich Supercomputing Centre, welche Herausforderungen ein solches System mit sich bringt.
Jülich, 30. Mai 2022 – Es ist so weit. Nachdem es in den letzten beiden Jahren immer wieder zu Verzögerungen kam, überschreitet nun erstmals ein Superrechner offiziell die Exascale-Marke. Dies geht aus der aktuellen TOP500-Liste der schnellsten Rechner der Welt hervor, die heute auf der Supercomputing-Konferenz ISC in Hamburg veröffentlicht wurde. Der Superrechner Frontier des Oak Ridge National Laboratory in den USA ist demnach der erste Superrechner, der mehr als 10 hoch 18 Rechenoperationen mit Gleitkommazahlen ausführen kann. Der Bau eines solchen Superrechners der Exascale-Klasse gilt seit vielen Jahren als nächster großer Schritt im Höchstleistungsrechnen.
Prof. Dr. Dr. Thomas Lippert, Leiter des Jülich Supercomputing Centre (JSC), und Prof. Dr. Estela Suarez vom JSC, die die europäischen DEEP-Projekte zu einem Exascale-fähigen Supercomputer-Ökosystem koordiniert, sprechen über den aktuellen Stand der Entwicklungen.
Prof. Dr. Dr. Thomas Lippert, Leiter des Jülich Supercomputing Centre (JSC) Copyright: Forschungszentrum Jülich / Sascha Kreklau
Der Bau eines Exascale-Rechners gilt als gigantische Herausforderung. Welche Schwierigkeiten gibt es da?
Thomas Lippert: Es gibt hunderte Schritte, die man auf verschiedenen Ebenen machen muss, um diesen einen großen Schritt in Richtung Exascale zu gehen. Viele Schwierigkeiten hängen damit zusammen, dass bestimmte Skalierungsgesetze wie Moore’s Law seit etwa 2005 nicht mehr so gelten wie die 20 Jahre zuvor. Die Performance der Prozessoren hat sich früher beispielsweise alle 10 Jahre um das Hundertfache verbessert. Bei Supercomputern hat man zudem noch andere Freiheitsgrade ausgenutzt und am Ende eine tausendfache Steigerung hinbekommen. Diese grundlegende Steigerung bei den Prozessoren tritt heute aus verschiedenen Gründen nicht mehr ein. Damit wird es sehr viel schwieriger, einen substanziellen Schritt im Supercomputing zu machen.
Ein Problem ist der Energieverbrauch und die Wärmeentwicklung: In einem Rack, also einem Schrank, steckt heute eine elektrische Leistung von 150 Kilowatt. Schon die Leistung eines einzelnen Racks ist also 10- bis 15-mal so hoch wie die einer normalen Heizungsanlage in einem Einfamilienhaus. Die Wärme muss man irgendwie abführen, sonst verdampft das System innerhalb von Minuten. Vor 10 Jahren waren die Superrechner noch luftgekühlt. Aber heutzutage nutzt man andere, effizientere Lösungen, nämlich Warmwasser. Die Technik verbraucht weniger Energie und ermöglicht es, die erzeugte Wärme für die Gebäudeheizung zu nutzen.
Im Hinblick auf Exascale stellen sich aber noch viele andere grundsätzliche Fragen: Wie beherrscht man so viele Prozessoren und Komponenten gleichzeitig? Und wie kriegt man das Ganze administriert? Auf 10.000 Maschinen können wir ein Softwareupdate nicht mehr händisch aufspielen. Es braucht eine orchestrierte Software, um ein System komplett zu administrieren.
Für welche Anwendungen wird ein Exascale-Rechner benötigt?
Thomas Lippert: Die wissenschaftlichen Fragestellungen sind äußerst vielfältig. Die Masse der Simulationsanwendungen ist heute immer ein Kompromiss zwischen der verfügbaren Rechenleistung und der Größe des Systems, das man simuliert. Klimasimulationen erreichen beispielsweise auf einem Petascale-Rechner eine Auflösung von 10 Kilometern. Was man aber will, ist eine Auflösung von einem Kilometer. Und dann sind da noch Hotspots, die man sehr fein auflösen muss, um bestimmte Phänomene mitzunehmen, die sehr kleinräumig oder kombiniert auftreten. Das geht nur, wenn die Rechenleistung der Maschine entsprechend höher ist.
„Unsere Philosophie ist es, immer besser zu werden, immer größere und komplexere Probleme zu simulieren, sodass am Ende ein immer realistischeres Bild der Welt entsteht.“
Der Exascale-Rechner ist hier der nächste Schritt, aber noch lange nicht das Ende. Man wird in voraussehbarer Zeit immer die maximale Systemleistung nutzen. Je höher diese ist, desto verlässlicher ist die Aussage. Das gilt speziell für Wetter- und Klimasimulationen und die Ökosystem-Forschung, aber auch für jedes andere komplexe System, beispielsweise für Molekulardynamik-Simulationen und die Wirkstoffforschung.
Prof. Dr. Estela Suarez vom JSC koordiniert die europäischen DEEP-Projekte zur Entwicklung eines europäisches Exascale-Ökosystems Copyright: Forschungszentrum Jülich / Sascha Kreklau
Estela Suarez: Neben der Genauigkeit ist es auch immer die Frage, welche Aspekte man berücksichtigen kann. In der Klimaforschung ist neben der Atmosphäre auch der Zustand der Ozeane und der Erdoberfläche von Bedeutung. Die alle rechnerisch miteinander zu verbinden ist ungeheuer komplex. Ähnliches gilt in anderen Bereichen. Beispielsweise in den Neurowissenschaften möchte man das ganze Gehirn des Menschen simulieren. Um bestimmte Krankheiten verstehen zu können, möchte man aber gleichzeitig einzelne Nervenzellen betrachten, mitsamt den verschiedenen Funktionen, die sie erfüllen. Dafür benötigt man eine Rechenleistung, die höher ist als die, die wir heute haben.
Es wird immer schwieriger, substanzielle Fortschritte im Supercomputing zu erzielen, wie Sie anfangs erwähnt haben. Welche Ansätze gibt es, um die Rechenleistung weiterhin zu steigern?
Estela Suarez: Man hat ja früher zunächst versucht, die Taktfrequenz der Prozessoren stetig zu erhöhen. Das hat irgendwann nicht mehr funktioniert, weil der Energieverbrauch zu hoch wurde. Daraufhin fing man an, mehr Rechenkerne pro Einheit zu verbauen. Diese stark zunehmende Parallelität kann man auch bei normalen Computern und mobilen Geräten beobachten. Danach versuchte man, neben CPUs auch andere Recheneinheiten zu nutzen, zum Beispiel Grafikkarten. Diese wurden ursprünglich für andere Zwecke entwickelt, etwa für die Spieleindustrie. Mittlerweile werden sie auch in Superrechnern eingesetzt, weil sie viel Rechenleistung anbieten und vergleichsweise wenig Energie verbrauchen.
Dieser Herangehensweise wird auch in Zukunft eine wichtige Rolle spielen. Das heißt, man schaut sich nach Technologien um, die ursprünglich nicht unbedingt für Superrechner gedacht waren, aber dort eingesetzt werden können. Als nächstes werden möglicherweise Quantencomputer und neuromorphe Chips, die eher dem menschlichen Gehirn nachempfunden sind, integriert, wenn sie auf dem notwendigen Entwicklungsstand sind. In Jülich verfolgen wir dafür den Ansatz einer modularen Supercomputer-Architektur. Diese macht es möglich, unterschiedliche Cluster mit jeweils unterschiedlichen Hardwareeigenschaften zu definieren und miteinander zu verbinden. Anwender können dann gleichzeitig auf all diese Clustermodule zugreifen, je nachdem, was ihr Code braucht.
Beim Thema Exascale geht es aber nicht nur um Hardware, mindestens genauso wichtig ist die Software. Die Systeme werden immer komplexer. Die Software muss mit der wachsenden Heterogenität umgehen können und die Systeme den End-Anwendern zugänglich machen. Es geht darum, die entsprechenden Softwarepakete weiterzuentwickeln, neue Schnittstellen bereitzustellen und Anwendungscodes auf zukünftige Exascale-Maschinen vorzubereiten. Daran arbeiten wir unter anderem im aktuell laufenden Projekt „DEEP-SEA“.
Der Supercomputer JUWELS am Forschungszentrum Jülich war bei Inbetriebnahme der schnellste Superrechner Europas und ist bereits ein Prototyp für einen möglichen europäischen Exascale-Rechner in Jülich. Copyright: Forschungszentrum Jülich / Wilhelm-Peter Schneider
Wie weit ist das Vorhaben, einen Exascale-Rechner nach Jülich zu bringen?
Thomas Lippert: Aktueller Stand ist, dass wir uns über das Gauss Centre for Supercomputing, das die drei Bundeshöchstleistungsrechenzentren HLRS (Höchstleistungsrechenzentrum der Universität Stuttgart), JSC (Jülich Supercomputing Centre) und LRZ (Leibniz Rechenzentrum, Garching bei München) vereint, auf den entsprechenden Call der Europäischen Union im Rahmen von EuroHPC beworben haben. Bei diesem Call geht es um einen europäischen Exascale-Rechner, der auf europäischer Technologie basiert und 2024 in Betrieb gehen soll.
Ein solches System ist natürlich eine große Herausforderung. Aber man muss bedenken: Das sind Maschinen, von denen die gesamte Gesellschaft profitiert. Man muss sich klarmachen, dass wir in 20 bis 30 Jahren sehr viele solcher Maschinen haben werden, die für uns in dieser Welt ganz wesentliche Leistungen übernehmen werden: von der Optimierung ganzer Städte bezüglich des Verkehrs und der Sicherheit, bis hin zum Monitoring unserer Umwelt. Wir sind auf dem Weg zum autonomen Fahren, zum digitalen Zwilling. All diese Dinge müssen irgendwo gerechnet werden. Die Technologien, die wir heute entwickeln, werden dafür eine entscheidende Rolle spielen.
Infrastruktur von Lenovo und Nvidia: Schwedischer Supercomputer für die Forschung
Die Chalmers University of Technology im schwedischen Göteborg hat Lenovo und Nvidia ausgewählt, um die nationale Supercomputer-Infrastruktur Alvis auszubauen. Damit soll Forschung mittels Künstlicher Intelligenz und maschinellem Lernen vorangetrieben werden.
Lenovo hat bekanntgegeben, dass die Chalmers University of Technology in Göteborg die technische Infrastruktur von Lenovo und Nvidia zum Betrieb ihres groß angelegten Supercomputer-Projekts Alvis nutzt. Im Rahmen des Projekts wurde ein Cluster-Computing-System für die Forschung im Bereich der Künstlichen Intelligenz (KI) und des maschinellen Lernens (ML) bereitgestellt und implementiert. Dabei handelt es sich um den größten HPC-Cluster (High Performance Computing) von Lenovo für KI und ML in der Region Europa, Naher Osten und Afrika.
Alvis (altnordisch für „allwissend”) ist eine nationale Supercomputer-Infrastruktur innerhalb der Swedish National Infrastructure for Computing (SNIC). Er wurde zunächst im Jahr 2020 in Betrieb genommen und hat seitdem eine Kapazität erreicht, mit der größere Forschungsaufgaben in breiterem Maßstab gelöst werden können. Das von der Knut- und Alice-Wallenberg-Stiftung finanzierte Computersystem wird von Lenovo bereitgestellt und befindet sich an der Chalmers University of Technology in Göteborg, wo auch die größte Forschungsinitiative der EU, das Graphene Flagship Project, beheimatet ist.
Das Kooperationsprojekt ermöglicht es jedem schwedischen Forscher, der seine mathematischen Berechnungen und Modelle verbessern muss, die Dienste von Alvis über das Anwendungssystem des SNIC zu nutzen, unabhängig vom Forschungsgebiet. Dies unterstützt sowohl Forscher, die bereits maschinelles Lernen zur Analyse komplexer Probleme nutzen als auch Forscher, die den Einsatz von maschinellem Lernen zur Problemlösung in ihrem jeweiligen Bereich untersuchen wollen. Dies kann zu bahnbrechenden akademischen Erkenntnissen in Bereichen wie Quantencomputing und datengesteuerter Forschung für das Gesundheitswesen und die Wissenschaft führen.
„Das Alvis-Projekt ist ein Paradebeispiel für die Rolle des Supercomputing bei der Lösung der größten Herausforderungen der Menschheit, und Lenovo ist stolz und begeistert, zu diesem Projekt beitragen zu können”, sagt Noam Rosen, EMEA Director, HPC & AI bei der Lenovo Infrastructure Solutions Group. „Unterstützt durch die leistungsfähige Technologie von Lenovo wird Alvis die Forschung vorantreiben und maschinelles Lernen in vielen verschiedenen Bereichen einsetzen, die einen großen Einfluss auf die gesellschaftliche Entwicklung haben, darunter die Umweltforschung und die Entwicklung von Arzneimitteln. Diese Computing-Infrastruktur ist wirklich einzigartig, da sie auf der Grundlage von Architekturen für verschiedene KI- und Machine-Learning-Workloads und auch mit Rücksicht auf Nachhaltigkeit gebaut wurde. Sie trägt durch den Einsatz unserer bahnbrechenden Warmwasserkühlungstechnologie dazu bei, Energie zu sparen und den Kohlenstoffausstoß zu reduzieren.”
„Die erste Pilot-Infrastruktur für Alvis wurde bereits von mehr als 150 Forschungsprojekten an schwedischen Universitäten genutzt. Durch die Vergrößerung und die vollständige Öffnung des Alvis-Systems für alle schwedischen Forscher spielen Chalmers und Lenovo eine wichtige Rolle bei der Bereitstellung eines nationalen HPC-Ökosystems für die künftige Forschung“, erklärt Sverker Holmgren, Direktor von Chalmers e-Infrastructure Commons, dem Betreiber des Alvis-Systems.
Energieeffiziente KI-Infrastruktur
Chalmers hat sich für die Implementierung eines skalierbaren Clusters mit einer Reihe von Lenovo „ThinkSystem“-Servern entschieden, um seinen Nutzern die richtige Mischung aus Nvidia-GPUs zu liefern, wobei Energieeinsparungen und Workload-Balance im Vordergrund stehen. Dazu gehören das Lenovo „ThinkSystem SD650-N V2“, um die Leistung für Nvidia „A100 Tensor Core“-GPUs zu liefern und das Nvidia-zertifizierte „ThinkSystem SR670 V2“ für Nvidia „A40“- und „T4“-GPUs.
„Die Arbeit, die wir mit der Universität Chalmers und ihrem nationalen Supercomputer Alvis leisten, wird den Forschern die Rechenleistung geben, die sie brauchen, um unsere Welt zu simulieren und vorherzusagen", meint Rod Evans, EMEA-Direktor für High Performance Computing bei Nvidia. „Gemeinsam geben wir der wissenschaftlichen Gemeinschaft Werkzeuge an die Hand, mit denen sie die größten Herausforderungen im Supercomputing lösen kann – von der Wettervorhersage bis zur Arzneimittelforschung.“
Die Speicherarchitektur liefert eine neue Ceph-Lösung mit 7,8 Petabyte, die in die bestehende Speicherumgebung bei Chalmers integriert werden soll. Nvidia Quantum 200 Gb/s InfiniBand sorgt bei dem System für niedrigere Latenz und hohen Datendurchsatz sowie intelligente In-Computing-Beschleunigung. Mit dieser Hochgeschwindigkeitsinfrastruktur stehen den Nutzern fast 1.000 Grafikprozessoren, hauptsächlich Nvidia „A100 Tensor Core“, mit über 260.000 Rechenkernen und über 800 TFLOPS Rechenleistung zur Verfügung.
Darüber hinaus nutzt Alvis die Flüssigkeitskühlungstechnologie „Neptune“ von Lenovo, um eine beispiellose Recheneffizienz zu erzielen. Ursprünglich war für das Projekt eine vollständige Luftkühlung vorgesehen, doch Chalmers entschied sich stattdessen für eine Warmwasserkühlung, um die langfristigen Betriebskosten zu senken und ein „grüneres“ KI-Infrastruktursystem zu schaffen. Die Universität geht davon aus, dass dank der Wasserkühlung erhebliche Energieeinsparungen möglich sein werden.
Die HPC-Lösung ist seit Februar 2022 in Produktion und wird im Sommer 2022 voll einsatzfähig sein.
Please enable JavaScript to view the comments powered by Disqus.
Tagged:
Leave a Reply
neueste Artikel
- How to Check The Serial Number...
Buying a huawei watch can sometimes be a dream come true, especially if you have had b... - Synology DiskStation Manager
Der DiskStation Manager (DSM) ist das Betriebssystem für die Network Attached Storage-Systeme (NAS... - SAN vs. NAS: Unterschied ...
„Big Data“ lässt grüßen! Laut einer Studie des Festplatten-Giganten Seagate soll sich der weltweit... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Ninite – das wohl nützlic...
System-Tools gibt es wie Sand am Meer. Die meisten versprechen viel und halten wenig. Wirklich gut... - Digitalisierung anpacken:...
Die Corona-Pandemie hat ohne Zweifel einen starken Beitrag zur Digitalisierung kleinerer und mitte...
populäre Artikel
- How to Check The Serial Number...
Buying a huawei watch can sometimes be a dream come true, especially if you have had b... - Synology DiskStation Manager
Der DiskStation Manager (DSM) ist das Betriebssystem für die Network Attached Storage-Systeme (NAS... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Einrichten einer lokalen...
Dieser Artikel richtet sich an alle Hobby-Webentwickler, die ihre erstellten Web-Projekte auf dem... - Digitalisierung anpacken:...
Die Corona-Pandemie hat ohne Zweifel einen starken Beitrag zur Digitalisierung kleinerer und mitte...
Lieblingsartikel
- SAN vs. NAS: Unterschied ...
„Big Data“ lässt grüßen! Laut einer Studie des Festplatten-Giganten Seagate soll sich der weltweit... - Online Banking Software: 4...
Wer Bankgeschäfte über das Internet erledigen möchte, muss dafür nicht zwingend über die Internets... - Ninite – das wohl nützlic...
System-Tools gibt es wie Sand am Meer. Die meisten versprechen viel und halten wenig. Wirklich gut... - Einrichten einer lokalen...
Dieser Artikel richtet sich an alle Hobby-Webentwickler, die ihre erstellten Web-Projekte auf dem...