Hauptinhalt
Hochleistungsrechnen
Für Forschung und Wissenschaft steht mit dem Marburger Compute Cluster (MaRC3a) ein leistungsstarkes Compute Cluster zur Verfügung, das stetig an die Bedarfe des modernen High Performance Computing (HPC) angepasst wird.
Nicht nur um den aktuellen Erfordernissen gerecht zu werden, sondern auch um Spitzenforschung im Bereich BigData und KI bestmöglich zu unterstützen, wurde das ca. 10 Jahre alte HPC Cluster MaRC2 im April 2022 durch MaRC3a abgelöst. Neben klassischen HPC-Aufgaben unterstützt MaRC3a durch den Einsatz performanter GPU-Beschleuniger insbesondere auch massiv parallele Anwendungen wie beispielsweise Image Processing, physikalische Simulationen oder neuronale Netzwerke. Mit MaRC3b folgte im Oktober 2022 die erste Erweiterung des Clusters mit Fokus auf medizinisch-psychologische Berechnungen. Aktuell laufen bereits Vorbereitungen für die dritte Ausbaustufe MaRC3c (MaRCQuant), welche für quantenphysikalische Berechnungen optimiert sein wird. Nähere Details zum Cluster finden sich unter Wissenswertes (s.u.).
Ergänzt wird das HPC Cluster durch das hochverfügbare Marburger Storage Cluster (MaSC), das den effizienten Umgang mit großen Datenmengen ermöglicht. Neben der Speicherung zum Zweck der Prozessierung großer Daten steht MaSC auch ausdrücklich als „Hot“ und „Cold“ Storage für Arbeitsgruppen der Philipps-Universität zur Verfügung. So können dort beispielsweise Imaging- und Omicsdaten direkt von den Messgeräten abgelegt werden.
Die beiden Cluster MaRC3a und MaSC stehen für kleinere Projekte grundsätzlich allen Forschenden der Universität zur Verfügung. Die Philipps-Universität verfolgt hierbei einen Konsolidierungsansatz für High Performance Computing und compute-nahen Storage. Durch die gemeinsame Nutzung des HPC und Storage Clusters können die verfügbaren Kapazitäten optimal ausgeschöpft werden. Der Aufwand für Administration und Wartung individueller Systeme für einzelne Arbeitsgruppen entfällt. Über optionale Beteiligungen besteht die Möglichkeit selbst Speicherplatz (MaSC) oder Compute Nodes sowie GPUs (MaRC3) beizusteuern und so die verfügbaren Ressourcen für eigene Projekte gezielt zu erweitern. GPUs können in der Regel zeitnah integriert werden. Anfragen für zusätzliche Compute Nodes werden weiterhin gesammelt, um ggf. einen gemeinschaftlichen Beschaffungsprozess anzustoßen. Wenden Sie sich gerne an unser HPC-Team, vgl. Hilfe und Support (s.u.).
Zielgruppe
Forschende und Wissenschaftler/innen der Universität Marburg
Voraussetzung
- Zentrales Benutzerkonto (Uni-Account / staff)
- Von Arbeitsgruppenleiter/in signierte Nutzungserklärung (siehe unter Anmeldung).
Anmeldung
Der Zugang zum High Performance Computing (HPC) innerhalb der Philipps-Universität Marburg wird zentral durch das Hochschulrechenzentrum (HRZ) vermittelt. Hierfür sind von der Arbeitsgruppen-Leitung zunächst ein oder mehrere sogenannte HPC-Manager/innen zu benennen, die anschließend eigenständig einzelne Uni-Accounts (Staff) aus Ihrer Arbeitsgruppe für die HPC-Nutzung freischalten können. Für beide Vorgänge stehen Webformulare zur Verfügung:
Anleitungen
Hilfe und Support
Das HPC-Team erreichen Sie unter marc3@hrz.uni-marburg.de. Bitte geben Sie bei Anfragen ihren Account und einen aussagekräftigen Betreff an.
Wissenswertes
MaRC3a ist im Forschungsbau Synthetische Mikrobiologie (ZSM2) untergebracht. Das Cluster wurde in Kooperation mit verschiedenen Forschergruppen der Philipps-Universität ermöglicht und wird gemeinschaftlich vom Zentrum für Synthetische Mikrobiologie (Synmikro) und dem Hochschulrechenzentrum (HRZ) betrieben. Aktuell besteht MaRC3a u.a. aus 50 Compute Nodes, die zusammen 3200 Prozessor-Kerne zur Verfügung stellen und über 256 bis 1.024 GB RAM verfügen. Zusätzlich stehen insgesamt 92 Data Center GPUs verschiedener Leistungsklassen (NVIDIA V100S, A40 und A100) für massiv parallele Anwendungen wie KI, Image Processing oder physikalische Simulationen bereit. Als geteilten Storage verfügt MaRC3 über 134 TB für Daten und Programme der Nutzer sowie weitere 134 TB zur Zwischenspeicherung temporärer Daten. Das HPC Cluster hat zudem direkten Zugriff auf das Storage Cluster MaSC, welches Zugang zu über 3 PB Speicherkapazität für Projektdaten einzelner Arbeitsgruppen ermöglicht.
Verwandte Dienste