Informationen zur Zentrenauswahl

Alle NHR-Zentren verfügen über aktuelle HPC-Hardware und bieten beste Bedingungen für gut skalierende Anwendungen. Im Folgenden eine Kurzbeschreibung der Ressourcen der Zentren sowie des Beratungsangebots. 

Zentrum ÜbersichtDetailsHinweise zur Beantragung
NHR4CES@RWTH

CLAIX-2023 besteht im HPC-Segment aus 632 Rechenknoten mit je 2x Intel Sapphire Rapids 48-Core CPUs. Hierbei haben 470 Knoten 256 GB, 160 Knoten 512 GB und zwei Knoten 1024 GB Hauptspeicher. Zusätzlich gibt es im ML-Segment 52 Knoten mit je 4 NVIDIA H100 GPUs mit je 96 GB HBM2e Speicher und 512 GB Hauptspeicher. Alle Knoten beider Segmente sind mit einem Infiniband NDR Netzwerk gekoppelt.Es gibt ein paralleles Lustre-Dateisystem (29 PB) und ein hochverfügbares GPFS-Dateisystem (3.8 PB). 

Der Support konzentriert sich auf Methoden und Anwendungen im Ingenieurwesen.

> Details> Hinweise zur Beantragung
NHR4CES@TUDaDie Ausbaustufen von Lichtenberg II bestehen aus 1231 Rechenknoten mit 2x Intel Cascade-Lake AP (96 Kerne) oder 2x Intel Sapphire Rapids (104 Kerne) Prozessoren und jeweils 384-512 GB Hauptspeicher, 5x Big-Memory Knoten mit jeweils 1.5-6.0 TB Hauptspeicher, und 20 Beschleunigerknoten mit insgesamt 16x Nvidia V100, 40x Nvidia A100, 8x Nvidia H100, 16x AMD MI300X und 20x Intel Ponte Vecchio GPUs. Alle Knoten und das Dateisystem (6 PB) sind per EDR/HDR Infiniband verbunden.
Der Support konzentriert sich auf Methoden und Anwendungen im Ingenieurwesen.
> Details> Hinweise zur Beantragung
NHR@FAU

NHR@FAU betreibt derzeit mehr als 70 000 CPU-Kerne und bietet umfangreiche GPU-Ressourcen für Durchsatzrechnungen sowie moderat parallele Anwendungen (bis 8 GPUs). Verfügbar sind 304 NVIDIA A100 (40/80 GB) sowie 352 NVIDIA A40 Karten; letztere eignen sich insbesondere für Molekulardynamiksimulationen mit Standardpaketen wie GROMACS und AMBER.

Die Benutzer:innenunterstützung ist bekannt für ihre Expertise im Bereich des Performance-Engineerings für CPU- und GPU-Knoten sowie iterative Löser. Im Anwendungssupport hat NHR@FAU einen besonderen Fokus auf atomistische Simulationen.

> Details> Hinweise zur Beantragung
NHR@Göttingen

Mit dem HPC-System "Emmy" (111.464 Intel CPU-Kerne), der neuen Partition "Grete" (144 NVIDIA A100 GPUs) sowie modernen Datenmanagementkonzepten und Speichersystemen ermöglicht NHR@Göttingen die Ausführung von rechen- und datenintensiven HPC-Anwendungen, z.B. aus den Bereichen Life-Science, Earth-System-Science, Strömungsmechanik (CFD) und Digital Humanities sowie von Anwendungen aus Künstlicher Intelligenz (KI) und Quantum Computing.

Das Zentrum bietet außerdem ein umfassendes Beratungsangebot.

> Details> Hinweise zur Beantragung
NHR@KIT

NHR@KIT betreibt das System "HoreKa" (60.000 CPU-Cores, 756 NVIDIA A100 GPUs) für hoch parallele (GPU-)Simulationen und die "Future Technologies Partition" mit modernsten Architekturen (ARM-CPUs, AMD-GPUs, Graphcore-Beschleuniger etc.). Es existieren fortschrittliche Möglichkeiten zur Performance- und Energiemessung.

Dedizierte Supportstrukturen bedienen die Teilchen- und Astroteilchenphysik, Erdsystemwissenschaften, Ingenieurwesen für Energie und Mobilität, Materialwissenschaft, Software Sustainability und Performance Engineering

> Details> Hinweise zur Beantragung
NHR@SWMit den beiden HPC-Systemen Goethe-NHR (730 Rechenknoten mit Intel- und AMD-CPU-Partitionen, 864 AMD MI210 GPUs, paralleles Dateisystem mit 2,4 PB) und MOGON NHR (590 Rechenknoten mit insgesamt 75000 AMD EPYC 7713 CPU-Cores, 40 NVIDIA A100 GPUs, paralleles Dateisystem mit 8 PB) bietet NHR@SW den WissenschaftlerInnen umfangreiche Ressourcen für hochparallele und datenintensive Anwendungen u.a. aus den Bereichen Life-Science, Hochenergiephysik und Künstlicher Intelligenz. NHR@SW bietet außerdem ein umfassendes Beratungsangebot.> Details> Hinweise zur Beantragung
NHR@TUD

Für datenintensives HPC steht der Cluster „Barnard“ mit ca. 75.000 Prozessorkernen und 40 PB parallelem Dateisystem zur Verfügung. Der GPU-Cluster „Capella“ stellt mehr als 140 Knoten mit jeweils 4 NVIDIA H100-Beschleunigern und einem schnellen Dateisystem bereit, das für KI-Anwendungen optimiert ist.

NHR@TUD setzt sich stark für eine effiziente Ressourcen-Nutzung ein und bietet eine breite Palette von Tools, Beratungs- und Schulungsangeboten, insbesondere für Data Analytics, KI, Life Science und Performance-Optimierung.

> Details> Hinweise zur Beantragung
NHR@ZIB

Das NHR@ZIB betreibt das HPC-System „Lise“ mit einer CPU-Partition (121'920 Rechenkerne) für hochparallele Anwendungen und eine GPU-Partition (168 Nvidia A100) für datenintensives Rechnen. Das breite Angebot an Datenspeichertechnologien ermöglicht individuelle Nutzungsprofile bezüglich I/O-Anforderungen.

Unsere fachspezifische Beratung unterstützt Forschungsprojekte aus einem breiten Anwendungsspektrum – z. B. Lebenswissenschaften und Erdsystemwissenschaften - sowie KI als Querschnittsmethodik.

> Details> Hinweise zur Beantragung
PC2

Das NHR-Zentrum Paderborn Center for Parallel Computing (PC2) betreibt die HPC-Systeme "Otus" (142.000 AMD Turin CPU-Kerne, bis zu 1.5 TB Arbeitsspeicher, 108 NVIDIA H100-94GB, FPGAs, https://pc2.de/go/otus)  und "Noctua 2" (143.000 CPU-Kerne, bis zu 2 TB Arbeitsspeicher, 136 NVIDIA A100, 80 FPGAs, https://pc2.uni-paderborn.de/systems-and-services/noctua-2) .

Neben dem allgemeinen Support für alle Forschungsbereiche kann die Fachberatung des PC2 besonders Forschende aus der Festkörperphysik, Materialwissenschaften, Chemie, Optoelektronik/Quantenphotonik/Quantum Computing, FPGA/GPU Entwicklung und wissenschaftlichem maschinellem Lernen/KI hochqualifiziert unterstützen.

> Details> Hinweise zur Beantragung