Exascale-Computersysteme markieren eine neue Ära der Supercomputing-Leistung. Doch wer dominiert aktuell das Geschehen? Dieser Artikel entschlüsselt die aktuelle Exascale-Landschaft auf Grundlage der neuesten Top500-Liste, beleuchtet technologische Meilensteine und gibt Einblick in kommende Innovationswellen.
Was bedeutet eigentlich Exascale?
Exascale bezeichnet die Fähigkeit eines Computersystems, mehr als eine Exaflop – also eine Trillion (1018) Gleitkommaoperationen pro Sekunde – auszuführen. Damit ist Exascale-Supercomputing ein Schlüssel zu umfassenden Durchbrüchen u. a. in Bereichen wie Klimaforschung, KI-Training, Materialwissenschaft oder Molekulardynamik.
Bereits 2022 erreichte das US-System Frontier im Oak Ridge National Laboratory als weltweit erstes offiziell gemessenes Exascale-System diesen Meilenstein – mit einer Spitzenleistung von 1,102 Exaflops auf Platz 1 der Top500. Seitdem ist eine neue Phase des technischen Wettlaufs zwischen China, den USA und Europa angebrochen.
Ein Blick in die aktuelle Top500-Liste: November 2025
Die halbjährlich veröffentlichte Top500-Liste der leistungsstärksten Supercomputer weltweit bleibt auch 2025 ein Gradmesser globaler Rechenmacht. Der aktuelle Bericht zählt weiterhin Frontier als schnellstes offiziell gelistetes Exascale-System.
Allerdings birgt die Liste weit mehr als nur eine Rangfolge – sie zeigt politische und technologische Dynamiken auf:
- Frontier (USA, 1,2 Exaflops Linpack) bleibt auf Platz 1.
- Die Systeme Aurora (Argonne National Lab, Intel) und El Capitan (Lawrence Livermore, AMD) laufen bereits im Exascale-Umfeld, wurden bislang jedoch nur mit Teilkonfigurationen gelistet.
- China verfügt laut Schätzungen über mindestens zwei Exascale-fähige Systeme – OceanLight (Nachfolger von Sunway TaihuLight) und Tianhe-3 – bislang ohne offizielle Linpack-Messung.
- Europa steht mit JUPITER (Deutschland, Forschungszentrum Jülich) in den Startlöchern: Das auf SiPearl-RISC-V und Nvidia-Technologie basierende System soll 2025 voll einsatzfähig sein.
Es zeigt sich: Nicht alle Exascale-Systeme durchlaufen die offizielle Linpack-Benchmarking-Prozedur. Das hat weitreichende Folgen für öffentliche Rankings – und für unsere Wahrnehmung der technischen Leistungsfähigkeit einzelner Länder.
Warum manche Systeme nicht in der Top500 auftauchen
Die Nichtaufnahme chinesischer Exascale-Systeme in die Top500 ist kein technisches, sondern geopolitisches Phänomen. Chinesische Institutionen verzichten seit etwa 2019 auf die Linpack-Benchmark-Einreichung, vor allem aus strategischen Gründen.
Hinzu kommt: Benchmark-Ergebnisse geben nur einen eingeschränkten Blick auf die reale Leistung eines Systems. Die Linpack-Messung basiert auf linearen Gleichungen – hochrelevant für viele numerische Probleme, aber nicht repräsentativ für KI-Workloads, irregular Memory-Zugriffe oder datenintensive Simulationen.
In einem Interview mit HPCwire räumte selbst Jack Dongarra, Entwickler des Linpack-Benchmarks und Turing-Preisträger, ein: „Wir brauchen neue Metriken für neue Herausforderungen. Exascale bedeutet nicht nur Linpack.“
Neue Hardware-Trends: Blackwell, SiPearl und Co.
Die Exascale-Revolution ist eng an architektonische Neuerungen geknüpft. Herausragende Entwicklungen 2024/2025 betreffen insbesondere GPU-Beschleuniger, KI-Optimierung und energieeffiziente Recheneinheiten:
- Nvidia Blackwell: Der 2024 vorgestellte Nachfolger der Hopper-Generation wird mit bis zu 20 PFlops FP8-Leistung pro GPU zur Triebfeder künftiger KI-optimierter Exascale-Systeme. Erste relevante Blackwell-Installationen sind für Aurora-Nachfolger und europäische KI-Center geplant.
- SiPearl Rhea: Die europäische Prozessorplattform setzt auf Arm/V-Native-Kerne für energieeffizientes HPC und wird im JUPITER-System als CPU-Herzstück verwendet. Geplant ist ein gekoppelt hybrider Betrieb mit Nvidia-GPGPUs über NVLink/CHIPlet-Bus.
- 3D-Stapeltechnologie (z. B. Intel Falcon Shores): Die Möglichkeit, CPU-und GPU-Blocks effizienter und flexibler zu kombinieren, lässt sich besonders im KI-nahen Exascale-Bereich beobachten.
Gemäß einer Analyse von Intersect360 Research (2025) sind mittlerweile über 68 % aller Top100-Systeme GPU-beschleunigt – ein Anstieg von 14 % seit 2022.
Zudem rückt die Energieeffizienz in den Fokus: Die Green500 ergänzt die Top500 mit einem Ranking nach GFlops/Watt. Zwar ist Frontier das schnellste System der Welt, doch beim Effizienzwert liegt das NVIDIA Eos-System mit 65,4 GFlops/Watt vorn (Top500, März 2025).
Die Kombination aus heterogenen Architekturen, eng integrierten Speichersystemen und KI-spezifischer Optimierung kennzeichnet die nächste Phase der Exascale-Entwicklung.
KI trifft Exascale: Eine neue Klasse von Workloads
Mit dem exponentiellen Wachstum großer Sprachmodelle und multimodaler KI-Anwendungen (z. B. AlphaFold 3, GPT-5 oder Meta’s Imaging-Modellen) verschieben sich die Anforderungen an Supercomputer deutlich.
Während klassische HPC-Workloads (z. B. CFD, Weather Modeling) stark auf Gleitkommapräzision setzen, dominieren in KI-Workloads inzwischen niedrigere Genauigkeiten (FP8, INT4). Dies lässt sich gezielter auf spezialisierter Hardware umsetzen (z. B. mit Nvidia Blackwell, AMD MI300 oder TensorCore-Konfigurationen).
Für Exascale-Designs bedeutet das:
- Memory Bandwidth und -Skalierung werden entscheidender als rohe Rechenleistung pro Node.
- KI-gerechte Scheduling- und Runtime-Systeme wie Slurm AI, DeepSpeed Runtime oder HACC-IO setzen neue Maßstäbe.
- Der Trend geht zu KI-Augmented Simulationen („Surrogate Modeling“), die klassische HPC-Berechnungen beschleunigen oder ersetzen.
Ein Beispiel: Das Frontier-System beschleunigt mithilfe von großen Transformers komplexe molekulare Simulationen um den Faktor 3–5, wie ein Paper von ORNL (2025, Nature HPC) belegt.
Supercomputer entwickeln sich somit zu hybriden Infrastrukturplattformen für KI, Simulation und Datenanalyse – Exascale ist dabei sowohl Katalysator als auch Konsequenz.
Praktische Empfehlungen für Unternehmen und Forschungseinrichtungen
Auch wenn Exascale-Systeme aktuell noch auf wenige nationale Forschungseinrichtungen begrenzt sind, gibt es bereits jetzt Konsequenzen – auch für mittelständische IT-Teams und Rechenzentrenbetreiber:
- Auf GPU-First-Designs umstellen: Aufgrund der KI-Orientierung kommender Rechenlasten empfiehlt sich bereits heute die Umstellung auf GPU-basierte Workload-Architekturen – egal ob lokal, per Cluster oder in der Cloud.
- Benchmark-Modelle überdenken: Wer Performancezahlen vergleichen will, sollte über Linpack hinaussehen – etwa durch MLPerf, Graph500 oder Anwendungsbenchmarks der Exascale Application Benchmark Suite (EABS).
- Auf hybride Cloud / HPC-Fusion vorbereiten: Die nahtlose Integration von Public-Cloud-HPC-Diensten (etwa AWS ParallelCluster oder Azure HBv4) mit lokalen HPC-Umgebungen wird zunehmend erfolgskritisch bei dynamischen Exascale-nahen Workloads.
Ausblick: Nach Exascale kommt Zettascale
Mit der offiziellen Bestätigung mehrerer Exaflop-Systeme (Frontier, Aurora, bald El Capitan) ist der Übergang zur nächsten Stufe bereits in Sicht: Zettascale. Nvidia-CEO Jensen Huang prognostizierte 2024, dass die Zettascale-Grenze (1021 Flops) bis etwa 2030 in Sichtweite rückt. Voraussetzung dafür sind neue Paradigmen in Kühlung, Energieversorgung (Photonic Compute?, Superemissions-KI?) und Flächenintegration.
Währenddessen stehen weltweit Dutzende Exascale-Initiativen in den Startlöchern – auch in Ländern wie Indien, Südkorea und Saudi-Arabien. Die staatlich geförderte European High-Performance Computing Joint Undertaking (EuroHPC JU) sieht bis 2027 mindestens drei Exascale-Systeme in EU-Hand vor, einschließlich JUPITER und JULES-Verwandter.
Der Wettbewerb im Supercomputing ist intensiver denn je – technologisch, geopolitisch und wirtschaftlich. Doch gerade in der Kombination von KI, Simulation und Datenanalyse liegt das größte transformative Potenzial.
Fazit: Die Exascale-Ära steht für weit mehr als nur höhere Zahlen – sie verändert die Art und Weise, wie wir Wissenschaft, Industrie und strategische Planung denken.
Welche Anwendungen haltet ihr für die spannendsten im Exascale-Zeitalter? Habt ihr bereits Erfahrungen mit HPC / hybride Cloudlösungen? Wir freuen uns auf euer Feedback und Diskussionen in den Kommentaren!




