Wie Supercomputer unsere Welt verwandeln

Prof. Dr. Thomas Lippert, Forschungszentrum Jülich

Dass Supercomputer einen enormen transformativen Einfluss auf unsere menschliche Zivilisation haben, ist uns spätestens mit dem scheinbar plötzlichen Erscheinen von sogenannten Sprachmodellen (Foundational Language Models) klar geworden. Die Fähigkeit, solche Modelle zu entwickeln, hängt neben der koordinierten Beschaffung geeigneter Trainingsdaten ganz entscheidend von der Verfügbarkeit größter Rechenleistungen für das Training der Modelle ab, wie spätestens mit den jüngsten Verlautbarungen der Präsidentin der Europäischen Kommission zu Investitionen in Milliardenhöhe in sogenannte Gigafactories deutlich geworden ist. Nur mit Hilfe größter Rechenleistungen können Verfahren der KI in Bereichen wie Bilderkennung, Sprachverarbeitung, autonomes Fahren und personalisierte Medizin erfolgreich eingesetzt werden.

Als Supercomputer werden die leistungsstärksten Rechner bezeichnet, die Wissenschaft, Industrie und Gesellschaft gegenwärtig zur Verfügung stehen. Klug programmiert, sind sie in der Lage, höchst komplexe Berechnungen und Analysen in Rekordzeit durchzuführen und damit die größten Herausforderungen im Bereich von Simulation, Datenanalyse und KI anzugehen. Dabei sind Supercomputer keinesfalls eine neue Errungenschaft der Informationstechnologie, denn spätestens seit der berühmte Seymour Cray 1972 sein gleichnamiges Unternehmen Cray Research gründete, bilden sie unter dem Begriff "High Performance Computing" oder HPC die Königsklasse der Computer und haben in diesen 40 Jahren Technik, Wissenschaft und Gesellschaft grundlegend geprägt.

Vielleicht haben Sie ja schon davon gehört, dass das Jülich Supercomputing Centre derzeit den Exascale-Supercomputer Jupiter beschafft, den ersten seiner Klasse in Europa, der im Frühsommer 2025 in Betrieb gehen wird. Damit behält NRW nicht nur seine Rolle als führende Supercomputing-Region mit mehr TOP10-Systemen im Laufe der letzten 30 Jahre als jeder andere Standort in Europa bei, Jupiter wird für eine ganze Weile das führende KI-Trainings- und Höchstleistungs-Simulationssystem in Europa mit weltweiter Sichtbarkeit sein.

Supercomputer sind immer häufiger die treibende Kraft hinter bahnbrechender Forschung und beschleunigter Innovation. Grundlegende Fragen über das Universum, das Klima, das Gehirn, die Medizin und viele andere Bereiche können mit immer größerer Präzision erforscht und beantwortet werden. Sie spielen eine wichtige Rolle bei der Entwicklung neuer Medikamente, der Sequenzierung und Analyse von DNA, der Erforschung des Weltraums und der Entwicklung von erneuerbaren Energien und der Simulation der Konsequenzen von Naturkatastrophen und ihrer Vermeidung. Im Ingenieurswesen helfen sie, beispielsweise,  die Aerodynamik eines Fahrzeugs zu analysieren, die Strukturfestigkeit von Gebäuden zu überprüfen und die Effizienz von Produktionsprozessen zu verbessern.

Es steht außer Frage, dass Supercomputer unsere Welt verwandeln, aber es ist auch erstaunlich, wie ihnen das schon so lange und stetig gelingt. Lassen Sie uns das Prinzip dahinter betrachten, das Prinzip der Fortschrittsgarantie durch exponentielles Wachstum der Rechenleistung. Das lässt sich am besten verstehen, wenn man Supercomputer mit Maschinen vergleicht, wie wir sie aus unserem Alltag kennen: Das Automobil entwickelt sich zwar immer weiter, aber seine Leistung steigt allenfalls linear mit der Zeit an - hoffentlich nicht mehr allzu lange -, bei Flugzeugen oder Schiffen wächst die Energie-Effizienz auch bestenfalls linear mit der Zeit, die Eisenbahn ist schon lange extrem schnell unterwegs, sollte aber zu Gunsten der Flexibilität und Pünktlichkeit bitte nicht mehr schneller werden. Demgegenüber wächst die Leistung der Supercomputer exponentiell an, war es 1990 die Größenordnung von Gigaflop, 2000 Teraflop und 2010 Petaflop pro Sekunde, wobei mit "Flop" eine Gleitkommaoperation gemeint ist, so haben wir sehr bald Exaflop-Systeme wie Jupiter, und wir denken bereits über Zetta nach und phantasieren von Yotta, Ronna und Quetta. Da in der Simulation die Leistungsanforderungen in der Regel mit mehr als der dritten Potenz der linearen Systemgrößen wachsen - Auflösung und Multimodalität fügen weitere Dimensionen hinzu - kann auch nur eine exponentielle Leistungssteigerung der Supercomputer einem linearen Fortschritts-Anspruch in der Behandlung der Herausforderungen gerecht werden. In anderen Worten, um in einer Klimasimulation ein doppelt so großes System in Länge, Breite und Höhe, bei doppelter räumlicher und zeitlicher Auflösung und doppelter zeitlicher Länge sowie unter Einbeziehung weiterer Modalitäten rechnen zu können, muss man von einem Faktor 2 hoch 10, also 1000, ausgehen. Dies entspricht einer Leistungssteigerung der Supercomputer in 10 Jahren.

Bei all diesen Überlegungen dürfen die potenziellen Risiken und Herausforderungen, die mit dem Einsatz von Supercomputern verbunden sind, nicht außer Acht werden: So kann die zunehmende Abhängigkeit von Supercomputern zu existenziellen Verwundbarkeiten führen, etwa wenn die Systeme, eingesetzt als kritische Infrastrukturen, ausfallen oder gehackt werden und kritische Bereiche wie Wirtschaft, Kommunikation oder Infrastruktur betroffen sind. Zudem sind Supercomputer teuer in der Anschaffung und Wartung, was dazu führen kann, dass nur wohlhabende Institutionen oder Länder Zugang zu ihnen haben. Dies könnte zu einer weiteren Kluft zwischen entwickelten und weniger entwickelten Regionen führen, wenn es um Fortschritte in Bereichen wie Forschung, Medizin oder insbesondere der KI geht. Im Hinblick auf Ethik und Datenschutz birgt die immense Rechenleistung von Supercomputern bei der Verarbeitung großer Datenmengen, einschließlich persönlicher Informationen, die Gefahr des Missbrauchs, insbesondere auch im kommenden KI-Zeitalter. Es ist wichtig, geeignete ethische Richtlinien und rechtliche Rahmenbedingungen für den Umgang mit sensiblen Daten zu entwickeln, insbesondere in Bezug auf Supercomputer, um Missbrauch oder Verletzungen der Privatsphäre zu verhindern. Nicht zuletzt benötigen Supercomputer beträchtliche Mengen an Energie. Hier ist es wichtig, nachhaltige Lösungen zu finden, um den Energieverbrauch von Supercomputern zu reduzieren und alternative Energien zu nutzen.

Supercomputer haben zweifellos eine wachsende transformative Wirkung auf verschiedene Bereiche unseres Lebens, wir sollten ihren positiven Einfluss fördern und potentielle Gefahren mit Achtsamkeit vermeiden helfen.

Prof. Dr. Dr. Thomas Lippert erhielt 1987 sein Diplom in Theoretischer Physik an der Universität Würzburg. Er promovierte in theoretischer Physik an der Universität Wuppertal über Simulationen der Gitterquantenchromodynamik und auf dem Gebiet des parallelen Rechnens mit systolischen Algorithmen an der Universität Groningen. Er ist Direktor des Jülich Supercomputing Centre am Forschungszentrum Jülich, Mitglied des Direktoriums des John von Neumann-Instituts für Computing (NIC) und des Gauss Centre for Supercomputing (GCS). Seit August 2020 hat er den Lehrstuhl für Modulares Supercomputing und Quantencomputing an der Goethe-Universität Frankfurt inne und wurde im März 2020 zum Senior Fellow am FIAS ernannt. (https://www.fias.science/de/fellows/detail/lippert-thomas/)

Prof. Dr. Dr. Thomas Lippert ist Direktor des Jülich Supercomputing Centre am Forschungszentrum Jülich und hat seit August 2020 den Lehrstuhl für Modulares Supercomputing und Quantencomputing an der Goethe-Universität Frankfurt inne.