Der Computer, der alles verändern wird

Blog

HeimHeim / Blog / Der Computer, der alles verändern wird

May 11, 2023

Der Computer, der alles verändern wird

Nach acht Jahren Entwicklungszeit entstand Aurora, eine leistungsstarke neue Maschine bei Argonne National

Nach achtjähriger Entwicklungszeit könnte Aurora, eine leistungsstarke neue Maschine am Argonne National Laboratory, zur Lösung einiger der drängendsten Fragen unserer Zeit beitragen. Willkommen im neuen Zeitalter des Supercomputings.

Wenn Sie zu der Art von Person gehören, die jemals darüber nachdenkt, was Sie mehr aus Ihrem Leben hätten machen können, dann habe ich einen Rat: Sprechen Sie nicht mit Rick Stevens. Bereits 15 Minuten nach Beginn eines Gesprächs mit ihm komme ich mir wie ein Idiot vor. Äußerlich stelle ich direkten Augenkontakt her, mache mir Notizen, lege meine Finger an meine Lippen, um zu signalisieren, dass ich an jedem seiner Worte hänge; Innerlich denke ich darüber nach, wie viele Stunden ich auf YouTube damit verbracht habe, mir Clips von „The Sopranos“ noch einmal anzuschauen.

Stevens ist stellvertretender Laborleiter für Computer, Umwelt und Biowissenschaften am Argonne National Laboratory im südwestlichen Vorort Lemont. Der Titel verschleiert wortreich seine Leistungen. Stevens, der im Alter von 14 Jahren mit der Computerprogrammierung begann, ist seit 1982, als er noch Student in Michigan war, an der Argonne (dem ersten nationalen Labor des Landes, das 1946 gegründet wurde und gemeinsam vom US-Energieministerium und der University of Chicago betrieben wird). Zustand. Nachdem er zu Argonne gekommen war, promovierte er in Informatik an der Northwestern University. In den letzten 40 Jahren war er eine Schlüsselfigur bei Argonnes bedeutenden Fortschritten im Supercomputing.

An einem sonnigen Tag im November sitze ich in Stevens‘ Büro, um mehr über den Aurora-Supercomputer zu erfahren, Argonnes nächsten großen Sprung in Sachen Rechengeschwindigkeit und -leistung. Das Labor hat sich fast während seiner gesamten Geschichte mit Supercomputern beschäftigt und kontinuierlich Konzepte entwickelt, formuliert, Gelder gesammelt, entworfen, gebaut, getestet und betrieben. Aber in einer jahrzehntelangen Zeitspanne unaufhaltsamer Innovation ist Aurora ein einzigartiger Meilenstein. Wenn die Maschine vollständig aufgebaut und betriebsbereit ist – die Argonne-Beamten hoffen auf den frühen Frühling – wird sie einer der ersten Supercomputer der Welt sein, der im Exascale-Bereich arbeitet, einer neuen und beispiellosen Rechenstufe.

Und deshalb bin ich gekommen, um mit Stevens zu sprechen. Er ist über 1,80 Meter groß, hat fantastische lange braune Haare, die ihm über die Schultern fallen, und einen breiten Körperbau, als hätte er Fußball spielen können. An dem Tag, an dem ich ihn treffe, trägt er eine Brille, Birkenstock-Sandalen mit Socken, fließende schwarze Yogahosen und ein locker sitzendes Sweatshirt.

Die erste Frage, die ich ihm stelle: Welchen Einfluss wird Aurora auf unseren Alltag haben?

„Was sind die Auswirkungen?“ Stevens antwortet rhetorisch und erschöpft. „Nun, einen Hinweis darauf können Sie vielleicht aus den Auswirkungen gewinnen, die das Supercomputing in den letzten 20 Jahren auf die Welt hatte. Alles, was wir über das großräumige Klima wissen, stammt aus Klimasimulationen auf Supercomputern. Was wir über den Menschen wissen.“ Das Genom stammt aus einer massiven Datenanalyse auf großen Computern. Alles, was derzeit in der KI passiert, geschieht auf großen Computern. Allein die Idee, dass man ein System bauen könnte, das möglicherweise ein Auto fahren könnte, ist das Ergebnis enormer Rechenleistung . Unsere Fähigkeit, Reaktoren zu entwerfen, unsere Fähigkeit, neue Batterien zu entwickeln – all das ist ein Ergebnis der Informatik.“

Wissen Sie, nur das Klima, das menschliche Genom, Atomkraft, Roboter.

„Die Exascale-Maschine ist die neueste Version davon“, fährt Stevens fort, „und eine Exascale-Maschine ist eine Million Mal schneller als die Maschinen, die wir um die Jahrhundertwende hatten.“

Doch wie könnten wir empirisch eine „millionenmal schnellere“ Geschwindigkeit beobachten? Wie könnten wir das in unserem Alltag materiell erkennen? Ich wollte meine Anfangsfrage nicht wiederholen, also stelle ich sie in Form einer Folgefrage: Exascale Computing wird Funktionen ausführen, die wir jetzt nicht ausführen können, oder?

„Ja, es ist eine Million Mal schneller“, antwortet Stevens, anders ausgedrückt: Duh!

Dann macht er etwas, was noch niemand gemacht hat, den ich je interviewt habe: Er erklärt mir, wie ich meine Geschichte schreiben soll.

„Die verrückte Berichterstattung über diese Maschinen ist nicht besonders aufschlussreich“, sagt Stevens. „Reporter machen das gerne, weil sich die Leute so sehr an die Idee gewöhnt haben: ‚Ich habe ein Telefon und es kommuniziert mit einer riesigen Cloud und da sind Tausende von Prozessoren drin‘, und das stimmt. Die Branche hat es in den letzten 15 Jahren aufgebaut.“ Jahre oder so. Wir bauen diese wissenschaftlichen Maschinen, weil sie sich auf Probleme in der Wissenschaft konzentrieren, während Clouds, wie Sie wissen, Twitter, Facebook und Discord-Server und alle möglichen zufälligen Dinge, Fake News und all das betreiben.“

Stevens verdreht immer wieder die Augen, während er dieses Geschwätz vorträgt, hinter sich eine Wand voller dicker Bücher über Astrophysik und fortgeschrittene Informatik. Dann wird er leidenschaftlich, wie der Zauberer in Fantasia, der Kräfte heraufbeschwört, die über das Wissen von Normalsterblichen hinausgehen.

„Man entwirft kein Flugzeug ohne Supercomputer. Man entwirft keinen Flugzeugmotor ohne Supercomputer. Man entwirft kein Auto mehr ohne Supercomputer. Man entwirft nicht einmal die Gemische in Benzin ohne Supercomputer. Das können Sie.“ Versuchen Sie wahrscheinlich, etwas zu benennen, fast alles von Wert, und es wird seine Wurzeln in einer Art High-End-Computersimulation oder einem Datenanalysesystem haben.

Ich begann zu verstehen, was Stevens meinte, als er die meisten Geschichten über Computer ablehnte. Aber weil ich wahrscheinlich den Intellekt eines kleinen Kindes zu haben schien, erzählt er mir direkt: „Die wahre Geschichte ist, dass es eine Gemeinschaft von Menschen gibt, die seit Jahrzehnten daran arbeiten, das Hochleistungsrechnen voranzutreiben. Und es treibt das Ganze an.“ Wirtschaft."

Mir wird langsam klar, dass er nicht über mich an sich frustriert ist, sondern darüber, was Computer für die breite Öffentlichkeit bedeutet haben. Anstatt sich darauf zu konzentrieren, wie Computer der Menschheit insgesamt geholfen haben, konzentrieren sich die Gespräche um sie herum eher darauf, wie sie unser Leben komfortabler machen. In diesem Fall hat Stevens Recht: Dies ist keine Geschichte darüber, wie Aurora unser Leben verändern könnte, sondern wie es die Welt verändern könnte.

Bevor ich anfing, etwas über Aurora zu lernen, war mein Verständnis der Computergeschichte zugegebenermaßen dürftig. Ich vermutete, dass es sich mehr oder weniger um die Turing-Maschine handelte, gefolgt von riesigen, sperrigen Mechanismen, die zackten und schepperten und klapperten und zu unhandlich waren, um von irgendjemandem außer Regierungsagenten, russischen Wissenschaftlern und IBM-Mitarbeitern benutzt zu werden, gefolgt von PCs und Bill Gates und das Internet, dann von Steve Jobs und seinen iPhones, und jetzt kann ich meinen HomePod bitten, BBC abzuspielen, während ich an der Tür meines Kühlschranks im Internet surfe, und ziemlich bald werden Roboter alles für uns erledigen, bevor wir es merken Leben in einer riesigen Simulation. Klar, es ist offensichtlich komplizierter. Aber ist es das wirklich?

Natürlich ist es das wirklich. Die Geschichte der Informatik ist umfangreich, vielschichtig und kompliziert mit verschiedenen Maschinenklassen, von denen Supercomputer nur eine sind. Ihre Geschichte reicht bis in die 1950er Jahre zurück und beginnt auf US-amerikanischem Boden, als Seymour Cray sich einer Gruppe von Ingenieuren der Control Data Corporation in Minneapolis anschloss, um den CDC 1604 zu bauen, der 1960 auf den Markt kam. Es gibt Debatten darüber, ob es wirklich der erste Supercomputer war , aber unbestreitbar ist, dass es der schnellste Computer der Welt war – und dass er eine weltweite Suche nach immer schnelleren Computern auslöste.

In den späten 1970er-Jahren standen die Architekten von Supercomputern vor einem Problem: Ihre Zentraleinheiten oder CPUs hatten eine Geschwindigkeit von einem Megahertz erreicht, was bedeutete, dass sie eine Million Funktionen pro Sekunde durchlaufen konnten, und Informatiker glaubten nicht, dass ihnen das gelingen würde noch schneller. Die Lösung war Parallelverarbeitung – das heißt, der Einsatz von immer mehr CPUs, um einen Computer schneller und besser zu machen.

„Es ist so, als würde man über ein Gehirn nachdenken“, sagt Stevens. „Dein Gehirn läuft nur mit einer bestimmten Geschwindigkeit. Und wenn ich mehr Gehirnleistung haben wollte, brauche ich mehr Gehirne, kein schnelleres Gehirn.“

So betrachtet unterscheiden sich Supercomputer nicht so sehr von den grotesken Science-Fiction-Kreationen von John Carpenter oder Frank Herbert. Sie sind nicht ganz monströs, aber ihre enorme Komplexität kann erschreckend schwer zu verstehen sein. Vor allem die Mathematik.

An diesem Punkt holt Stevens einen Marker heraus und geht durch sein Büro zu einer trocken abwischbaren Tafel. Ich werde jetzt zu einer seiner Vorlesungen eingeladen (er ist auch Professor an der University of Chicago).

„Wie schnell ist ein einzelner Prozessor? Haben Sie eine Ahnung? Wie schnell ist der Prozessor Ihres iPhones?“

„Ich weiß es wirklich nicht“, antworte ich und werde etwas müde.

„Überlegen Sie sich einfach etwas. Da ist eine Uhr drin. Wie schnell ist die Uhr?“

„Wie viele Umdrehungen pro Sekunde?“ Ich frage in einem Tonfall, der ihn anfleht, es mir einfach zu sagen.

„Nun, es dreht sich nicht“, sagt er unnötigerweise. „Aber ja, denken Sie sich einfach eine Zahl aus.“

"Eine Million." Das scheint mir eine vernünftige Vermutung zu sein.

„Eigentlich sind es eine Milliarde.“

Es gibt eine Pause von ein paar Sekunden, die ihm wie eine Ewigkeit vorkommt, bevor er anfängt, Zahlen an die Tafel zu schreiben.

„Der grundlegende Prozessor in Ihrem iPhone oder PC oder was auch immer läuft mit einem Gigahertz: einer Milliarde Zyklen pro Sekunde. Einige von ihnen laufen mit fünf Gigahertz, andere mit zwei. Ihr iPhone kann tatsächlich irgendwo zwischen einem und drei Gigahertz arbeiten, aber das tut es.“ „Egal – es sind ungefähr 10 hoch neun [Potenzen]. Und wir wollten 10 hoch 18 Operationen pro Sekunde erreichen. Das ist Exascale.“

In der Argonne-Literatur wird diese Betriebsgeschwindigkeit als „Milliarde Milliarden“ bezeichnet, was wie eine Zahl erscheint, die so groß ist, dass man eine bestehende Zahl zweimal wiederholen muss, aber technisch gesehen handelt es sich um eine Trillion Operationen pro Sekunde oder einen Exaflop. Hier ist eine bessere Möglichkeit, es zu formulieren: In meinem Leben sind Computer eine Billion Mal schneller geworden (ich werde diesen Sommer 40).

Doch im Jahr 2007 wusste niemand, ob Exascale überhaupt möglich war. In diesem Jahr hielt das Energieministerium Bürgerversammlungen in drei nationalen Laboratorien – Argonne, Berkeley und Oak Ridge – ab, um zu diskutieren, wie seine Wissenschaftler einen Supercomputer mit dieser Geschwindigkeit realisieren könnten.

Einer der Teilnehmer dieser Gespräche war neben Stevens sein Stellvertreter Mike Papka. Papka lernte Stevens vor 30 Jahren kennen, als er an der University of Illinois Chicago seinen Master in Informatik machte. Seitdem ist er an der Argonne (und hat auch an der University of Chicago promoviert). Wenn „Mike Papka“ wie der Name von jemandem klingt, mit dem man am Zapfhahn an der Ecke ein Bier trinkt, dann ist er genau das. Sein graues Haar ist kurz geschnitten, er trägt eine dicke Brille mit schwarzem Rand und einen buschigen weißen Bart, der genauso lang ist wie der von Rick Rubin. Sein Gesprächsstil ist bodenständig und gutmütig, und er spricht mit einem Chicagoer Akzent, der so kräftig ist wie Giardiniera. Als ich ihn nach den DOE-Rathäusern vor 16 Jahren frage, sagt er, sie seien „unscharf“, aber er erinnert sich, dass er dachte, dass „die Infrastruktur, die man für [Exascale] haben müsste, unmöglich ist“.

Als die Wissenschaftler des DOE zusammenkamen, standen sie vor drei besonders gewaltigen Hindernissen. Das erste war Macht. Damals schätzten sie, dass ein Exascale-Computer 1.000 Megawatt Strom benötigen würde, was einem Kernkraftwerk entspricht. Sie kamen zu dem Schluss, dass das überzeugendste Argument, das sie der Regierung zur Sicherstellung der Finanzierung vorlegen könnten, darin bestehen würde, diese auf 20 Megawatt zu reduzieren. Auch wenn die Kürzung der 980-Megawatt-Leistung extrem erscheint, weist Papka darauf hin, dass das Setzen ehrgeiziger Ziele dabei hilft, maximale Fortschritte zu erzielen. „Man muss einen Kompromiss eingehen“, sagt er. „Werden wir noch 15 Jahre warten, um herauszufinden, wie wir die Technologie dorthin bringen können? Oder werden wir weitermachen?“

Das nächste Problem war die Zuverlässigkeit. Genau wie Ihr Laptop sind Supercomputer anfällig für Abstürze, wenn sie überhitzt werden (was bei einer Maschine, die so viel Strom wie eine kleine Fabrik benötigt, häufig passieren würde). Das DOE-Team hat sich zum Ziel gesetzt, die Abstürze einer Exascale-Maschine auf einen pro Tag zu begrenzen, was immer noch viel zu sein scheint. Aber Stevens erklärt, dass der Supercomputer nicht seine ganze Arbeit verliert. „Was passiert, ist, dass man ständig Schnappschüsse macht, wenn die Maschine abstürzt, damit man sie wiederherstellen und weitermachen kann“, sagt er. „Es ist wie bei einem Computerspiel – Leute werden getötet und man startet einfach neu und das Spiel beginnt von vorne, wo man aufgehört hat.“

Aurora ist wie die komplexeste Symphonie der Welt, bei der Hunderttausende verschiedener Instrumente im Einklang spielen, um die Musik am Laufen zu halten.

Das größte Problem von allen war der Maßstab, wenn auch nicht das, was Sie wahrscheinlich vermuten würden. Sicher, Supercomputer sind körperlich riesig, aber das Innere der Maschine schien am schwierigsten herauszufinden.

„Hardwareseitig ist das kein großes Problem, denn man kann einfach mehr Hardware hinzufügen“, sagt Stevens. „Aber auf der Softwareseite ist das eine große Sache. Stellen Sie sich das so vor: Sie bereiten ein Thanksgiving-Dinner zu und kochen alle diese Gerichte parallel. Und die Zeit, die zum Kochen der Mahlzeit benötigt wird, wird bestimmt.“ durch den langsamsten Schritt [den Truthahn], selbst wenn die Kuchen nur eine Stunde brauchen oder wenn das Gemüse in 30 Minuten gar sein könnte. Denken Sie also bei diesen Berechnungen an dasselbe Problem, nur dass wir an Thanksgiving keine 20 Dinge haben Ich habe eine Million Dinge, und jetzt muss ich eine Milliarde Dinge parallel ablaufen lassen. Und wie schnell das ist, wird durch den längsten Schritt bestimmt, was bedeutet, dass ich diesen längsten Schritt so schnell wie möglich machen muss. "

Supercomputer-Software ist nicht nur komplex, sondern auch teuer. Die Wissenschaftswelt funktioniert nicht wie die Technologieunternehmen im Silicon Valley; Es gibt keine Startup-Kultur, in der Risikokapitalgeber die Forschung und Entwicklung eines Mondprojekts finanzieren könnten. Für Wissenschaftler ist es nicht einfach, an Fördermittel zu kommen.

Zwischen 2007 und 2015 bestand die gesamte Arbeit am Exascale-Computing aus Forschung und Entwicklung – Problemlösung und dem Schreiben von Algorithmen, um einen möglichst unauffälligen und kostengünstigsten Supercomputer zu konstruieren. Während Aurora selbst am Ende 500 Millionen US-Dollar kostete, würde die Summe für das gesamte Exascale Computing Project – die Zusammenarbeit zwischen den nationalen Labors – weitaus höher ausfallen. Und um diese Finanzierung zu sichern, mussten die Wissenschaftler nachweisen, dass sie im Exa-Maßstab funktionieren können.

„Es ist nicht einfach, fünf Milliarden Dollar zu verlangen“, sagt Stevens trocken. „Ich meine, es ist leicht zu fragen. Aber die Regierung wird Ihnen keinen 5-Milliarden-Dollar-Scheck ausstellen, wenn Sie sagen: ‚Ich weiß es nicht.‘ Das Team muss sagen: „Okay, wir glauben, dass wir das schaffen können. Wir haben Experimente durchgeführt, wir haben die Fehlerbalken niedrig gehalten“ und so weiter.“

Allein der Prozess des Fragens war an sich schon eine Herausforderung. Als Wissenschaftler zum ersten Mal mit dem DOE über Exascale-Computing diskutierten, war George W. Bush Präsident. Seitdem gab es drei weitere Regierungen mit verschiedenen Energieministern und, gelinde gesagt, sehr unterschiedlichen Agenden. „Sie führen immer und immer wieder die gleichen Argumente an, während die Regierung gewechselt hat und versucht, alle umzuerziehen“, sagt Stevens. „Man musste sich also mit all diesen Problemen auseinandersetzen, weiter einen Plan erstellen, einen neuen Plan erstellen, einen besseren Plan erstellen und ihn verkaufen. Das hat einen enormen Aufwand gekostet.“

Als die Argonne-Wissenschaftler 2015 bereit waren, mit der eigentlichen Entwicklung von Aurora zu beginnen, mussten sie auch diesen Prozess verwalten und sich dabei mit Intel und Hewlett Packard Enterprise abstimmen, die die Software und Hardware herstellten. „Es war, als würde man zum Mars fliegen“, sagt Stevens. „Was Sie jetzt sehen, ist nur der Eisberg, der aus dem Wasser ragt. Ja, wir haben eine Maschine. Aber Sie sehen nicht die 90 Prozent der Anstrengungen, die davor geleistet wurden.“

„Es ist sehr laut hier drinnen“, sagt David Martin direkt vor der Tür des Rechenzentrums von Argonne, in dem alle Supercomputer des Labors untergebracht sind. Wenn wir drinnen sind, hört es sich an, als stünden wir in der größten Klimaanlage der Welt; das müssen wir schreien, um einander zu hören. Martin ist der Manager für Industriepartnerschaften und Öffentlichkeitsarbeit, was bedeutet, dass er sich mit Dritten – normalerweise Unternehmen wie General Electric, General Motors und Boeing – darüber abstimmt, wie man auf die Supercomputer von Argonne zu Forschungszwecken zugreifen und diese nutzen kann. Vorher Er begann hier im Jahr 2011 und war bei IBM, Fermilab und AT&T Bell Laboratories tätig.

Argonne errichtete das Rechenzentrum und die dazugehörige Infrastruktur, im Wesentlichen ein völlig neues Gebäude, um seine Supercomputer unterzubringen. Die eigentlichen Maschinen stehen im „Maschinenraum“. Aurora ist ungefähr so ​​groß wie zwei Basketballplätze – etwa 10.000 Quadratmeter – und etwa acht Fuß hoch. Argonne fügte dem Maschinenraum dafür einen ganz neuen Flügel hinzu. Den meisten Platz nimmt jedoch nicht der Supercomputer selbst ein, sondern die für seinen Betrieb erforderlichen Betriebsmittel.

Über Aurora befindet sich eine ganze Etage, der sogenannte Elektroraum, der der Stromversorgung des Supercomputers gewidmet ist. Der Raum ist so groß wie ein Flugzeughangar und enthält Ansammlungen von Metallstationen, die wie riesige Schaltkästen aussehen und bis zu 60 Megawatt Strom erzeugen können, genug, um mehr als 10.000 Haushalte mit Strom zu versorgen. Papka betont, dass 60 Megawatt die absolute Grenze seien – Aurora werde eher bei etwa 50 bis 54 Megawatt laufen, wenn überhaupt. „Unsere alte Anlage Mira hatte eine Spitzenleistung von neun Megawatt“, sagt Papka. „Aber wenn ich mir die Stromrechnung ansehe, wären es eher etwa dreieinhalb. Wenn man also den Spitzenwert anstrebt – alles ist perfekt, man verbraucht jedes Stück Silizium auf diesem Chip –, wird man das alles verbrauchen.“ Macht. Aber du kommst nie dorthin.“

Es ist wichtig zu bedenken, dass dieser Raum auch die vorhandenen Supercomputer in Argonne, einschließlich des Petascale-Polaris, mit Strom versorgt und den gesamten Strom im Gebäude liefert. Wenn man bedenkt, dass die Wissenschaftler in diesen Rathäusern des Energieministeriums im Jahr 2007 befürchteten, dass ein Exascale-Computer 1.000 Megawatt Leistung benötigen würde, ist die Eliminierung von 940 Megawatt eine erstaunliche Leistung.

Aber die eigentliche Innovation befindet sich im Stockwerk unter Aurora: die mechanische Brücke. Hier schlängeln sich labyrinthische Rohre unterschiedlicher Breite durch einen Raum und liefern, kühlen und filtern Wasser. Supercomputer verwenden seit langem Flüssigkeitskühlung (Papka erinnert sich an eine Cray-Maschine aus den frühen 90er-Jahren, die Öl als Kühlmittel verwendete), aber um die Installationskosten zu senken, setzt Argonne zunehmend auf Lüfter, um eine Überhitzung zu verhindern. Da kein Lüfter leistungsstark genug ist, um neuere Supercomputer kühl zu halten, mussten Wissenschaftler effizientere Wasserkühlungssysteme entwickeln. Es unterscheidet sich nicht wesentlich von der Art und Weise, wie Strahlungsböden verhindern, dass Ihre Füße in schicken Badezimmern kalt werden, nur dass es sich hierbei um ein viel anspruchsvolleres Badezimmer handelt.

Polaris wird durch eine Kombination aus Wasser darunter und Düsenventilatoren darüber temperaturgeregelt – daher der laute Lärm im Rechenzentrum. Wenn Polaris unweigerlich außer Betrieb genommen wird, verstummt das Lüftergeräusch und wird durch das ersetzt, was Martin als „Brummen“ bezeichnet. Es ist fraglich, ob es einen weiteren Supercomputer geben wird, der überwiegend durch Lüfter gekühlt wird. „Aus der Sicht eines Labors als verantwortungsbewusster Umweltbürger ist das Schöne am Wasser, dass es Wasser ist“, sagt Papka. „Es hat einen der besten Koeffizienten für die Wärmeübertragung aller Substanzen.“

Der Maschinenraum beherbergt sowohl Aurora als auch Polaris und wird wahrscheinlich auf absehbare Zeit dort bleiben, wo alle Supercomputer bleiben. Es ist ungefähr so ​​groß wie ein Fußballfeld und verfügt über fluoreszierende Deckenlampen, die denen in einem normalen Bürogebäude ähneln. Auf dem Boden liegt ein Gitter aus quadratischen grauen Fliesen, jede etwa so groß wie eine extragroße Pizzaschachtel. Die Fliesen sind abnehmbar, sodass Bauarbeiter über den Boden auf die Rohre im Maschinenraum zugreifen können. So können die Arbeiter bestimmte Rohre isolieren und reparieren, ohne dabei andere Teile zu beschädigen.

An dem Tag, an dem ich in Argonne bin, arbeitet ein Bautrupp von rund zwei Dutzend Personen fleißig an Aurora. Der ursprünglich geschätzte Fertigstellungstermin für den Supercomputer war 2020, doch durch die COVID-19-Pandemie verursachte Probleme in der Lieferkette verlängerten den Zeitplan. Ich darf die Baustelle nicht betreten, aber ich sehe etwas, das wie Reihen von schwarzen Schränken aussieht. Am Ende wird Aurora einer noch größeren Version der riesigen Computerserver ähneln, die Sie in High-Tech-Spionagefilmen wie „Skyfall“ oder, vielleicht am treffendsten, in „Blackhat“ von Michael Mann gesehen haben.

Außerhalb des Maschinenraums gibt es einen langen Flur und ein Fenster, die den Besuchern einen weiten Blick auf Aurora bieten. Von hier aus zeigt mir Martin die Knoten, die die Bausteine ​​des Supercomputers bilden. Diese Knoten ähneln dem Aussehen Ihres Laptops unter der Tastaturoberfläche – eine Reihe von Chips, Punkten und Metallstangen. Die winzigen weißen Röhren, die sich um eine Seite schlängeln, dienen der Kühlung der Prozessoren. „Diese großen 24-Zoll-Rohre, die an der Straße an einer Kühlanlage beginnen, durch die fließt kaltes Wasser“, sagt Papka, „und dann speist dieses große Rohr ein kleines Rohr, das ein kleineres Rohr speist, das wiederum ein kleineres Rohr speist. was zum Prozessor gelangt.“ Aurora ist wie die komplexeste Symphonie der Welt, bei der Hunderttausende verschiedener Instrumente im Einklang spielen, um die Musik am Laufen zu halten.

Der Supercomputer besteht nur aus Reihen übereinander gestapelter Knoten, wobei aus jedem Panel blaue und rote Röhren herausgehen, die für Strom und Kühlung sorgen. Diese Bauarbeiter befinden sich in der letzten Phase des Einbaus und der Verkabelung der einzelnen Knoten, während sie nach und nach von Intel ausgeliefert werden. Die Knoten von Aurora basieren in erster Linie auf Grafikprozessoren oder GPUs und nicht auf den CPUs, auf denen früher Supercomputer arbeiteten. GPUs sind die gleichen Prozessoren, die auch bei der Entwicklung von Videospielen und Spezialeffekten in Filmen verwendet werden.

„Den Leuten wurde klar, dass GPUs Berechnungen tatsächlich sehr schnell durchführen“, erklärt Martin. „Und so haben wir mit Intel zusammengearbeitet, um beim Design der GPUs zu helfen – sie haben die Grafik-Rendering-Engine und das gesamte Raytracing entfernt und mehr Möglichkeiten für Berechnungen eingebaut. Diese GPUs sind also Berechnungsbeschleuniger.“ Papka datiert diese Supercomputer-Innovation auf die späten 90er-Jahre: „Die ganze Welt muss den 14-Jährigen für ihre Liebe zum Spielen danken, denn das ist größtenteils der Antrieb dafür.“

Die GPUs von Aurora sind nicht nur die Zukunft der Supercomputer, sondern auch die Zukunft der Personalcomputer. Künftig wird Intel alle seine PCs mit diesen neuen Prozessoren ausstatten. Insofern sind Supercomputer ein bisschen wie Zeitmaschinen. „Diese gemeinsamen Ressourcen, die die Regierung aufbaut, geben uns einen Einblick in die Zukunft“, sagt Stevens. „Die wissenschaftliche Gemeinschaft kann experimentieren, was fünf oder zehn Jahre später für jedermann leicht zugänglich sein wird.“

Stellen Sie sich also vor, wie schnell Ihr PC in einem Jahrzehnt mit einer dieser aufgemotzten GPUs sein wird. Aurora verfügt über sechs GPUs in jedem Knoten und 10.000 Knoten, was bedeutet, dass es dieses Jahr mit der 60.000-fachen Geschwindigkeit Ihres zukünftigen Computers laufen wird.

Wie lassen sich all diese Geschwindigkeit und Leistung auf die Lösung realer Probleme übertragen? Oder, wie die Mitarbeiter von Argonne es lieber formulieren: Welche Probleme wird Aurora nicht lösen können? Wissenschaftler, die im Exascale-Bereich arbeiten, glauben, dass Aurora und ähnliche Supercomputer uns dabei helfen werden, neue und bessere Medikamente zu entwickeln, die Technik zu verbessern, den Klimawandel abzumildern und sogar unser Verständnis der Geheimnisse des Universums zu erweitern. Aber wie genau kann eine Maschine das alles leisten? Du kannst Aurora nicht einfach fragen, wie man Krebs heilt, und sie sagt es dir, oder?

Die kürzestmögliche Antwort sind Simulationen. Die meisten Entdeckungen, die Wissenschaftler heutzutage machen, erfolgen durch die Simulation realer Situationen auf Supercomputern. „Es ist nicht viel anders als bei der Klimamodellierung“, sagt Stevens. „Wir haben Satelliten, die Wolken und Temperatur messen können. Wir können alle möglichen Dinge tun, um Daten über den aktuellen Zustand der Atmosphäre zu sammeln, und wir verfügen über diese Daten, die viele Jahre zurückreichen. Aber um eine Theorie tatsächlich zu testen, etwa.“ Wie empfindlich das Klimasystem auf Veränderungen von Methan oder Kohlendioxid reagiert, muss man simulieren. Man kann nicht rausgehen, die Erde klonen und sagen: „Ändern wir die Zusammensetzung der Atmosphäre und versuchen, sie zu untersuchen.“

Wenn ich nach einem Beispiel für Supercomputersimulationen frage, die Auswirkungen auf die reale Welt haben, verweisen die Mitarbeiter von Argonne auf die Sicherheit von Autos. Erinnern Sie sich an die alten Fernsehwerbespots, in denen Sie ein Zeitlupenvideo eines Autos mit Crashtest-Dummies darin sahen, das mit hoher Geschwindigkeit gegen eine Steinmauer prallte? Nun ja, das ist immer noch die Art und Weise, wie Autohersteller die Sicherheit testen. Aber Autounfälle sind teuer, und die Unternehmen suchen immer nach Möglichkeiten, die Kosten zu senken und gleichzeitig den Schutz zu verbessern. Indem sie zunächst Supercomputersimulationen durchführen, können Autohersteller mehrere Szenarien planen und optimieren, bevor sie ein Auto physisch zum Absturz bringen müssen. In manchen Fällen macht das den Unterschied zwischen dem Bau und der Zerstörung eines einzelnen Autos oder Dutzender davon aus.

In einem Raum des Labors zeigt mir Rao Kotamarthi, der Chefwissenschaftler der Umweltwissenschaftsabteilung von Argonne, auf Projektorbildschirmen verschiedene Computermodelle. Eine davon zeigt den East River, der Manhattan langsam überschwemmt. „Das geschieht für ein Energieunternehmen“, sagt Kotamarthi sachlich. „Wir versuchen also, uns mit einer Überschwemmung zu befassen, die in der Zukunft nur einmal in 50 Jahren auftritt. Sie versuchen herauszufinden, ob ihre Anlagen in einem Szenario des Klimawandels sicher sind. Wir haben dies als Portal entwickelt: Sie können wählen.“ B. eine Stadt oder einen Ort, und erhalten Sie eine Art Auswirkungsanalyse auf die Temperaturen. Und lokale Gemeinden können ihre Widerstandsfähigkeit planen.“ Als Beispiel nennt Kotamarthi die Kernschmelze von Fukushima im Jahr 2011. Supercomputer werden nicht in der Lage sein, Naturkatastrophen wie das Erdbeben und den Tsunami zu verhindern, die das japanische Kernkraftwerk beschädigten, aber die Maschinen könnten Energieanlagen dabei helfen, eine schützende Infrastruktur aufzubauen, damit die Menschheit mit den Auswirkungen des Klimawandels koexistieren kann.

Auf einem Standardcomputer ist das nicht möglich. Nun ja, technisch gesehen könnte man das, aber man würde es nie wollen. „Angenommen, ich wollte die Explosion eines Sterns oder die Entwicklung des Universums berechnen“, sagt Papka. „Kann ich das auf meinem Laptop machen? Ja, ich könnte Code schreiben. Aber meine Simulation ist nicht so genau.“ Dann kommt der Kicker. „Und die Berechnung dauert sieben Leben.“

Katherine Riley, die Wissenschaftsdirektorin der Argonne Leadership Computing Facility, nennt die Astrophysik als Beispiel dafür, was ein Supercomputer wie Aurora leisten kann: „In der Schule wird uns allen beigebracht, dass man ein Atom hat und dass es seine Protonen hat.“ Neutronen und Elektronen um ihn herum. Aber wir wissen, dass es komplizierter ist. Wir wissen, dass es noch viel mehr zur Materie gibt, ganz zu schweigen von diesem bestimmten Atom – es gibt subatomare Teilchen. Das bedeutet also, zu verstehen, wie Materie entstanden ist. Man kann bauen Beschleuniger, und was mit diesen Beschleunigern passiert, ist, dass man riesige Datenmengen erzeugt und dieses Signal aus dem ganzen Rauschen herausholt. Man erstellt ein Modell des Universums, Sie erstellen ein Modell einer Supernova und lassen es brennen. Und Sie versuchen es um das mit dem in Zusammenhang zu bringen, was tatsächlich im realen Universum passiert. Riley geht davon aus, dass Aurora allein aufgrund der Datenmenge, die es verarbeiten kann, in der Lage sein wird, weitaus ausgefeiltere Modelle zu erstellen.

Wissenschaftler tun dies bereits seit vielen Jahren. Das bekannteste Beispiel ist das James-Webb-Weltraumteleskop, das Bilder des tiefen Kosmos mit weitaus detaillierteren Bildern lieferte als sein Vorgänger, das Hubble-Weltraumteleskop, und uns so ein besseres Verständnis der Struktur des Universums ermöglichte. Das Webb-Teleskop und die dazugehörigen Bilder sind allesamt das Ergebnis von Simulationen auf einem Supercomputer.

Auch wenn Exascale-Computing eine ganz neue Grenze der Rechengeschwindigkeit darstellt, die tausendmal schneller ist als die aktuellen Petascale-Supercomputer, heißt das nicht, dass wir plötzlich alle unsere Klima- oder Technikprobleme lösen oder den Ursprung und die Geschichte davon herausfinden können das Universum. Riley weist schnell darauf hin, dass es in der Wissenschaft keine Antworten gibt, sondern nur Teilantworten. Und noch 20 Fragen.

Was sich ändert, ist, wie schnell wir Teilantworten und neue Fragen erhalten. Wenn Sie an all die technologischen Innovationen in unserem Leben denken und daran, wie sehr sie sich mit jedem Jahr beschleunigen, entspricht diese Rate in etwa der ständig steigenden Geschwindigkeit und Kompetenz, mit der wir Computer entwickeln. Martin weist auch darauf hin, dass Exascale-Computing viel stärker von KI abhängig sein wird, was wiederum dabei helfen wird, Computern beizubringen, Funktionen ohne menschliches Eingreifen zu verbessern. Es ist nicht völlig unvernünftig, dass wir eines Tages an einem Punkt angelangt sind, an dem die Supercomputer bessere Versionen ihrer selbst bauen.

Am Ende meiner Zeit bei Stevens ist seine trocken abwischbare Tafel voller Zahlen, Diagramme und Gleichungen. Wir betrachten es beide ruhig und ein wenig verblüfft, aber für ihn ist es nur ein winziger Bruchteil des mathematischen Aufwands, der in die Entwicklung von Aurora geflossen ist. Und Aurora ist nicht der erste Exascale-Computer – das Oak Ridge National Laboratory, etwas außerhalb von Knoxville, Tennessee, brachte im vergangenen Mai Frontier auf den Markt, eine Maschine, die auf der Technologie von AMD und nicht auf der von Intel basiert. (Welches schneller ist, erfahren wir erst bei Auroras Debüt.)

Die ersten ernsthaften Gespräche über Exascale fanden vor 16 Jahren statt, daher frage ich Stevens, ob DOE-Wissenschaftler mit der Arbeit an den nächsten Stufen von Supercomputern begonnen haben: Zettascale (10 hoch 21) und Yottascale (10 hoch 24). Er sagt, dass die Diskussionen tatsächlich begonnen haben, aber er bezweifelt, dass beides innerhalb der bestehenden Architektur von Supercomputern erreichbar ist. Die Herausforderungen sind enorm. Die Anlage zur Lagerung eines Supercomputers im Zetta-Maßstab müsste 50 Millionen Quadratmeter groß sein, und die jährliche Stromrechnung würde eine halbe Milliarde Dollar betragen. Ich weise darauf hin, dass Stevens und seine Kollegen anfangs ähnliche Bedenken hinsichtlich Exascale hatten, aber er erklärt, dass das Problem nicht nur darin besteht, dass wir nicht so groß werden können; Es ist auch so, dass wir nicht so klein werden können.

Die Transistoren, die jeden Chip in Aurora füllen, sind sieben Nanometer groß, eine komische mikroskopische Zahl, die 70 nebeneinander angeordneten Atomen entspricht. Der Bau von Transistoren mit der Breite eines Atoms – so klein wie möglich – ist derzeit unrealistisch, daher ist die einzige Option die Subnanometer-Lithographie. Aus diesem Grund ist das im vergangenen August in Kraft getretene CHIPS- und Wissenschaftsgesetz von Präsident Joe Biden für die künftige Entwicklung von Supercomputern von entscheidender Bedeutung, da die Finanzierung der Mikrochip-Forschung und -Entwicklung von entscheidender Bedeutung für die Aufrechterhaltung der technologischen Innovationsrate des Landes ist. Aber trotzdem, meint Stevens, sind wir weit von Zettascale entfernt: „Sie werden versuchen, so klein zu werden, aber tatsächlich werden sie nicht so klein werden, zumindest nicht in den nächsten 10 Jahren. Ich denke, wir“ Ich bin ungefähr am Limit.“ Als ich Papka frage, was er denkt, sagt er: „Ich werde irgendwo im Ruhestand an einem Strand liegen und mir darüber keine Sorgen machen.“

Supercomputer wie Aurora sind ein bisschen wie Zeitmaschinen. „Diese gemeinsamen Ressourcen, die die Regierung aufbaut, geben uns einen Einblick in die Zukunft“, sagt Stevens. „Die wissenschaftliche Gemeinschaft kann experimentieren, was fünf oder zehn Jahre später für jedermann leicht zugänglich sein wird.“

Es gibt auch Quantencomputing, das theoretisch eine exponentiell schnellere Datenverarbeitung ermöglichen würde, was die Frage aufwirft, ob Supercomputer unnötig wären. Doch Papka hält das für unwahrscheinlich. „Supercomputer helfen uns, Fragen zu beantworten“, sagt er, „und wenn unsere Supercomputer obsolet werden, müssten Sie mir sagen, dass wir keine Fragen mehr haben, dass wir jedes Problem gelöst haben, das es auf der Welt gibt. Und obwohl wir vielleicht.“ Sei egoistisch, ich glaube nicht, dass das jemals wahr sein wird.

Er prognostiziert, dass es wahrscheinlicher ist, dass Quantenbeschleuniger aufkommen werden, die im Einklang mit herkömmlichen Computern arbeiten, ähnlich wie GPUs umfunktioniert wurden, um Supercomputer schneller zu machen. Aber das betritt ein berauschendes Terrain. Papka wirft die Hände hoch, als er sagt: „Wenn ich von der Geschwindigkeit spreche, mit der die Dinge geschehen, kann ich nicht einmal mithalten.“ Und während Fortschritte im Quantencomputing gemacht werden – Argonne betreibt eigene Forschung und Entwicklung – wird es immer noch viele Leute geben, die an der Entwicklung schnellerer und effizienterer Supercomputer arbeiten.

Für Stevens passiert das bei einer Gruppe, die viele von uns verunglimpfen: der Generation Z. „Ich war jung, als ich anfing, daran zu arbeiten, und ich bin nicht mehr jung“, sagt er. „Wir müssen junge Leute dazu bringen, sich damit zu beschäftigen, damit wir jahrzehntelange Fortschritte erzielen können. Der Umfang an Ausbildung und Ausbildung, den die Menschen benötigen, um einen Beitrag zum Supercomputing zu leisten, ist enorm. Das sind Doktoranden, Postdoktoranden und jahrelange Ausbildung.“ "

Dieser Kommentar lässt mich darüber nachdenken, wie Computer mein eigenes Leben geprägt haben. Ich erinnere mich noch an den Tag in den frühen 90er-Jahren, als mein Vater unseren ersten Apple Macintosh mit nach Hause brachte – und an den Ausdruck auf seinem Gesicht am nächsten Tag, als ich versehentlich die Festplatte in den Müll schleppte, was meine Aussichten als Computerprogrammierer vorwegnahm. Das einzige andere Mal, dass ich ihn dieses Gesicht machen sah, war, als unser Aquarium kaputt ging und alle Fische darin starben.

Die bedeutendste nichtmenschliche Beziehung meines Lebens bestand zu Computern. Ich habe die meiste Zeit auf dieser Erde vor einem Bildschirm verbracht, sei es beim Lesen, Schreiben, beim Reden mit anderen Menschen oder – und das ist entscheidend – beim Ablenken. Ich frage mich, inwieweit sich mein Leben verändert hätte, wenn ich in meiner Kindheit und Jugend Computer anders gesehen hätte. In den letzten Jahren habe ich, wie viele andere Menschen auch, die Nutzung sozialer Medien als riesige Zeitverschwendung beklagt, etwas, das ich als perversen Trost suche, der mich aber nur eklig, verbittert und hohl macht.

In dieser Hinsicht ist wissenschaftliches Rechnen nicht nur der Weg zu technologischen Lösungen und einem besseren Verständnis unseres Universums. Es ist auch eine Quelle von Potenzial, eine Möglichkeit, unsere Weltanschauung dahingehend neu auszurichten, dass wir Computer als Mittel für Gesundheit und friedliches Zusammenleben betrachten. Vielleicht ist das zu sentimental, aber rohe Sentimentalität könnte eine bessere Option sein als die blutleeren, ultrakorporativen Kaninchenlöcher des Web 2.0.

Zuvor muss Argonne jedoch noch Aurora einschalten – und die Wissenschaftler wissen nicht genau, was dabei passieren wird. Teile des 500-Millionen-Dollar-Supercomputers funktionieren möglicherweise nicht einmal. Das bedeutet nicht, dass sie es wegwerfen und von vorne beginnen – es werden nur ein paar Optimierungen nötig sein. „Wir sind sozusagen die Seriennummer 1 dieses Supercomputers“, sagt Martin. „Wenn etwas schief geht, verlängert sich [der Start] um eine Woche, einen Monat, vielleicht auch länger.“

Die Strategie besteht darin, Aurora in Teilen zu betreiben. An dem Tag, an dem ich bei Argonne war, sagte Martin, dass sie bereits auf Probleme gestoßen seien, nachdem sie zwei Racks für Stresstests eingeschaltet hatten. Als ich einen Monat später mit Papka Kontakt aufnehme, erwähnt er, dass einige dieser Probleme behoben wurden und dass Wissenschaftler bereits damit begonnen haben, auf diese Racks zuzugreifen, um sich mit dem System vertraut zu machen. Er betont jedoch, dass das volle Potenzial von Aurora erst in einiger Zeit vollständig verstanden werden wird. „Man hat 60.000 GPUs zusammengestellt, das hat noch nie jemand gemacht“, sagt er. „Wie verhält sich die Software? Solange man sie nicht hat, kann man sie nicht einmal ansatzweise verstehen.“

Es gibt noch so viele Unbekannte. Jetzt wissen wir nur, dass es die Zukunft sein wird.