Das digitale Herz der FAU
Serie über besondere Orte an der FAU: die Serverräume des Regionalen Rechenzentrums Erlangen
Der Ausflug in die heiligen Hallen der FAU beginnt mit einem Blick zurück in die Zeit der Computerpioniere. Ort: das Regionale RechenZentrum Erlangen (RRZE) an der Martensstraße. Schon durch die Glastür in der zweiten Etage lässt sich Konrad Zuses legendäre Z23 erspähen. Sie war nicht nur die erste elektronische Rechenanlage der FAU, sondern ist weltweit einer der Rechenknechte des Computerpioniers, die überhaupt noch funktionstüchtig sind. Marcel Ritter schließt die Tür auf und sagt: „Mehr als 30 Jahre lang lief sie nicht. Dass die Maschine jetzt hier steht, und zuverlässig läuft, haben wir Edwin Aures und Volkmar Sieh aus der Informatik zu verdanken.“ Heute ist das gute Stück Teil von ISER, der Informatik-Sammlung Erlangen. Legt die Z23 los, rattert und röhrt es gewaltig. „Wenn sie anläuft, hat es was von einem Düsenjet“, meint Ritter. Etwas Magisches hafte diesen Rechenvorgängen an, sagt er.
Und damit ist Marcel Ritter, der Abteilungsleiter für Zentrale Systeme an der FAU, schon an einem ganz besonderen Ort der Universität angekommen: den Serverräumen im RRZE, dem digitalen Herz der Universität. Magisch ist in den Räumen wenig. Dafür gibt es Rechenleistung satt. Hier laufen die Server der universitären IT-Infrastruktur, von hier aus werden „unsere Kunden“ bedient, wie Ritter sagt. Dazu gehören IT-Dienstleistungen für Studierende und Mitarbeiter, aber auch eine zunehmende Anzahl von Lehrstühlen, die ihre IT nicht mehr selbst administrieren wollen.
Als 1968 das FAU-Rechenzentrum gegründet wurde, wurde der Betrieb über eine saalgroße US-amerikanische Rechenanlage vom Typ Control Data (CDC) 3300 abgewickelt. Noch in den 1970er Jahren liefen „Operateure“ im weißen Kittel eilfertig umher. Heute plant und betreibt das RRZE im Serverraum, der scherzhaft „Bunker“ genannt wird, einige der wichtigsten Komponenten des Wissenschaftsnetzes der Universität. Hier laufen sprichwörtlich die Drähte zusammen: zum Beispiel der Datenverkehr von mehr als 50.000 Studierenden und Mitarbeitern, verteilt auf über 200 Gebäudegruppen in fünf Städten. Oder das WLAN der FAU. „Im WLAN sind mittlerweile regelmäßig mehr als 10.000 Nutzer gleichzeitig unterwegs“, erzählt Ritter. Die Studierenden werden dabei über mehr als 1200 Access Points versorgt. Ebenfalls im RRZE beheimatet ist auch der hochverfügbare Internetanschluss an das deutsche Forschungsnetz des DFN-Vereins mit einer Geschwindigkeit von bis zu 10.000 Mbit/s.
Die Reihen der Netzwerkschränke in den heiligen Hallen sind lang, es gibt jede Menge Server, die unterschiedlichste Aufgaben im Bereich Datenverarbeitung und -speicherung übernehmen. „Normalerweise kommt hier keiner rein“, sagt der Informatiker. Nur, wenn mal eine Festplatte oder ein Netzteil ausgetauscht werden muss. „In 99 Prozent der Fälle muss man nicht in den Serverraum, um ein Problem zu lösen.“
Betritt man den Serverraum, rattert es zwar nicht wie bei der Zuse Z 23, doch es dröhnt enorm: Die Lüftungs- und Kühlsysteme laufen auf Hochtouren. Ideal, so erzählt Ritter mit einem Augenzwinkern, um davor regendurchnässte Kleidung zu trocknen. Richtig warm ist es aber nicht. Es sei denn, man öffnet die rund zehn Zentimeter massive wassergekühlte Tür des Hochleistungsrechners Emmy. „Da kommen 35 bis 40 Grad raus.“ „Bei den neueren High-Performance-Computing-Systemen wird Kühlwasser direkt an die Racks, also an die Serverregale, herangeführt, da die Energiedichte über den Raum sonst nicht abgeführt werden kann.“ Apropos Supercomputing. Was 2003 mit einem Linux-Cluster begann, der 776.000.000.000 Rechenoperationen pro Sekunde bewältigte, ist heute längst getoppt. „Die beiden Hochleistungsrechner Emmy und LiMa haben eine Gesamtrechenleistung von 300 Teraflops“, sagt Ritter stolz.
Computerspiele? Fehlanzeige!
Alle fünf Fakultäten der FAU nutzen die Hochleistungssysteme (HPC). Klar, dass bei den Geistes- oder Wirtschaftswissenschaftlern weniger Rechenzeit verbraucht wird als bei den Biologen, Physikern oder Werkstoffwissenschaftlern. Und es verwundert nicht, dass allein der Exzellenzcluster EAM, der sich mit der Erforschung und Entwicklung neuartiger Hochleistungsmaterialien und Prozesse beschäftigt, mehr als die Hälfte der Rechenzeit einfordert. Von den Superrechnern enttäuscht sind allerdings manche Schulklassen, wenn Ritter ihnen bei Führungen erklärt: „An HPC-Clustern kann man keine Games spielen, sie haben weder Grafikkarte noch Videoausgang.“
Woanders sind Serverregale in einer „Kaltgang-Einhausung“ untergebracht, einem Raum im Raum. „Bei diesem Klimakonzept wird kühle Luft aus dem darunter liegenden Doppelboden angesaugt und zur Kühlung der Serversysteme verwendet. Die Abwärme wird dann nach außen abgegeben.“
Marcel Ritter hat im Serverraum alles im Griff. Wirklich alles? Was, wenn doch einmal der Strom ausfällt? „Dann können wir alle Server, ausgenommen die HPC-Knoten, circa zehn Minuten lang mit unserer unterbrechungsfreien Stromversorgung überbrücken“, sagt Ritter. Dauert der Stromausfall länger, so übernimmt die Netzersatzanlage, ein Notstromdieselaggregat, die Energieversorgung. Für den denkbar schlechtesten Fall ist Marcel Ritter mit seinem Team also gewappnet – mit einer kleinen Einschränkung: „Das System, das schlimmstenfalls komplett ausfallen kann, ist die Kaffeemaschine.“
Diesen Beitrag – und viele weitere spannende Texte rund um das Thema Sinne und Sinneswahrnehmung – finden Sie in der 100. Ausgabe des Uni-Magazins alexander.