Startseite: Blog Tec-Trends > Netzwerk > Rückgrat der Digitalisierung: Wie arbeiten moderne Rechenzentren?

Rückgrat der Digitalisierung: Wie arbeiten moderne Rechenzentren?

Geht es um die großen Themen unserer Zeit, rückt die Digitalisierung schnell in den Fokus. Ob Klimawandel oder Kommunikation, Medizin oder Mobilität, Investment oder Industrie: Mit ihren exponentiell wachsenden Datenmengen bestimmt die digitale Welt samt Big Data und KI immer mehr unser Leben. Über die Rechenzentren spricht man dagegen eher selten. Dabei sind sie nichts weniger als das Zuhause des Internets. Grund genug, sich ihre Funktionsweise einmal genauer anzusehen.

Gorodenkoff/shutterstock.com

Bricht man das Bild vom Wohnort des Internets auf die Hardware herunter, bedeutet es: Data Center beheimaten eine hochkomplexe, von Baugruppenträgern strukturierte Rechentechnik aus einer großen Zahl an Servern mit noch mehr Komponenten wie Prozessoren, Switches, Speichern, Mainboards, Festplatten und aktiv konzipierten Appliances wie Firewalls oder Router sowie passiven Netzwerkteilen ohne eigene Stromversorgung wie etwa Kabel.

Doch dies ist nur die eine, für die konkreten Rechen- und Speicheroperationen verantwortliche Seite der Medaille. Die andere besteht aus einer speziellen Infrastruktur, die diese Arrangements ergänzt und einhegt. Sie dient dem reibungslosen Betrieb und setzt sich beispielsweise aus Kühlaggregaten, Brandschutzeinrichtungen, Energieversorgungssystemen und Sicherungstechnologien zusammen.

Rund 50.000 solcher Rechenzentren soll es in Deutschland geben, wobei nicht eindeutig definiert ist, ab welcher Größe dieser Begriff infrage kommt. Streng genommen lässt sich sogar ein einzelner Serverschrank darunter fassen. Klar ist allerdings, dass sich Rechenzentren immer mehr zu wahren Giganten entwickeln. Aus den Hosts im betrieblichen Umfeld von einst sind oftmals externe Data Center von mehreren tausend Quadratmeter Fläche geworden, die als Colocation-Anbieter Cloud-Lösungen – also Speicherplatz, Rechenleistung und Anwendungssoftware auf Internetbasis – zur Verfügung stellen.

Nicht wenige dieser Spezialisten sind jüngst rapide gewachsen. Die im potenten Segment des High Performance-Computings (HPC) weltweit operierende Northern Data AG aus Frankfurt am Main ist ein gutes Beispiel dafür. Das aus zwei Vorläufergesellschaften 2020 entstandene Unternehmen zählt heute bereits zu den führenden Anbietern. Der exakt anforderungsgerechte Zuschnitt der Anlagen und der Einsatz proprietärer Technologien stellen dafür die Basis. So skaliert die Software der Frankfurter im Multicloud-Umfeld automatisiert über Rechenzentren hinweg: Wird eine höhere Kapazität benötigt, starten Server automatisiert nach, fällt ein System aus, übernehmen andere dessen Aufgabe. Auf diese Weise können Anwendungen und Workload zwischen Rechenzentrumsteilen oder ganzen Rechenzentren verschoben werden.

Gorodenkoff/shutterstock.com

Data Center müssen nicht nur riesige Datenmengen in Echtzeit verarbeiten, speichern und analysieren, damit Chatdienste betrieben, Stürme vorhergesagt, Aktientrends berechnet, neue Produkte getestet oder Impfstoffe entwickelt werden können. Sie müssen dies auch mit maximaler Sicherheit tun, weil Datenverluste immense Schäden bedeuten. Das heißt in erster Linie: Die Energiezufuhr ist essentiell. Aussetzer jenseits von Millisekunden sind von einer unterbrechungsfreien Stromversorgung (USV) abzufangen, die man sich als gigantischen Akku denken kann. Da die USV jederzeit verfügbar sein muss, müssen diese Batterieblöcke ständig mit hohem Aufwand betriebsbereit gehalten werden.

Doch auch das öffentliche Stromnetz kann ausfallen. Rechenzentren haben deswegen zusätzlich eine eigene Notstromversorgung in Form eines Dieselgenerators, der Treibstoffreserven und permanentes Vorheizen verlangt. So zeigt sich etwa: Ein Youtube-Clip ist viel mehr als nur ein kleiner Film auf der Bildschirmoberfläche; er ist das Ergebnis enormer Anstrengungen im Hintergrund.

Betrachtet man große Rechenzentren rein physikalisch, gleichen sie riesigen Flächenheizungen, weil dicht gepackte Prozessoren stark erhitzen. Eine effiziente Kühlung dieser zum Teil viele zehntausend Mal eingesetzten CPUs und GPUs ist deswegen eine weitere Herausforderung – nicht selten verschlingt allein dieser Vorgang ein Drittel der eingesetzten Energie. Dass bis zu 20 Prozent der Baukosten von Data Center auf ausgetüftelte Kühlungssysteme fallen, ist so verständlich.

Im Einsatz sind verschiedene Methoden wie insbesondere die Luftkühlung, bei der die Racks so positioniert werden, dass Warm- und Kältegänge entstehen und die mechanisch erzeugte Kaltluft über einen Doppelboden von unten zugeführt wird. Aufwendiger, aber auch effektiver arbeitet dagegen die Wasserkühlung, die direkt an den Prozessoren ansetzt.

Der Einfluss des Klimas auf den Kühlungsbedarf kann sehr ausgeprägt sein. Auch dies lässt sich am Beispiel von Northern Data illustrieren. Der HPC-Spezialist profitiert von der Witterung an verschiedenen Standorten wie etwa jenen in Skandinavien, wo er nicht nur zu 100 Prozent mit erneuerbaren Energien arbeitet, sondern auch ein innovatives Kühlungsmanagement betreibt. Es besteht großenteils aus einer passiven Kühlung dank niedriger Außentemperaturen. Zum Beispiel in der Region eines Rechenzentrums in Nordschweden: Gerade einmal 1,3 Grad warm wird es dort im Jahresschnitt.

Unabhängig von diesen regionalen Vorzügen, die Northern Data mit mobilen Anlagen gezielt nutzen kann, sind es jedoch KI-basierte Steuerungstechnologien für ein innovatives Monitoring der Cluster, die Rechenzentren in puncto Energieeffizienz und Leistung immer besser machen werden. Northern Data, das im Gegensatz zu klassischen Colocation-Anbietern die Hardware und die Virtualisierungsschicht selbst betreibt, setzt sie schon heute ein.

Ein Kommentar

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.