News Beiträge

Hochverfügbare Rechenzentren: Alles eine Frage der Redundanz.

Ausfallsicherheit ist immer auch eine Abwägungssache: Klar ist, dass Betriebsunterbrechungen in einem Rechenzentrum Geschäftsprozesse zum Stillstand bringen. Und das kostet Geld. Geld kosten aber auch hochverfügbare Systeme. Was also zählt bei einem betriebssicheren und gleichzeitig wirtschaftlichen Rechenzentrum? 

Ausgangspunkt aller Überlegungen ist die Frage nach dem Grad der Ausfallsicherheit. Bestimmt gibt es Unternehmen, die es verschmerzen, wenn Mitarbeiter eine halbe Stunde lang auf E-Mails, Internet oder Datenzugriff verzichten müssen. Ganz anders sieht es im Handel aus, also beispielsweise bei hoch frequentierten Online-Shop – oder noch dramatischer im Bereich Gesundheit, also beispielsweise in Krankenhäusern. Da zählt buchstäblich jede Minute.

Eine Verfügbarkeit von 99,9 Prozent, um ein Beispiel zu nennen, reicht dafür definitiv nicht aus. Denn das entspricht einer Ausfallzeit von fast neun Stunden pro Jahr oder knapp 44 Minuten pro Monat. Ziel müsste dagegen sein, eine Verfügbarkeit von 99,99 Prozent sicherzustellen – was wiederum eine Ausfallzeit von 53 Minuten pro Jahr beziehungsweise rund 4 Minuten pro Monat bedeutet. Ein kalkulierbares Risiko. 

Die magischen fünf Neunen

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) spricht ab 99,99 Prozent von Hochverfügbarkeit. Höchstverfügbarkeit dagegen beginnt bei den magischen fünf Neunen. Bei 99,999 Prozent rechnet das BSI mit einer jährlichen Ausfallzeit von weniger als sechs Minuten. 

Keine Frage: Eine Verfügbarkeitsangabe in Prozent sagt nichts darüber aus, wie sich die Ausfallzeit tatsächlich über das Jahr verteilt. Ein System, das beispielsweise jede Stunde für eine Sekunde nicht zu erreichen ist, kommt rein rechnerisch auf eine deutlich geringere Verfügbarkeit als ein System, das eine halbe Stunde am Stück ausfällt. Dennoch kann die „Sekunden“-Variante je nach Einsatzbereich die bessere sein.

Was also tun, um Ausfällen entgegenzuwirken – sei es nun wegen eines Hardware-Defekts beziehungsweise eines Bedienfehlers oder wegen Stromausfällen, Cyber-Attacken und Umweltkatastrophen? Ganz einfach: Redundanz herstellen – also das mehrfache Vorhandensein von Komponenten. Damit lassen sich zwar Risiken vermeiden. Redundanz kostet aber auch Geld.

Mindestens alles doppelt

Streng genommen müssten sämtliche Komponenten mindestens doppelt vorhanden sein – wenn nicht sogar das komplette Rechenzentrum. Das allerdings lohnt sich nur bei wirklich hohen Anforderungen und einem ganz bestimmten Teil von Daten und Anwendungen. Deshalb stehen im Prinzip drei Fragen im Mittelpunkt: Welche Systeme müssen wie verfügbar sein und welche Datenverluste wären hinnehmbar?

Die Antworten liefern die Basis für die Erstellung und Umsetzung eines Disaster-Recovery-Konzept – idealerweise in Zusammenarbeit mit einem erfahrenen Partner wie Dell Technologies. Denn Unternehmen neigen dazu, das Wachstum ihrer IT-Infrastruktur zu unterschätzen. Gerade Komponenten wie Kühlung und USV sind dann schnell unzureichend dimensioniert.

Ein Profi wiederum hat das Wissen – Stichwort: Best Practices – und die Erfahrung – Stichwort: typische Fehlerquellen wie etwa den hohen Schalldruck der Sirenen von Brandmeldeanlagen. Der nämlich ist in der Lage, Erschütterungen der IT-Systeme auszulösen, die schlimmstenfalls zu Festplattenaussetzern führen.

Um also eine hohe Verfügbarkeit zu erzielen, bietet es sich an, durch Brandschutzwände getrennte Server-Räume oder am Firmenstandort zwei separate Rechenzentren einzurichten. Die Ausstattung muss dabei nicht identisch sein: Das primäre System arbeitet beispielsweise mit moderneren Komponenten, das sekundäre mit älteren. Aus Kostengründe, versteht sich.

Auch räumlich getrennt

Das BSI rät übrigens bei zwei Rechenzentren zu einer räumlichen Trennung von mindestens 200 Kilometern – in erster Linie, um vor Umweltkatastrophen geschützt zu sein. Die sogenannte Georedundanz hat aber nicht selten zur Folge, dass die Latenz bei Datenübertragungen steigt, was die synchrone Spiegelung von Daten unmöglich macht. 

Auch wenn Unternehmen mit mehreren Standorten über die räumlichen Kapazitäten  verfügen, entstehen durch den Aufbau und den Betrieb eines zweiten Rechenzentrums hohe Kosten. Deshalb sorgen Colocation Provider für eine interessante Alternative. 

Warum? Weil sie nicht nur über eine sehr hohe Betriebssicherheit garantieren, sondern in der Regel auch über eine sehr gute Internetverbindung mit niedriger Latenz verfügen. Und selbst die Cloud kommt inzwischen in vielen Hochverfügbarkeits-Szenarien zum Einsatz – unter anderem um kurzfristig Rechen- und Speicherkapazitäten zu liefern. 

Ein Plan für den Notfall

Ganz unabhängig von der individuellen Redundanz-Lösung: Die Verfügbarkeit von IT-Systemen steht und fällt mit entsprechenden Notfallplänen. Darin ist festzulegen, welche Maßnahmen in einem Ernstfall einzuleiten sind, wer sie umsetzt und wer die Verantwortung trägt. Auch gilt es, den Notfall zu üben und die Maßnahmen zu testen. Das gibt Sicherheit. So oder so.

Hochverfuegbarkeit_Grafik.jpg