Mit Georedundanz ist gemeint, dass zwei oder mehr autarke Rechenzentren an verschiedenen Standorten betrieben werden, um auch im Katastrophenfall die Datenverfügbarkeit gewährleisten zu können.
Denn nicht nur Cyberkriminelle gefährden die Datensicherheit – auch im Falle einer Naturkatastrophe drohen folgenschwere Systemausfälle.
Georedundanz – für den Fall der Fälle
Was in der Corona-Pandemie für die Menschen galt, gilt für Rechenzentren idealerweise immer: Abstand halten. Und das aus gutem Grund, denn die Gefahr durch Naturkatastrophen – um nur ein Beispiel zu nennen – steigt. Das Bundesministerium für Sicherheit in der Informationstechnik (BSI) hat zu diesem Zweck ein offizielles Dokument mit dem klangvollen Titel „Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren“ veröffentlicht. Es hat einen gesetzlich bindenden Charakter.
Das Dokument enthält einen Fahrplan, der unter anderem den Mindestabstand zwischen Datacentern regelt. Selbiger wurde übrigens zuletzt vor guten drei Jahren auf mittlerweile 200 Kilometer vergrößert. Der Grund hierfür waren Naturkatastrophen wie beispielsweise das Jahrhunderthochwasser der Elbe von 2013 (das Hochwasser im Ahrtal lag damals noch in der Zukunft) oder die Brandkatastrophe beim Webhoster OHV im Jahr 2021. Neben Klimakatastrophen und Elementarschäden soll die Verordnung auch die maximale Datenverfügbarkeit gewährleisten, wenn beispielsweise Wartungsarbeiten anstehen.
Die Grundsatz-Idee: Je größer der Abstand zwischen den einzelnen Rechenzentren, desto unwahrscheinlicher ist es, dass beide von der gleichen Bedrohung betroffen sein können.
Georedundante Rechenzentren: Nicht Kür, sondern Pflicht
Nicht zuletzt aufgrund der Digitalisierung und der wachsenden Anzahl der Cloud-Nutzer, hat die Sicherstellung der Datenverfügbarkeit höchste Priorität. Bedenkt man nur, wie viele Milliarden Euro und Dollar Schaden durch Systemausfälle verursacht werden, die auf Cyberattacken basieren, wäre es ein Unding, nichts in puncto Prävention hinsichtlich anderer Risiken zu unternehmen.
Georedundanz ist daher notwendig und stellt eine Art Notfall-Plan auf Bundesebene dar. Das ändert natürlich nichts an der Notwendigkeit, dass jedes Unternehmen auch für sich selbst einen „Disaster and Recovery“-Plan bzw. ein IT-Notfallhandbuch besitzen sollte. Dennoch ist es ja ganz beruhigend zu wissen, dass die Regierung in diesem Fall ihre Hausaufgaben gemacht zu haben scheint.
Ziel und Zweck der georedundanten Rechenzentren ist es, auf den Fall der Fälle vorbereitet zu sein. Heißt: Fällt ein Rechenzentrum aus, übernimmt ein anderes (oder gleich mehrere). Damit soll die Datenverfügbarkeit auch in Katastrophenfällen sichergestellt sein. Das gilt natürlich nicht für Lieschen Müllers privates WLAN, sondern für vor allem für Behörden, Institutionen und große Unternehmen, deren Datenverfügbarkeit von großer Relevanz für die Gesellschaft ist.
BSI verschärft Auflagen
Das BSI hat im Laufe der Jahre mehrfach an seinen Vorgaben geschraubt. Besonders Präventionsmaßnahmen für ein plötzlichen Eintritt von Naturkatastrophen standen dabei ganz oben auf der Agenda. Hier einige Beispiele für Szenarien, in denen der Mindestabstand zwischen zwei Rechenzentren die Rettung sein kann:
- Überflutungen und Hochwasser
- Erdbeben
- Sturm
- (Wald-)Brände
Die BSI-Verordnung geht allerdings noch weiter. So darf beispielsweise nur ein Rechenzentrum in der Nähe eines großen Flusssystems betrieben werden, gleiches gilt für Standorte in der Erdbebenzone 1 oder einer Windzone 4. Zudem darf sich auch nur maximal ein Georedundanz-Datacenter innerhalb eines Netzsegmentes der obersten Netzebene befinden.
Die ganze Verordnung erstreckt sich sogar bis hin zum Thema Verpflegung der Angestellten. So gilt beispielsweise auch: Beauftragen georedundante Rechenzentren denselben Caterer, dürfen die Speisen für mehr als ein Rechenzentrum nicht in derselben Küche zubereitet werden.
Georedundanz birgt Herausforderungen
So ehrbar und gut die Absichten des BSI auch sind: Die Umsetzung der mitunter strengen Vorgaben birgt durchaus viele Herausforderungen und Stolpersteine. Angefangen bei Signallaufzeiten, die standortübergreifend im Milli- statt im Mikrosekundenbereich liegen, bis hin zu der Frage, wann und wie unterschieden wird, ob ein Standort nur als Notfall- bzw. Ausweichstandort fungiert oder grundsätzlich alle Standorte im Lastverteilungsmodus laufen müssen.
Die Themen Kontinuität, Verfügbarkeit und Datensicherheit sind auch relevant für die so genannten Trust Service Provider. Dabei handelt es sich beispielsweise um Anbieter für die Ausstellung von digitalen Zertifikaten oder die Erstellung digitaler Signaturen. Das Problem hierbei: Kommt es zu einem Datenverlust einschließlich digital signierter Dokumente, kann der Provider selbst in die Haftung genommen werden. Für die Anbieter selbst ist die Georedundanz derzeit noch nicht vorgeschrieben, das kann sich mit der eIDAS-Reform allerdings noch ändern.
Wichtig für Unternehmen: Sie müssen im Fall der Fälle und im Rahmen der gesetzlichen Aufbewahrungsfrist (bis zu 30 Jahre) Nachweise über den technischen Vorgang hinter einer Signatur vorlegen können.
Datensicherheit in Unternehmen
Unsere Experten aus dem IT-SERVICE.NETWORK haben zwar keinen Einfluss auf georedundante Rechenzentren, unterstützen Unternehmen dafür aber dabei, ihre hauseigenen IT-Notfallpläne zu erstellen und umzusetzen. Ob Maßnahmen zur Gewährleistung der bestmöglichen Ausfallsicherheit, die Implementierung eines professionellen Backup-Managements oder eine gezielte Schwachstellenanalyse: Unsere erfahrenen IT-Dienstleister sorgen dafür, dass sämtliche Daten so gut wie nur irgend möglich geschützt sind und bleiben.
Nehmen Sie gern gleich Kontakt zu einem unserer Partner in Ihrer Nähe auf und lassen Sie sich unverbindlich beraten.
Weiterführende Links:
ComputerWoche, Datacenter Insider
Schreiben Sie einen Kommentar
* = Pflichtfelder
Bitte beachten Sie unsere Datenschutzerklärung