Web Cyberfahnder
über Suchmaschinen und -strategien
  Cybercrime    Ermittlungen    TK & Internet    Literatur    intern    Impressum 
April 2010
15.04.2010 Kritische Infrastrukturen
     
zurück zum Verweis zur nächsten Überschrift Dominoeffekte
 

 
 
Der Blackout 2003 in Italien zeigt diesen Zusammenhang eindrucksvoll. Ein einzelner Kraftwerksfehler wirkte sich nicht nur auf die umgebende Stromversorgung, sondern auch auf Internet und Kommunikationskanäle aus. Dadurch kam es wiederum zu Folgefehlern in weiteren Netzknoten. Kaskadenartig konnte sich der Fehler fortpflanzen und weite Teile der gesamten Infrastruktur lahmlegen. (1)
 
 

 
Israelische und amerikanische Mathematiker haben die Auswirkungen von Störungen in vernetzten Systemen untersucht (1). Sie kommen zu dem nahe liegendem Ergebnis, dass sich Störungen besonders über Netzwerkknoten (Gateways) fortpflanzen und dadurch angeschlossene Systeme bedrohen können.

Diese Erkenntnis ist nicht so ganz neu. Kritische Infrastrukturen müssen so ausgelegt sein, dass sie einerseits Doppelsysteme im Interesse der Kosten und des Pflegeaufwandes möglichst vermeiden und andererseits im Interesse der Ausfallsicherheit redundante Netzverbindungen und Datensicherungen vorhalten.

Telekommunikation und Internet nutzen im großen Maßstab dieselben Kabel, die die Carrier zur Verfügung stellen. Im Endeffekt unterscheiden sie sich nur dadurch, welche Verarbeitungsprotokolle verwendet werden. Als im Februar 2008 mehrere Seekabel im Mittelmeer gestört waren, mussten indische Callcenter ihre Dienste anders herum über den Globus über die USA-Netze für Europa anbieten. Das war zwar teurer, funktionierte aber.

Die Steuerungen für Strom- und andere Versorgungsnetze nutzen inzwischen fast ausschließlich die Infrastrukturen der Telekommunikation. Wenn diese ausfallen, dann funktionieren auch die anderen Versorgungen kaum oder gar nicht mehr.
 

 
Dem entgegen wirken können die Betreiber nur mit einer Risikoanalyse und ihrer Umsetzung, die nicht nur die wirtschaftliche Effizienz zugrunde legen, sondern auch die Ausfallsicherheit, auch wenn sie Mehrkosten verursacht.

Die Deutsche Telekom verfügt über drei Standorte für alle Daten, die ihr intelligentes TK-Netz steuern - so mein Kenntnisstand aus einer öffentlichen Quelle von vor 4 Jahren. Wer ihre Standorte ausfindig macht, der könnte, rein hypothetisch, die deutsche Telekommunikation (einschließlich Internet) lahmlegen.

Das klassische Internet beruht auf der Philosophie, dass bei einem Atomkrieg die Kommunikation durch ein verzweigtes Netz geführt werden kann, wobei ausgefallene Teile umgangen werden können. Die Idee ist gut und muss weg von den Datenwegen auch auf die Datenspeicher übertragen werden.

Die Alternative dafür sind die Peer-to-Peer-Netze. Sie verwalten - hoffnungslos redundant und unwirtschaftlich - Daten an vielen verschiedenen Orten. Es handelt sich dabei aber um die Nutzdaten und nicht um die Logik, um sie sichtbar oder anderweitig nutzbar zu machen.
 

zurück zum Verweis Information und Verwertung
 

 

 
Das ist genau das Problem. Die Informationsverarbeitung hat zwei Basen, die Information als solche und die Decodierung, durch die sie erst Sinn bekommt. In der Decodierung stecken wiederum mindestens zwei Funktionen: Die Lesbarkeit und die Verarbeitungsfähigkeit. Ich mag Informationen als solche wahrnehmen können. Wenn sich mir ihr Sinn verschließt, sagen sie mir nichts.

Oracle ist ein Beispiel für die zentralisierte und gleichzeitig geniale Datenverarbeitung.

Unter Betrachtung kritischer Infrastrukturen sind zentrale Datenverarbeitungsinstanzen eine Katastrophe. Wenn sie ausfallen, dann fällt alles aus. Sie fordern redundante Datenspeicher, redundante Verarbeitungssysteme und für den Extremfall (einer großen Katastrophe) einfache, vielfach und weit verteilte Pilotsysteme, die zunächst die Aufgabe haben, Informationen verarbeiten zu müssen, sich dazu vervollständigen müssen, die Daten wahrnehmen und dann auch sinnvoll verarbeiten müssen.
 

 
Die Leistungsfähigkeit der modernen Datenverarbeitungszentren sind beachtlich. Wenn ich mir die redundanten und wirklich professionellen Einrichtungen der Banken für das Autorisierungs- und Kontenverwaltungsverfahren vor Augen führe, dann kann ich nur sagen: Hut ab (Chapeau).

Für den ganz großen Crash ist ihre Strategie hingegen ungeeignet. Er greift die Infrastruktur als solche an. Ihm zu begegnen verlangt nach einer Dezentralisierung, also nach einer Netzunabhängigkeit im großen Maßstab. Die Vorgaben für den EMV-Chip für Zahlungskarten, die eine Gegenprüfung anhand der Daten auf dem Chip gegen die PIN vorsehen, die die Kunden eingeben müssen, zeigen den richtigen Weg.

Wir müssen weg von der zentralen Intelligenz, die die Sicherheit verarbeitet, hin zu einer kombinierten Sicherheit, bei der die Schussentscheidung über einen Verarbeitungsvorgang dezentral autorisiert wird.

zurück zum Verweis Anmerkungen
 


(1) Jan Oliver Löfken, Vom Schaltfehler zum Blackout: Wie fragil ist unsere Infrastruktur? wissenschaft aktuell 15.04.2010

 

 

zurück zum Verweis Cyberfahnder
© Dieter Kochheim, 08.03.2011