Warum Rechenzentren äußerst prekäre Orte für die mittel- und langfristige Aufbewahrung von Wissen in digitaler Form sind.

Professionell gewartete Rechenzentren gelten im Allgemeinen als gesicherte Orte, denen man digitale Daten zur sicheren Verwahrung anvertrauen kann. Ich bin noch eine genauere Erklärung schuldig, warum ich in meinem Beitrag vom 19. Februar d.J.

https://duskofdigital.wordpress.com/2014/02/19/warum-digitalisierung-filme-nicht-rettet/

meinte, dass Rechenzentren – ganz allgemein – der „Allerhöchste und Alleranfälligste aller denkbar prekären Orte für die Archivierung von Digitalisaten“ seien.

Eine Erklärung hinausgehend über die bereits notierte zwingende Notwendigkeit und Gefährdung des Nachschubs an Speicher- und Rechnerkomponenten im derzeit noch funktionierenden globalisierten Welthandel und der auf ihm basierenden internationalen Arbeitsteilung mit konvertiblen Geldwährungen und einem funktionierenden internationalen Zahlungsverkehr.

Warum also — trotz allen möglicherweise umsichtigen Back-Up-, Fall-Back- und Sicherheitsstrategien und auch bei aller professionellen Servicequalität zur Aufrechterhaltung des Betriebs von Rechenzentren — aufgrund der erzielten Skalierung und des dadurch ermöglichten Konzentrationsgrades dieser Infrastrukturort grundsätzlich und gänzlich ungeeignet ist, für eine mittel- und langfristige Aufbewahrung von Wissen in digitaler Form zu sorgen.

Dazu ist es noch einmal notwenig, zunächst zum 24. Oktober 2013 zurückzukehren. An diesem Tag kommentierte der Deutschland-Kenner im Journalistenstab der New York Times, Roger Cohen „The Handyüberwachung Disaster“, das Bekanntwerden des Abzapfens von Gesprächen unserer Bundeskanzlerin auf ihrem Cellphone durch die Snowden-Dokumente.

http://www.nytimes.com/2013/10/25/opinion/international/the-handyuberwachung-disaster.html

Es gehört nun nicht viel kongnitive Leistung dazu, die US-Amerikanische Politik im Allgemeinen und die US-Amerikanische Außenpolitik im Besonderen mit ihrer Abwendung von Europa und ihrer Hinwendung zur Asiatisch-Pazifisch-Australischen Sphäre der letzten Jahre als strohdoof zu bezeichnen. Allerdings schätze ich an Roger Cohen eben sein offenes Ohr und seinen scharfen analytischen Verstand, am Syrien-Konflikt des Jahres 2013 die geopolitische Not des Europäischen Kontinents für das Jahr 2014 mit der Ukraine und Moldawien bereits definitiv benannt haben zu können.

„Putin, to the Germans, appeared much more powerful than Obama. His strengthened international standing after America’s Syrian back-and-forth worries a Germany focused on bringing East European nations like Ukraine and Moldova into association accords with the E.U.“

und Roger Cohen weiter:

„Geopolitics on this continent is not dead.“

Wie schnell also latent schwelende Konflikte des Kontinents akut mit der Gefahr von heraufziehenden territorialen Auseinandersetzungen werden können, haben wir heute, am 27. Februar 2014, an der Nachrichtenlage, unsere Europäische Nachbarschaft betreffend, sehen können.

Tomasz Konicz bei Telepolis in seinem heutigen Beitrag „Geopolitisches Déjà-vu“:

„Kurz vor dem hundertsten Jahrestag des Beginns des Ersten Weltkrieges verzetteln sich die Großmächte somit erneut in einem geopolitischen „Great Game“ um Einflusssphären und Macht, das ein schwindelerregendes Eskalationspotenzial aufweist. Manches ändert sich im Kapitalismus halt nie. Es stellt sich nur die Frage, ob die Politiker, die zur Eskalation dieser Krise beigetragen haben, auch die „Verantwortung“ für deren eventuelle Folgen übernehmen werden.“

http://www.heise.de/tp/druck/mb/artikel/41/41112/1.html

Diese Entwicklung kommt nicht aus heiterem Himmel und völlig überraschend. Alle drei maßgeblichen zeitanalytischen Buchtitel der letzten Jahre benennen drohende Kriegshandlungen als große reale Gefahr, die die Globalisierung der letzten Jahrzehnte zunichte zu machen in der Lage ist.

Sowohl bei Jacques Attali in „Die Welt von Morgen. Eine kleine Geschichte der Zukunft“ aus 2007/2008 mit seinen Begriffen von „Hyperimperium“ und „Hyperkonflikt“:

http://www.parthasverlag.de/buch/die-welt-von-morgen-127.html

als auch bei Karin Kneissl mit „Die zersplitterte Welt. Was von der Globalisierung bleibt“ von 2013 im Zusammenhang von Kriegen mit Staatspleiten:

http://www.braumueller.at/shop/catalog/product_info.php?products_id=2304&osCsid=9s4224jubdcb3glasohr1ds555&navsection=2&navsection=2

als auch bei Thomas Grüters „Offline! Das unvermeidliche Ende des Internets und der Untergang der Informationsgesellschaft“ von Ende 2013 mit den sehr in der Wirklichkeit potentiell stattfindenden „Hightech-Kriegen“ im Duopol-Auslöser von Wirtschafts-/Währungskrise und Lebensmittel-Preisverteuerung/-Versorgungskrise:

http://www.thomasgrueter.de/thesenpapier.pdf

In allen drei grundlegenden Szenarien gilt die Infrastruktur als kritisch und zwar als Kriegsmittel wie als Angriffsziel. Dabei ist eben bei Strom-, Wasser- und Datenversorgung nicht nur von Spionage und Sabotage auszugehen, sondern – ganz konkret – auch von der Identifikation dieser kritischen Infrastruktur als Bombardierungs- und physisches Zerstörungs-Ziel durch Konfliktgegner.

Jedes Rechenzentrum, das sich seinen Namen verdient und am Strom- und Datennetz hängt, ist daher kritische Infrastruktur, auf entsprechenden Ziellisten bereits eingetragen – und daher auch und bereits aus diesem Grund gänzlich ungeeignet für die mittel- und langfristige Aufbewahrung von Wissen in digitaler Form, selbst wenn man sogar wechselseitig kontinentalübergreifend Daten spiegeln möge oder Daten-Bänder sich räumlich vom Rechenzentrum getrennt etwa in Bunkern einlagert. Denn kommt es zum kriegerischen Ernstfall, dürften keine Ressourcen auf absehbare Zeit mehr bereit stehen, die entsprechende technische Einrichtung mit Hardware zur technischen Anwendung dieser Back-Up-Bänder in entsprechenden Zeitfenstern betriebsfähig zu bekommen. Jedes Digitalisat und jeder Datensatz benötigt eine auf Materie basierte Hardware-Struktur, die man erst einmal wieder haben muss, wenn Destruktionen bei Rohstoffen, in der Produktion und in der internationalen Distribution vorliegen und vorhandene bzw. bislang funktionierende Infrastruktur zerstört oder eingeschränkt sein sollte.

Es mag ja sein, dass in unserer Zeit der umwerfenden technischen Erfindungen derzeit an Lösungen gearbeitet wird, gerade dieses Problem zu lösen; allerdings gibt es gute Gründe, das Wissen der Menschheit derzeit und auf absehbare in direkt lesbarer Form auf möglichst haltbare Wissensträgern in möglichst abgelegenen und geschützten Orten einzulagern. Im audiovisuellen Bereich hieße dies: Re-Analogisieren.

http://de.wikipedia.org/wiki/Barbarastollen

Advertisements
Dieser Beitrag wurde unter Verknüpfungen abgelegt und mit , , , , , , , , , , , , , , , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

Eine Antwort zu Warum Rechenzentren äußerst prekäre Orte für die mittel- und langfristige Aufbewahrung von Wissen in digitaler Form sind.

  1. Pingback: Warum Digitalisierung Filme nicht rettet | Digitale Dämmerung

Kommentare sind geschlossen.