Der digitale Gedächtnisschwund

GedächtnisschwundNoch niemals in der Geschichte der Menschheit wurden so viele Daten produziert und gespeichert, wie in unserem digitalen Zeitalter und noch niemals gingen so viele Daten für immer verloren – es droht eine „digitale Demenz“ ungeheuren Ausmaßes. Datenträger von nur begrenzter Lebensdauer und Qualität in Verbindung mit alten, nicht mehr unterstützten Datenformaten sind jene gefährliche Mischung, die unsere digitale Gesellschaft ins Vergessen treibt. Haltbarkeitsprognosen elektronischer Datenspeicher, wie CDs oder DVDs mit angegebenen 50 Jahren, sind reine Theorie. Die Praxis liegt indes bei weniger als fünf Jahren. Ein Großteil aller elektronisch archivierten Daten ist heutzutage nicht mehr lesbar. Technologien zur Langzeitarchivierung sind jedoch rar und sehr teuer. Bei Unternehmen und Archivaren läuten die Alarmglocken immer lauter.


Die Zahl ist beeindruckend und kaum zu begreifen: Laut einer IDC-Studie aus 2009, die der Speicherspezialist EMC in Auftrag gegeben hat, erzeugte die Menschheit im letzten Jahr mehr als 487 Milliarden Gigabyte an Informationen in Form von Dokumenten, Videos, Fotos, Musik, Web-Seiten oder allen, was sonst noch so in Rechnern bzw. im Internet weltweit „kreucht und fleucht“. Eine gewaltige Zahl, die sehr abstrakt und nur schwer vorstellbar ist. Würde man diese 3.892.179.868.480.350.000.000 Bits in Buchseiten umrechnen und anschließend übereinander stapeln, so ergebe sich eine Strecke, die zehnmal von der Erde bis zum Planeten Pluto reicht. Legte man nun die aktuelle Wachstumsgeschwindigkeit des digitalen Universums zugrunde, so würde dieser Stapel zwanzigmal schneller wachsen, als die schnellste Rakete fliegen kann. Und dies war immerhin eine Atlas V- Rakete, welche für die Pluto-Mission im Jahr 2006 benötigt wurde. Die Reise zum Pluto dauerte damals ungefähr 13 Monate. Der Seitenstapel würde diese Strecke locker in drei Wochen schaffen.

So amüsant und unglaublich diese Zahlen bzw. Vergleiche auch sein mögen, sie deuten auf eine Gefahr, die Wissenschaftler schon seit vielen Jahren beschäftigt – den digitalen Gedächtnisverlust unserer Gesellschaft. Kulturwissenschaftler, Archivare und IT-Spezialisten warnen eindringlich, dass die Mehrzahl aller weltweit elektronisch archivierten Informationen mittlerweile nicht mehr zu gebrauchen sein dürfte. Beispiel NASA: Der Mythos von der unzerstörbaren und fast endlos haltbaren digitalen Information bekam 1985 einen ersten „Knacks“, der es in sich hatte. Es traf die NASA mit aller Gewalt und Konsequenz: Die gerade mal neun Jahre alten Datenbänder der Raumsonde “Viking” waren mehrheitlich unlesbarer Schrott geworden – Ursache unbekannt. Die Magnetbänder waren einfach „zerbröselt“. Ein wissenschaftlicher Schaden ungeheuren Ausmaßes! Und das war nur die Spitze des Eisberges. Schätzungsweise sind mehr als 1,2 Millionen Magnetbänder der US-Weltraumbehörde betroffen und zerfallen allmählich in den riesigen Archiven. Zudem senden NASA-Satelliten auch heute immer noch Daten zur Erde, deren Datenformat mittlerweile veraltet ist, um es in modernen IT-Anlagen verarbeiten zu können. Eine wissenschaftliche Katastrophe!

Einmal gespeichert, immer gespeichert – ein fataler Irrtum!

Nichts ist gewisser, als der Datenverlust oder anders ausgedrückt: Es ist nicht die Frage, ob ein Datenträger ausfällt, sondern lediglich wann dies geschieht! Das digitale Universum ist ein Flüchtiges, mit nur einem sehr schwach ausgeprägten Gedächtnis. Die allseits beliebten und populären CD´s und DVD´s haben eine sehr begrenzte Lebensdauer und werden innerhalb weniger Jahre unbrauchbar. Selbst bei optimaler Lagerung verlieren DVDs, CDs, Magnetbänder und Festplatten ihre Magnetisierung und damit ihren Inhalt. Bei USB-Sticks und externen Festplatten sieht es noch katastrophaler aus. Fakt ist: in fünfzig Jahren wird ein Großteil aller heutzutage elektronisch produzierten Daten für immer verloren sein.

Gedächtnisschwund
Handelsübliche CDs oder DVDs sind schon nach wenigen Jahren nicht mehr lesbar.

Um diesen Schreckensszenario vorzubeugen gibt es im Moment nur eine sinnvolle Alternative – kopieren, kopieren und nochmals kopieren. Digitale Informationen bleiben nämlich nur dann erhalten, wenn sie oft genug kopiert werden. Das wussten übrigens auch schon die die mittelalterlichen Priester und Mönche: Sie schrieben wieder und wieder und wieder ganze Bibliotheken ab und verteilten diese Kopien weiträumig über ganz Europa. Und genau aus diesem Grund haben es einige dieser Kopien bis in unsere Zeit trotz vieler Kriege, Feuersbrünsten, Naturkatastrophen und den natürlichen Verfall geschafft zu überleben.
Bei Dokumenten von großer Wichtigkeit überlegen viele Unternehmen heutzutage bereits, diese als nicht-digitale Kopie zu speichern. Datenträger der ersten Wahl ist hierbei Papier. Es ist relativ lange haltbar und übersteht ein halbes oder ganzes Jahrhundert in durchaus brauchbarer Qualität. So gibt es beispielsweise die Paperdisk-Technik, mit deren Hilfe ganze Datenbanken in einer Art Morseschrift auf Papier ausgedruckt werden können. Um die ausgedruckten Daten wieder irgendwann einmal in den Computer zu bekommen, müssen die ausgedruckten Seiten lediglich per Scanner eingescannt und anschließend portiert werden. Eine sicherlich interessante, wenn auch unpraktische Lösung. Auch das passende Papier gibt es auch schon. So bietet der japanische Hersteller Oji Paper etwa ein Papier an, das mindestens tausend Jahre halten soll. Längerfristige Erfahrungswerte mit dem Papier gibt es allerdings noch keine.
Also vielleicht doch zurück zu den traditionellen Speichermedien? Mit der so genannten „M-Arc-Disc“ gibt es einen speziell behandelten DVD-Datenträger geben, der mehr als tausend Jahre halten soll und mit jedem handelsüblichen DVD-Gerät lesbar ist. Der spezielle DVD-Brenner kostet jedoch derzeit knapp 5000 US-Dollar, ein einzelner Rohling der DiamondDisc 35 US-Dollar. Teuer, aber sicherlich eine Alternative zur herkömmlichen Supermarkt-Rohlingen. Informationswissenschaftler präferieren mittlerweile jedoch ein analoges Medium – den Mikrofilm!

Mikrofilm – ein Klassiker mit Potential

Ein Klassiker der Archivierung von Daten in großen Mengen und langer Haltbarkeit ist einfach nicht tot zu bekommen, und das aus gutem Grund – der Mikrofilm. Er ist das Archivierungssystem schlechthin und hat seine Leistungsfähigkeit in den letzten Jahrzehnten erfolgreich unter Beweis gestellt. Und das Prinzip so einfach wie genial: Bücher, Zeitungen und Dokumente werden zur Archivierung stark verkleinert und auf Filmmaterial belichtet. Mikrofilme, die es inzwischen sogar in Farbe gibt, haben eine durchschnittliche Lebensdauer von mehr als 500 Jahren.
Die unschlagbaren Vorteile des Mikrofilms gegenüber digitalen Medien hat das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe, das auch für den Schutz von Kulturgütern zuständig ist, erkannt. Im Barbarastollen im Schwarzwald lagern rund 1.400 luftdicht verschlossene Edelstahlbehälter mit mehr als 600 Mio. Fotos von Dokumenten nationalhistorischer Bedeutung – gespeichert auf 27 Mio. Meter. Mikrofilm.
Moderne Laserbelichter gestatten es heute auch digitale Daten in hoher Dichte auf das Trägermaterial zu bringen. Mikrofilme speichern auf einer Fläche von 148 × 105 mm² bis zu 9 GByte an Daten. Ein neues Verfahren ist in der Lage, auf Mikrofiche gespeicherte analoge und/oder digitale Daten so einfach auszulesen, als handele es sich um eine CD oder DVD. Auf dieser neuen Art der Mikrofilme wird die Speicherstruktur der Daten so kodiert, dass es auch nach Jahrhunderten möglich sein soll, die Daten zu rekonstruieren – selbst wenn das dafür benötigte Lesegerät neu entwickelt werden müsste.
Ob sich diese neue Technologie als zukünftiges Speichermedium auf breiter Front durchsetzen wird, steht jedoch in den Sternen. Bis es soweit ist, muss man auf traditionelle, digitale Speichermedien zurückgreifen. Der kollektive Gedächtnisverlust droht uns jedoch nicht nur in Ermangelung des optimalen Mediums zur Langzeitarchivierung. Es ist auch der ungemein schnelle Systemwandel der Computerwelt.

Schneller als uns lieb sein kann

Neben der physischen Lebensdauer elektronischer Informationen droht Verlust noch aus einer ganz anderen Richtung – Daten sind nicht mehr zugänglich, obwohl das Medium selbst erhalten ist. Es ist das rasche Veralten der Maschinen, mit denen man die digitalen Informationen auslesen kann. Jeder PC-Benutzer kennt das Problem: Spätestens alle zwei Jahre kommt ein neues Datenträgerformat auf den Markt und verdrängt das alte. Eine gewisse Zeit sind die Formate noch kompatibel zueinander, doch im Lauf der Zeit, wird das alte Datenformat verdrängt. Große Unternehmen und Behörden kennen das Problem nur zu gut. Hier lagern Dutzende von alten Bändern und Disketten, deren Daten nicht mehr auswertbar sind, weil es einfach die entsprechende Hardware nicht mehr gibt. Sollen dann die alten Datenschätze gehoben werden, weil ganz bestimmte Informationen notwendig sind, gibt es nur noch ratlose Gesichter. Spätestens dann ganz bestimmte Spezialisten zum Einsatz – die Rede ist von Datenarchäologen. Sie jagen weltweit nach alten Originalgeräten, setzen diese wieder instand und lesen mit deren Hilfe die alten Medien aus. Aber auch diese Art der Datenrekonstruktion ist nur reine Schadensbegrenzung. Lösungsansätze müssen vorher ansetzen, damit es gar nicht zu einer solchen Situation kommt.

Versinken wir im finsteren Zeitalter?

Generell gilt: trotz aller Aktivitäten und neuen Lösungsansätzen wird es das Speichermedium der Zukunft vielleicht auch niemals geben. Der technologische Fortschritt ist nicht aufzuhalten – und das ist auch gut so. Jedoch sollten wir peinlichst darauf achten, dass wir trotz der massiven Digitalisierung unserer Gesellschaft niemals aus den Augen verlieren, dass Daten unser Vermächtnis an zukünftige Generationen sind mit denen wir sehr sorgsam umgehen müssen – egal ob im privaten Bereich, im Unternehmen oder anderen gesellschaftlichen Bereichen. Ansonsten versinkt unsere Gesellschaft in einem finsteren Zeitalter, von der nachkommende Generationen nicht mehr allzu viel wissen werden. Die Geschichte hat hierfür genügend Beispiel parat.
Aber noch sind wir nicht soweit und es gibt auch keinen Grund zum Pessimismus – Beispiel „nestor“. Hinter diesem Begriff verbirgt sich ein Kompetenznetzwerk zur digitalen Langzeitarchivierung. In nestor arbeiten Bibliotheken, Archive, Museen sowie führende Experten gemeinsam am Thema Langzeitarchivierung und Langzeitverfügbarkeit digitaler Quellen. Nestor ist ein Kooperationsverbund mit Partnern aus verschiedenen Bereichen, die alle mit dem Thema “Digitale Langzeitarchivierung” zu tun haben und gemeinsam fieberhaft an Lösungen arbeiten, damit wir nicht unser digitales Gedächtnis verlieren.

Lust auf mehr Wissenschaft, Technik und Geschichte im Krimi- und Thriller-Format? Dann werfen Sie doch einen Blick auf Meine Thriller oder Über mich, den Thriller-Autor.

Print Friendly, PDF & Email

1 Trackback / Pingback

  1. DNA-Speicher – Rettung aus der Datenkrise | lamundus – Interessantes aus Wissenschaft, Technik und Geschichte

Kommentar verfassen