Das Ziel von \“nestor\“ , dem \“Network of Expertise in Long-Term Storage of Digital Resources\“, ist es, die verschiedenen Kompetenzen, Interessen und Anforderungen in der digitalen Langzeitarchivierung zusammenzuführen und eine Organisationsform zu finden, die den Erhalt des digitalen kulturellen Erbes für zukünftige Generationen sichert. Während des 75. Deutschen Archivtags Ende September 2005 in Stuttgart ist einmal mehr deutlich geworden, dass die Entwicklung von einem \“Königsweg\“ für ein optimales Speicherformat noch weit entfernt ist. Und das hat seinen Grund, wie Dr. Christian Keitel vom Landesarchiv Baden-Württemberg erläutert: \“Digitale Unterlagen in Behörden, Gerichten, Unternehmen oder ganz allgemein an Stellen, die ihre Altunterlagen Archiven anbieten oder auch anbieten müssen, liegen praktisch in allen Ausgangsformaten vor, die wir zur Zeit kennen. Und wir wissen so gut wie nichts über die Technologie der Zukunft, mit der die Daten noch in Hunderten von Jahren lesbar sein sollen.\“
Im Mittelpunkt der Aufmerksamkeit stehen Daten, die schon digital entstehen – \“born digital\“ – und die auf Papier oder einem anderen \“herkömmlichen\“ Medium auch gar nicht darstellbar sind. Um solche Unterlagen dauerhaft zu erhalten und zugänglich zu machen, setzen die Archive auf die Migration der Daten in einige wenige standardisierte Formate. \“Das ist nur eine Strategie von mehreren, und es ist uns wichtig, diese Möglichkeiten nicht nur in der Theorie zu erforschen, sondern vor allem auch in der Praxis zu erproben\“, beschreibt Keitel die Aufgabe, vor der die Archive heute stehen.
Eine Alternative zur Datenmigration ist die so genannte \“Emulationsstrategie\“, ein bisher noch eher theoretisches Modell, das vor allem für Bibliotheken interessant ist. Obwohl es – technologisch gesehen – vielversprechend ist, die \“veraltete\“ Umgebung einer Datei in neuer Hardware nachzubilden, sieht Keitel die Entwicklungsmöglichkeiten für die Umsetzung in Archiven kritisch: \“Bei der Vielfalt der archivierten Dateiformate ist die Emulation extrem aufwändig und außerdem mit dem Risiko behaftet, dass die Objekte zukünftig zwar visuell dargestellt, aber nicht mehr bearbeitet werden können.\“ Denn das ist nur möglich, wenn man die Dateien – mitsamt ihrer ursprünglichen Funktionalität – auch in die dann gängigen Formate exportieren kann.
Als eine weitere Strategie wird die Konversion der Daten diskutiert. Die digitalen Daten sollen auf Mikrofilm ausbelichtet und im Falle der Benutzung erneut eingescannt werden, sodass sie später mit elektronischen Texterkennungssystemen lesbar gemacht werden können. \“Wir müssen uns dabei aber klar machen, dass bei zeichenbasierten Dateien eine Erkennungsquote von 99,8 Prozent beim Einlesen von Daten absolut unzureichend ist, wenn wir beispielsweise an eine Datenerhebung denken, bei der knapp 10 Millionen Datensätze mit jeweils rund hundert Zeichen erfasst werden, von denen 2 Promille einfach falsch wiedergegeben werden.\“
So gesehen bietet die \“Migrationsstrategie\“ eine relative Sicherheit für den Erhalt der Inhalte aus den gespeicherten Dateien. Aber schon angesichts der Unmenge an Darstellungsmöglichkeiten auf graphischen Oberflächen, die außerhalb des Computers gar nicht zu visualisieren sind, muss die Entwicklung weitergehen, wie Keitel fordert. In einem amerikanischen Großprojekt erforscht beispielsweise die \“National Archives and Records Administration\“ (NARA) derzeit einen \“Mittelweg\“ zwischen Migration und Emulation. Der Grundgedanke ist dort, dass man die ursprünglichen Eigenschaften eines Objekts unabhängig von der Originalsoftware beschreiben kann. In welchen Formaten solche Metadaten (\“Daten über Daten\“) zu formulieren sind, ist allerdings von vielen Faktoren abhängig und eine alleingültige Lösung für alle Datentypen ist kaum zu erwarten. Für Keitel ein Grund mehr, nicht \“eingleisig\“ zu forschen, sondern gerade das Potenzial der verschiedenen Ansätze auszuschöpfen. Denn der Austausch praktischer Erfahrungen aus einzelnen Projekten, die sich mit digitaler Langzeitarchivierung befassen, ist unverzichtbar, wenn es um die Entwicklung (buchstäblich) zukunftstauglicher Strategien geht: \“Die Theorie kann die Entwicklung der kommenden Jahrhunderte nicht vorweg nehmen und unser wichtigstes Ziel muss das Sammeln von Erfahrungen in allen Bereichen der digitalen Langzeitarchivierung sein.\“ Nur auf der Basis von Technologien, die in der Praxis erprobt sind, könne man Standards entwickeln, die den langfristigen Erhalt archivierter Daten befördern – und nicht die Entwicklung wichtiger Alternativen blockieren.
Link: http://www.langzeitarchivierung.de
Quelle: nestor, Presseinformation, 2.11.2005