Backup: Datensicherung und -verifikation im digitalen Bildarchiv * bilddateien.de - alles, was mich fotografisch bewegt - Bernhard Albicker
zur Startseite

Druckausgabe von https://www.bilddateien.de/
bilddateien.de - alles, was mich fotografisch bewegt - Bernhard Albicker

Backup: Datensicherung und -verifikation im digitalen Bildarchiv

Problembeschreibung

Analoge Originale (Dias/Negative) müssen sorgfältig gelagert werden, sonst droht der Verfall. Aber auch dann kann mit gewissem Aufwand immer noch eine Rekonstruktion gelingen.
Digitale Aufnahmen verzeihen da nicht so schnell, einige “gekippte Bits” können den Totalverlust bedeuten.

In Zeiten der “Hybridfotografie” (analog aufnehmen, dann einscannen und digital weiterverarbeiten) konnte man das etwas entspannter sehen, es gab ja immer das “analoge Backup im Schrank”. Im Zweifel war also etwas Arbeit verloren, nicht aber das Bild insgesamt, wenn eine Datei oder gar ein Datenträger beschädigt wurde.

Und weil “digital” eben nur 2 Zustände kennt - “geht”/“geht nicht”, lohnt es sich bei rein digitaler Fotografie durchaus, sich Gedanken über Sicherungsstrategieen zu machen.

Index

Erstellung von Backups

Grundsätzlich werden zwei Arten des Backups unterschieden. Das volle Backup sichert stets den kompletten Bestand an Daten, während das inkrementelle Backup nur Daten archiviert, die innerhalb einer bestimmten Periode modifiziert wurden. Dabei steht die Periode meist für den Zeitraum seit der letzten Sicherung.

In der Bildbearbeitung ist heute Stand der Technik, sog. “non destructive imaging“ anzuwenden: Programme wie darktable, RawTherapee und auch Adobe Lightroom arbeiten nach diesem Konzept.

Dabei geht es grundsätzlich darum, eine Bilddatei, ist sie einmal auf den Computer importiert, nur noch lesend zu benutzen. Alle Bearbeitungsschritte werden in sog. Sidecar-Files (meist xml-Dateien) ausgelagert, diese sind nur einige kB groß. Erst beim Export ins Ausgabeformat (meist jpg) werden die in dieser Datei festgelegten Bearbeitungsschritte wie ein Fahrplan angewandt, aus den Rohdaten das veränderte Bild erzeugt und im Ausgabeordner gespeichert.

Das hat Folgen für die Backupstrategie.

Vollbackup

Ein RAW-File aus einer 12MP-Kamera hat eine Dateigröße von rund 15MB, die Files aus der 36MP-Kamera Nikon D800 liegen bei einer Größe von rund 45-50MB. Regelmäßige Voll-Backups, bei denen der komplette Datenbestand auf einen anderen Datenträger (Band- oder Festplattenspeicher) kopiert werden, übersteigen daher sehr schnell die Möglichkeiten der meisten Anwender.
Zudem ist zu bedenken, daß man alte Sicherungen nicht überschreiben sollte, da man nicht weiß, zu welchem Zeitpunkt evtl. Fehler entstanden sein können.

Incrementelles Backup

Ein volles Backup ist wegen des hohen Bedarfs an Zeit und Speichervolumen weniger für den täglichen Einsatz geeignet, deswegen entscheidet man sich heute meist für eine Mischform aus voller und inkrementeller Datensicherung. Hierbei wird zu einem Zeitpunkt der komplette Datenbestand gesichert und nachfolgend - in regelmäßigen Abständen - archiviert man nur die modifizierten Daten.

Dabei hat man wiederum die Wahl:

doppeltes Backup mit Verifikation

Allen reinen Backup-Strategien ist eigen, daß sie ein über die Zeit stetig wachsendes Datenvolumen erzeugen und nie genau bekannt ist, wo (in welchem Backup) im Fehlerfall die intakte Datei zu finden ist.

Daher wird hier eine gänzlich andere Vorgehensweise vorgeschlagen:

Prüfung der Datenkonsistenz

Was bedeutet “Prüfung der Datenkonsistenz”?

Für digitale Daten lassen sich durch mathematische Verfahren sog. Prüfsummen ermitteln, die eine Art “Fingerabdruck” für eine Datei darstellen. Eine Änderung der Datei, sei es durch eine Bearbeitung, sei es durch einen Datenfehler, der sich im Laufe der Zeit eingeschlichen hat, hat eine Änderung der Prüfsumme zur Folge.

Ermittelt man nun für alle zu sichernden Dateien ihre jeweilige Prüfsummen und speichert diese ab, so kann man zu jedem beliebigen späteren Zeitpunkt prüfen, ob die Dateien sich noch im Ursprungszustand befinden. Dazu ermittelt man die Prüfsummen erneut und vergleicht sie mit den ursprünglich berechneten und abgespeicherten Werten. Abweichungen signalisieren Dateifehler.

Voraussetzungen

Aufgrund der oben erläuterten Technik des sog. “non destructive imaging” ergibt sich für die Konsistenzprüfung:

Es gibt jede Menge Dateien in den Kamera-Raw-Formaten, aber ggf. auch unkomprimiert in .TIF, die als Ursprungsdateien die Funktion des analogen “Negativs” oder “Dias” übernehmen, nur noch gelesen werden und sich daher nicht mehr ändern sollten.
Diese - und nur diese - sind Gegenstand der Prüfung!!
Und dann gibt es mindestens so viele dieser xml-Dateien (2 Bearbeitungsversionen desselben Bildes geben 1 Rohdatei und zwei xml-Dateien) in denselben Ordnern, deren Kennzeichen eben die Veränderung ist.
Bilder und zugehörige xml-Dateien liegen typischerweise in Jahrgangsordnern und dort in untergeordneten Projektordnern.

Die Prüfung (sowohl die ursprüngliche Erzeugung der Prüfsummen als auch die späteren Vergleiche) sollten per Software automatisch erfolgen.
An eine solche Software ergibt sich als Anforderungsprofil:

Ein Beispiel für eine geeignete Software bildet Checksum Control.

Zusammenfassung:

 

 


zuletzt geändert am: 20.11.2015