Lesbarkeit von archivierten Fotos


hanoldc

Unterstützendes Mitglied
Hallo Forum,

meine Fragestellung bezieht sich auf die Langzeitarchivierung von Digitalfotos. Reicht ein Kopieren der Daten in regelmäßigen Abständen auf andere Medien aus um einen Datenverlust vorzubeugen oder wird im Laufe der Jahre ein schleichender Datenverlust nicht vermeidbar sein?

Kann sich Datenverlust noch anders auswirken außer durch Nichtlesbarkeit der Bilder?

Mit welchen Programm kann man Fotos regelmäßig auf Lesbarkeit überprüfen?

Ich bitte schon mal um Entschuldigung bezüglich der möglicherweise dummen ersten beiden Fragen, aber besser einmal mehr nachgefragt.

Viele Grüße aus Hannover
 
N

Norden

Guest
Wenn du auf Nummer sicher gehen willst, dass deine Dateien bitgenau unverändert sind, dann könntest du z.B. zu jeder Bilddatei einen errechnen und zusammen mit der Datei ablegen. Anhand diesem kannst du dann zweifelsfrei erkennen, ob die Daten noch in Ordnung sind oder nicht.

Ob der Aufwand lohnt, ist eine andere Frage ...
 
Kommentar

olli-online

Unterstützendes Mitglied
wow, mein Vorgänger hat da ja einiges vorgelegt. Darüber, sprich die Integrität meiner archivierten Dateien habe ich mir bis jetzt keine Gedanken gemacht. Bisher, 2 mal gesichert auf ext. Festplatten und gut ist. Aber ob das was ich sicher auch correct ist ... tolle Frage,. Danke, ich werde darüber nachdenkken.
Gruß Olli
 
Kommentar

Hans-Peter R.

Administrator
Hi,

MD5 als Integritätstest wurde ja schon genannt. Die Kardinalfrage in der Archivierung von Bilder ist immer: Wie kann ich einen irreversiblen Verlust verhindern. Dabei ist das Erkennen eines drohendenden bzw. eingetretenen Verlustes die eine Sache, die Behebung die andere.

Wenn es darum geht, fortlaufend größer werdende Datenbestände mit möglichst minimalem Aufwand valide zu halten, kommst Du um einen (automatisierten) Kontrollmechanismus nicht herum. Mit Deiner schüchternen Frage nach der Nichtlesbarkeit von Bildern hast Du das Thema offensichtlich bereits viel mehr durchdrungen als die vielen anderen Fragesteller, die das Problem der Langzeitarchivierung reduzieren auf die Frage nach dem sichersten Speichermedium.

Fakt ist: Shit happens - und dummerweise immer dann, wenn man es am wenigsten braucht. Eine einfache Methode ist, auf zwei Medien redundant gespeicherte Daten periodisch miteinander zu vergleichen. Sind beide Medien identisch, ist alles gut. Tritt ein Fehler auf, läßt man ein drittes Medium ... das man hoffentlich in der virtuellen Schublade hat ... entscheiden wer Recht hat. Die Vorteile dieser Methode sind vielfältig: (a) der Vergleich (Dateiweise auf Bitebene) läßt sich mit jedem handelsüblichen Vergleichsprogramm (Freeware, Windows-Bordmittel) bewerkstelligen. (b) Der Vergleich kann völlig automatisiert ablaufen, so dass man den Vorgang nicht einmal manuell anstoßen muss. (c) Die Fehlererkennung läuft mit den Original-Daten ab, es braucht keine zusätzlichen Informationen (z. B. MD5-Hashwert) dessen Integrität und Validität ebenfalls sichergestellt sein muss. (d) die Korrektur nach einem möglichen Fehler kann ebenfalls automatisch erfolgen, ohne dass ein manueller Eingriff notwendig ist.

Zu Deinen Fragen: Sobald eine Datei von einem Medium in den Hauptspeicher gelesen wird, wird eine Kopie des Orginals erstellt. Die Werte dieser Kopie entsprechen (wenn der Lesezugriff erfolgreich war und kein Fehler auf dem Medium eingetreten ist) zu 100% dem Original, so wie er gespeichert wurde. In regelmäßigen Abständen die Daten auf ein neues Medium zu kopieren verringert die Wahrscheinlichkeit einen Datenverlust zu erleiden, schafft aber keine Sicherheit, die verlorenen Daten wiederherstellen zu können. Hier hilft nur "Redundanz" und "Logistik" und nicht "Materialschlacht".

Das Thema ist komplex, konnte hier nur ganz kurz angerissen werden und es müßten eigentlich noch ganz viele weitere Aspekte erwähnt werden. Die Botschaft ist: Eine de facto 100% sicheres Digitalarchiv ist möglich, braucht aber etwas Gehirnschmalz und einen strengen Workflow bei der Einpflege neuer Daten in das Archiv. Den meisten Fotografen allerdings reicht ein 99,9% sicheres Archiv und sind da mit zwei USB-Festplatten soweit einigermaßen auf der sicheren Seite.

Ciao
HaPe
 
Zuletzt bearbeitet:
Kommentar

hanoldc

Unterstützendes Mitglied
vielen Dank erst einmal für die aufschlußreichen Antworten.

Meine (Foto)-Daten sichere ich bereits je auf eine zweite interne und eine externe HD nach einem Festplattenchrash. Wünsche ich übrigens keinem,der keine Kopien hat.

Mich würde noch interessieren wie ich die Datenbestände, möglichst einfach natürlich, automatisiert miteinander abgeglichen werden könnten.

Viele Grüße aus Hannover
 
Kommentar

EchoRomeo

Unterstützendes Mitglied
(Obwohl) von Microsoft

mit dem Tool
robocopy.exe lassen sich Datenbestände schnell zuverlässiig abgleichen und synchronisieren.

Die Datenkonsitenz kannst Du mit
windiff.exe überprüfen.
Es werden Unterschiede bis auf Bit-Ebene gemeldet.

Ob sich die Dateien anschauen lassen könnte man mit einem modifizierten
rekursiven FOR-Befehl testen.

Mit dem würde ich irgendeine Utility ansteuern und mir alle Photos
verkleinern lassen
z.b. mit dem da

Er könnte ja jedes Bild mit dem nächsten überschreiben und lediglich aufgetretene Fehler mitloggen. Spart unmengen Platz.

Diese Logs müsste man dann allerdings abarbeiten und selbst nachschauen
wos klemmt.

Beide MS-Tools gibts unter anderem in den
Windows XP Service Pack 2 Support Tools
For.exe ist "eingebaut".

Meines Wissens sind kostenlos.
 
Kommentar

mangalam

Sehr aktives Mitglied
Mich würde noch interessieren wie ich die Datenbestände, möglichst einfach natürlich, automatisiert miteinander abgeglichen werden könnten.
Ich habe eine MD5-Liste der Originaldateien auf der Festplatte liegen.

Nach dem Backup erstelle ich eine neue MD5-Liste der kopierten Dateien auf meinen Backupmedien.

Anschliessend sortiere ich die beiden Checksummen-Listen und vergleiche sie mit diff (gibt es vermutlich unter Windows nicht). Alternativ kannst Du auch von beiden Checksummen-Listen wieder die Checksummen berechnen und die vergleichen. Es ist auch sinnvoll sie mit den Checksummen aus dem vorherigen Backup zu vergleichen.

Wichtig ist es auch (man kann es gar nicht oft genug sagen) regelmaessig das Backup wieder auf die Platte zurueckspielen, weil defekte Bloecke i.d.R. erst auffallen, wenn man I/O darauf macht. Sonst findest Du die defekten Bloecke auf Deinen Backup-Medien erst im K-Fall, wenn Du das Backup brauchst - und dann ist es zu spaet.

Das Wort zum Sonntag: Langzeit-Archivierung von digitalen Datenbestaenden macht richtig Arbeit. Das ist mit einer der Gruende, warum ich Loadbalancing mit Digital & Analog mache.

Gruss

Martin
 
Kommentar

hanoldc

Unterstützendes Mitglied
ich für meinen Teil verfahre für die nähere Zukunft wie folgt:
Daten regelmäßgi sichern, je auf einer internen HD und einer externen HD mit Microsofts synctoy 2.0 - Methode Echo.

HD´s etwa alle 6 Monate mit Seatools for windows auf Oberflächendefekte überprüfen.

Und jetzt zusätzlich etwa alle 6 Monate die beiden Sicherungskopien mit Windiff abgleichen

Sicher gibt es eine Vielzahl andere Programme, die die selben Aufgaben verrichten. Die genannten sind Freeware, selbsterklärend und unter xp/vista lauffähig.

Dies soll nur ein Hinweis für Einsteiger sein, die sich auch Gedanken um die Sicherheit ihrer Daten machen.

Vielen Grüße aus Hannover
 
Kommentar
S

SuperA

Guest
Die Tools robocopy & windiff wurden ja bereits genannt.

Bei jeder neuen Kopie auf neuem Datenträger gegen alle "alten" vergleichen. Ist auf dem neuen das gleiche wir auf allen alten sieht es gut aus. Bei Abweichungen prüfen welche Datei beibehalten werden soll.
 
Kommentar
Oben Unten
LiveZilla Live Chat Software