Frage Backup-Strategie / Umgang mit der Datenflut

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.
Zum NAS hätte ich noch einen kleine Tipp. Ein Thema ist eine am NAS angeschlossene Sicherung auf eine externe Platte. Die sollte aus dem Betriebssystem der angeschlossenen Clients nicht erreichbar sein, damit Crypto-Trojaner auf den Arbeitsplatzrechnern keine Chance haben, auch mal eben das Backup zu verschlüsseln.
 
Kommentar
Anzeigen
Bitte hört doch auf, solchen Unsinn zu verbreiten. Natürlich gibt es solche Konfigurationen, aber normal ist das nicht und ich würde in silchen Fälken nicht einmal von RAID sprechen wollen.

Das war ja nur ein mögliches Beispiel und wann du von einem RAID anfängst zu reden oder nicht weiß ich ja nicht und Unsinn ist es nicht, dagegen möchte ich mich doch verwahren.

Aber auch das ändert nichts an meiner Aussage "ein RAID ist kein Backup".
 
Kommentar
Mein sich wöchentlich ändernder Datenbestand hält sich in überschaubaren Grenzen. Daher bemühe ich 1x wöchentlich die MS-Suchfunktion (vorzugsweise am Sonntag) und speichere die Änderungen auf 1-2 externe Platten die ich nur für diese Aktion anstecke. Weiß Gott nicht die komfortabelste Lösung, aber so muss ich mich auf keine Automatismen verlassen. Platten werden (hoffentlich) mechanisch geschont und sind auch sicher gegen versehentliches Löschen und sonstige zerstörerische Einflüsse. Und alle paar Monate geht eine aktualisierte Platte ins Bankschließfach.

Und wenn das alles nicht reicht, habe ich wahrscheinlich ganz andere Probleme als ein paar verlorene Fotos
 
Kommentar
Aber auch das ändert nichts an meiner Aussage "ein RAID ist kein Backup".
Doch.
Und zwar, in dem Du versuchst, den Begriff Backup überhaupt erst einmal zu definieren.
Nicht umsonst spricht man von Backup-Strategie, da es "DAS" Backup als solches ja gar nicht gibnt. bzw. da sonst jede Form von Redundanz ein Backup wäre, also auch eine RAID Platte.

Backup ist die Reduktion der Wahrscheinlichkeit von Datenverlust unter ein beliebig definiertes Maß.

Und das ist ohne ein RAID-Array i.d.R. schwierig, da die ständigen Plattenausfälle die verbleibenden Datenverlustpfade zu wahrscheinlich machen.

Das sage ich sowohl intuitiv, as eigener Erfahrung, sowie aus der Mathematik des Ganzen. Natürlich kann man mit vergleichsweise wenig Daten und den dann möglichen vielen Kopien auch ohne durchkommen. Aber elegant ist das dann trotzdem nicht ...

Nur mal ein Aspekt: Eine nur für Backups genutzte Eizelplatte (also keine im RAID-Verbund) erweist sich häufig als fehlerhaft, wenn man mal tatsächlich versucht, di Daten davon wieder zu lesen ... (in einem RAID-Array verhindert das das automatische Verify eines korrekt konfigurierten Arrays)
 
Kommentar
Hi,

ich beobachte die Entwicklungen zu diesem Thema umständehalber (die Älteren werden sich erinnern :rolleyes:) ja schon über 10 Jahre und muss feststellen, dass es weder technisch noch mental in unseren Köpfen eine nennenswert Weiterentwicklung in die richtige Richtung gibt.

Reflexartig erscheint immer das Schlagwort "RAID" ohne zu berücksichtigen, dass das natürliche Lebensende eines physikalischer Datenträgers nur einer von vielen Gefahren ist, die man bei einer Archiv-Strategie berücksichtigen muss. Die eigene Dusseligkeit (oder die eines Mitbewohners) stellt eine viel größere Gefahr dar. Die allergrößte Gefahr besteht IMO aber darin, dass ein Datenverlust (mit dem immer gerechnet werden muss) nicht rechtzeitig entdeckt wird, so dass der Rettungsversuch zu spät kommt. Sich auf eine womöglich komplexe (und damit fehleranfällige) Hardware oder ein vermeintlich sicheres Tool zu verlassen ist die beste Methode, selbst eine ausgeklügelte Strategie ad absurdum zu führen. Insofern kann man ein RAID verwenden oder auch nicht. Das ist eine Speicherfrage. Für die Archiv-Strategie ist das aber weniger relevant als die Gehäusefarbe.

Ciao
HaPe
 
Kommentar
Für die Archiv-Strategie ist das aber weniger relevant als die Gehäusefarbe.

Ich lasse jetzt alle RAWs auf Microfiches ausbelichten!

Sich auf eine womöglich komplexe (und damit fehleranfällige) Hardware ...
Um das zu unterstützen:
Hinten unten in meinem Schrank findet sich eine Box mit gebrannten CD's. Wieviele sind davon wohl noch lesbar? Keine Ahnung. Ich hab überhaupt nur noch einen DVD-Drive im Haus.

Im Keller hab ich kürzlich eine andere Box entdeckt: 3,5'' Floppies. Ob die noch lesbar wären? Keine Ahnung. EVENTUELL hap ich in irgendeiner alsten Notebooktasche vom vorvorvorvorletzten Notebook noch ein externes Laufwerk.

Daneben stand noch eine Box. Oha, ZIP-Disketten. Einst ganz cooles Zeug! Keine Ahnung ob das LW noch irgendo herumliegt. Treiber dafür gibt es vermutlich eh keine mehr.




Was lerne ich daraus für mich?
Meine Daten und deren Sicherungen sollten "leben" und im direkten Zugriff verbleiben. D.h. auch die Backups muss man jeweils auf aktuelle Speichermedien ziehen, die man morgen noch lesen kann.
Die CD's von vor 10 Jahren und die ZIP-Drives von vor 15 Jahren sind im Fall der Fälle nicht viel wert.

Ein Langzeitarchiv, wohin ich "selten genutze Daten" für die Ewigkeit einlagere ist IMO eine Illusion. Zumindest im Privatbereich.
 
Kommentar
Thema Datensicherheit, bzw. Backupstrategie:
wie so oft spielt hier das Budget und die Folgekosten eine nicht unerhebliche Rolle. Ist mir Geld und Strom völlig egal, stelle ich eine Storagelösung in den Keller.
Zwei IBM V3700 mit Extensionen welche über SAN-Controller miteinander verbunden sind. Zwei Stück von den Teilen, damit ich gegen Ausfall eines Storage gerüstet bin.
Gesichert wird auf eine weitere V3700 welche die Backups 14 Tage auf Platte vorhält und erst nach den 14 Tagen auf eine Tape-Library schreibt; Stichwort Backup2Disk.
Da das ganze Konstrukt per Glas und 10 GBIC verbunden ist, dürfte der Datendurchsatz auch kein Problem darstellen. 800 MB/sec sollten im Normalfall im Schnitt erreicht werden.
Einen Server um das alles zu betreiben sollte man natürlich nicht vergessen. Es empfiehlt sich hier einen Host zu nehmen, welcher mindestens 256 GB Ram und 2 physikalische CPU hat. Zu empfehlen ist der Xeon E5-2687W v4.
Wenn man dafür dann 100K€ gesetzt hat, sollte Datensicherheit kein Thema mehr sein. Ausser natürlich, das Problem liegt beim Anwender der die Daten selber versaut.

Man kann es aber auch deutlich günstiger haben; man schaue seinen Datenbestand an und beurteile, wie das Datenwachstum verläuft. Entsprechend kaufe dann vier Stück USB 3.0 Festplatten, auf welche die Daten mit einem Sync-Tool drauf repliziert werden.
Eine externe Festplatte in der Größe 4 TB kostet um die 120€.

Das alles nützt aber nichts, wenn der User seine Daten selber verdattelt.
 
Kommentar
Ich lasse jetzt alle RAWs auf Microfiches ausbelichten!
..
Im Keller hab ich kürzlich eine andere Box entdeckt: 3,5'' Floppies.....

Meisel und Granit halten seeeeeeehr lange :p

Das Problem mit den veralteten Medien löse ich pragmatisch. Alles auf Festplatte und alle paar Jahre wird das ganze Geraffel auf eine neue Platte kopiert. Die alte Platte wird dann mit einem 10er Metallbohrer perforiert und die Pins abrasiert. Anschließend landet die alte Platte auf dem Wertstoffhof.
Man könnte natürlich die ollen Platten auch unter dem Schrank hinten in einer Ecke deponieren. Eine entsprechende Hardware um die ollen Platten anzuschließen könnte man im Keller einlagern :D
 
Kommentar
Zwei IBM V3700 mit Extensionen welche über SAN-Controller miteinander verbunden sind. Zwei Stück von den Teilen, damit ich gegen Ausfall eines Storage gerüstet bin.

Völlig egal: Wenn in der Nähe der Blitz einschlägt dann sind alle Festplatten-Controller aller Platten gleichzeitig im Überspannungshimmel und das Backup damit grandios gescheitert :D.

Für Otto-Normal-Anwender ist nur wichtig, dass er überhaupt ein Backup macht, diese Backups auf verschiedene Datenträger verteilt, diese Backups auch nicht ständig am Rechner hängen und örtlich getrennt gelagert werden, diese Backups vor Diebstahl geschützt sind (diese kleinen externen Designer-HDs nehmen Diebe immer gerne mit) und das sich der Anwender ein wenig mit der ESD-Problematik auskennt (Elektronikschäden bei der Verwendung vorbeugen).

Wer seinen Rechner vernünftig organisiert hat, sichert das Betriebssystem, die Programme und Einstellungen per DiskImager von SSD und die Daten lassen sich komfortabel mit ROBOCOPY zwischen der HD und dem Backup-Medien synchronisieren.
 
Kommentar
Völlig egal: Wenn in der Nähe der Blitz einschlägt dann sind alle Festplatten-Controller aller Platten gleichzeitig im Überspannungshimmel und das Backup damit grandios gescheitert :D.

......, diese Backups auch nicht ständig am Rechner hängen

Das scheint mir mit das Wichtigste zu sein.

Auch - wie schon erwähnt - um sich vor der eigenen Dusseligkeit zu schützen. Wenn zu viele LW/Platten im Explorer zu sehen sind, muss man höllisch aufpassen. Zumal die Inhalte ja dann zum Teil ähnlich bis gleich sind.
Ich habe auch schon auf einer Backup-Platte gearbeitet :platsch:
 
Kommentar
Doch.
Und zwar, in dem Du versuchst, den Begriff Backup überhaupt erst einmal zu definieren.

Warum sollte ich was definieren?
Und dein rumgeschwaller von Reduktion der Wahrscheinlichkeit ist Mumpitz

Ein Backup ist ganz einfach eine Datensicherung, fertig (per Definition, und nicht von mir)

Und selbstverständlich ist ein Backup alleine nur die halbe Wahrheit und es gehört eine komplette Backupstategie dazu das hat niemand abgestritten.

Aber ein einfaches Backup (eine Sicherung) ist mehr als viele überhaupt haben und um die Kurve zu bekommen "Ein RAID ist kein Backup"
 
Kommentar
Hallo,

Warum sollte ich was definieren?
Kommunikation - gerade in Internetforen - ist ein schwieriges Geschäft. Insbesondere dann, wenn man sich trotz einer gemeinsamen Sprache nicht versteht. Insofern ist eine klare Regelung, welcher Sachverhalt unter welchem Begriff zu verstehen ist sehr hilfreich. Der Begriff "Backup" ist hierfür ein gutes Beispiel. Der eine versteht darunter eine ausgeklügelte und vielgestaltige Strategie, der andere einfach eine Sicherungskopie in einem Nachbarverzeichnis. So ist es natürlich schwierig, sich fachlich zu unterhalten.

Und dein rumgeschwaller von Reduktion der Wahrscheinlichkeit ist Mumpitz
Der finale Begriff, um den es geht, wenn wir uns um den Erhalt unserer fotografischen Schätzchen kümmern, ist tatsächlich "Wahrscheinlichkeit". Das ist sozusagen das "Goldene Kalb", um dass wir herum tanzen wenn wir eine Archiv-Strategie erstellen. Aber das ist nicht der alleinige Punkt. Problem ist, dass wir uns in einer Größenordnung von Wahrscheinlichkeiten bewegen, die uns nicht jeden Tag begegnen. Das "sehr unwahrscheinliche" wird beim Archiv-Design plötzlich zur relevanten Größe. Einbruch, Vandalismus, Überschwemmung, Überspannung, Sturzschaden, Fehlbedienung, Kopierfehler, Online-Angriffe aber auch fehlerhaft programmierte Tools, nicht eingehaltene Standards, Lieferschwierigkeiten von proprietären Hardwaren, Krankheitem, Versäumnisse und vieles mehr sind die Themen, mit denen wir konkret rechnen müssen. Man müsste sich plötzlich Gedanken über "Unfälle" machen, die man gern aus seinem Leben ausblendet. Dass eine Festplatte abraucht ... das nehmen wir gerne in Kauf. Die Teile sind billig, die Daten sind schnell von Platte A auf B kopiert. Also ist das unsere favorisierte Baustelle beim basteln eine Archiv-Strategie aus einem RAID-NAS oder aus zwei USB-Festplatten. Aber das kann so nicht funktionieren, außer man legt die die persönliche Schmerzgrenze der Verlust-Wahrscheinlichkeit sehr, sehr niedrig.

Ciao
HaPe
 
Kommentar
[OT]
Sobald die Themen RAID und Backup aufkommen ist ein ähnlicher Verlauf der Diskussion vorherzusehen.
Nachdem nun von „Ich lösche alles“ bis zu vielstufigen Storage-Backup-Archivkonzepten mit und ohne RAID alles genannt wurde und die Experten ausgiebig gestritten und sich gegenseitig beleidigt haben tut es immer gut, finde ich, die Ausgangsfrage noch einmal anzusehen.:D
[/OT]

Nun überlege ich, die zu löschen, um einem vernünftigem Backup des ganzen Foto-Ordners bzw. LR-Katalogs Platz zu machen. Ich zögere aber noch etwas. Womöglich sind die bisherigen Sicherungen doch sinnvoller als ich gerade glaube?

Lieber [MENTION=83925]dadri[/MENTION],
wenn ich das richtig verstehe, dann hast du einen LR-Katalog plus Bilderdateien OHNE Backup, dafür aber die RAW-Originale wie sie vom Chip kommen noch mal separat auf USB-Platten.

Ich empfehle die Bilder vom Chip in deinen aktiven Datenbestand zu importieren (also LR-Katalog + Dateiverzeichnisse) und davon ständig ausreichend * Backups zu machen.
Dein bisheriges Vorgehen ist nicht so smart, weil die Wiederherstellung im Schadensfall sehr umständlich wäre.

Die von Dir bisher gemachten Sicherungskopien habe ich auch – und zwar auf dem SD/CF-Chip, den ich nie lösche bevor nicht sicher das Backup durchgelaufen ist.

Natürlich solltest Du nun aber nicht alle bisherigen Sicherungen löschen, damit du Platz für das Backup hast, sondern erst das Backup machen. Also muss wohl erweiterte Plattenkapazität her!


*(kannst Dir dafür aus den vergangenen drei Seiten was aussuchen)
 
Kommentar
Kommunikation - gerade in Internetforen - ist ein schwieriges Geschäft. Insbesondere dann, wenn man sich trotz einer gemeinsamen Sprache nicht versteht. Insofern ist eine klare Regelung, welcher Sachverhalt unter welchem Begriff zu verstehen ist sehr hilfreich. Der Begriff "Backup" ist hierfür ein gutes Beispiel. Der eine versteht darunter eine ausgeklügelte und vielgestaltige Strategie, der andere einfach eine Sicherungskopie in einem Nachbarverzeichnis. So ist es natürlich schwierig, sich fachlich zu unterhalten.

Ist in diesem Fall ganz einfach, wir brauchen uns nicht über Begrifflichkeiten usw. streiten oder sie selbst definieren. Backup ist definiert als Sicherung nicht mehr und nicht weniger.
Wenn jetzt jemand anfängt darüber sinnieren zu wollen was denn wie gemeint sein könnte und ja so und überhaupt... aber mir Unwissenheit vorwerfen will (wie [MENTION=86809]falconeye[/MENTION]) kann ich die Ausführungen nicht Ernst nehmen. Darum ist mein Kommentar ihm gegenüber vielleicht etwas hart, aber wie man in den Wald...

Und für alle Zweifler:

Duden, wiki

Das worauf du hinaus willst ist dann ein ganz anderes Thema, da geht es um die Art und Anzahl der Backups usw., also klassisch die Backupstrategie
 
Kommentar
Backup ist doch der einfache Teil, das Recovery ist die Kunst!
Backup hilft nichts, wenn das Recovery nicht funktioniert. Dazu muss man erst mal wissen, was will/muss ich den im Notfall wieder herstellen. Für den Laien eher uninteressant,wie lange kann ich mir Ausfall leisten, für den Profi oder die Firma kann das existanzgefährdend sein. Man muss erst mal ein Desaster Recovery Konzept haben, was muss ich sichern, wie schnell muss ich es wieder herstellen können und wie müssen die Daten Bilder ggf. geschützt werden. Wenn man das weiß, dann kann man sich über die dazu notwenigen Techniken unterhalten.

Ich hab übrigens auch kein wirkliches Konzept, ich sichere zum eien lokal auf dem Rechner, die Bilder kopier ich dann ca. alle 4 Wochen auf einen Server und ab und an noch auf eine USB Platte, die nur für die Sicherung angeschlossen wird.

Das hört sich gut an und hilft auch bei versehentlichen Löschen und gegen Plattendefekte. Aber ich sichere einfache alle Bilder, da wird jede Menge unnötiges mitgesichert. Ausserdem hab ich keine Kopie ausser Haus, d.h. wenn es brennt, bei Wasser (Server und Büro sind im Keller :-( ) oder EInbruch ist ggf. alles weg. Frage an die Versicheurngsexpeten unter uns: Was ist wahrscheinlicher Feuer oder Einbruch?

Das Problem ist nicht die Hardware, die ist heute leistungsfähig und preiswert, das Probem ich müsste mir ein Konzept überlegen und implementieren, was ich wie sichere (und ggf. wie ich es wiederherstellen). Ich habe damit auch angefangen, dass implementiert und wieder verworfen, bzw. das Konzept war zu aufwendig oder ich zu faul oder das Konzept hat sich einfach überlebt, w.z.B. Sicherung auf CDs/DVDs (auch Tape hatte ich vor langer Zeit schon mal, QIC 80 für die Ältern, sorry Erfahrerenen unter uns). Auf jeden Fall bin ich immer wieder beim einfach ab und an alles zu kopieren. Wenn ich mal viel Zeit habe, dann werd ich mir mal wieder ein tolles Konzpet überlegen und implementiern, bis es dann wieder durch neuere, leistungsfähigere, preiswerter Technik ad absurdim geführt wird. :) Also momentan ist Cloud absolut Hip, prinzipiell ist da auch nicht schlecht, da man dann alles sicher ausser Haus gelagert hat. Aber das hilft auch nur gegen physikalische Ausfälle, aber gegen den berühmten Benutzerfehler (versehentlich gelöscht) hilft das auch nur bedingt und hat einige andere Einschränkungen.

Für mich reicht es, ich bin nur Knipser und muss nicht mien Brötchen damit verdienen (arbeite in der IT, ... also Backup und Recovery ist auch bei den Großen immer wieder ein reger Diskussionsgrund ).


Gruß vom Disk Jongleur
 
Kommentar
-Anzeige-
Zurück
Oben Unten