Vom Wesen der Datensicherheit (Backup und Archivierung) - wirklich lang :-)

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.

AndyE

Sehr aktives NF Mitglied
Registriert
Einerseits wollte ich auf die Fragen zum Backup Konzept meines Homeserver Projektes antworten, anderseits bietet sich hier eine Gelegenheit das Thema Datensicherheit etwas umfassender darzustellen, das ich schon länger vorhatte. Ich habe mich daher für einen neuen Thread entschieden. Hier geht es zum HomeServer Projekt


Wen es interessiert, kann sich ja eine Tasse Tee oder ein Glas Bier holen und dann hier gemütlich weiterlesen. :)


Datensicherung, Backup, Archivierung, ...

Immer wieder werden einige Begriffe vermischt, die wenn man das Thema genauer betrachtet, sich doch deutlich unterscheiden.

Datensicherung ist gewissermaßen der Überbegriff für die beiden Bereiche, Backup und Archivierung.
  • Ein Backup dient dazu, den aktuellen Stand von Daten wieder herzustellen, mit dem Ziel, vor Fehlbedienung und Maschinenausfall zu schützen. Beispielsweise um irrtümlich gelöschte Dateien wiederherzustellen. Oder Verluste durch Hardwareausfälle oder Softwarefehler auszubessern.
  • Ein Archiv verfolgt das Ziel, Daten die einen endgültigen Stand erreicht haben, für "immer" zur Verfügung zu stellen.
  • Gewissermaßen können die beiden Begriffe auch folgendermaßen beschrieben werden. Das Backup ist ein Zweiwegverfahren. Was immer gerade im Originaldatenstamm vorhanden ist, wird gesichert. Wurde was gelöscht, fehlt es auch ím nächsten Backup. Dagegen ist das Archiv ein Einbahnverfahren. Was einmal ins Archiv wandert, bleibt für immer drin (außer eine bewußte Aktion des Löschens wird auf das Archiv angewendet).
  • Ein weiterer Unterschied kann auf der Zeitachse definiert werden. Ein Archiv ist typischerweise auf einen viel längeren Zeitraum ausgerichtet als ein Backup. Über die Grenze läßt sich streiten, aber irgendwo zwischen 5 und 10 Jahren wird es in den meisten Fällen liegen. Darunter ist es Backup/Restore, darüber Archivierung.

Zur Archivierung
Waren die ersten Jahrzehnte der EDV vom Backup/Restore geprägt, rückt das Thema Archivierung immer mehr ins Rampenlicht. Warum? Kurz ausgedrückt, weil sich die Rolle des Originals umgedreht hat.

Früher (mehr als 5-10 Jahre) war in den meisten öffentlichen Verwaltungen, Unternehmen und Privathaushalten die Information das Papier das "Original", egal ob es Text- oder Bildinhalte hatte. Mittlerweile werden die Inhalte entweder digital "geboren", oder das physische Element ist eine Zwischen- oder Übergangslösung bis es in die digitale Welt transferiert wird. Das "Original" ist digital vorhanden, und das Papier ist die "Kopie". Damit muß sich auch die Verantworlichkeit, der Aufwand und das Verständnis nachhaltig umstellen, wie das "Original" für die Zukunft erhalten werden kann. Eine weitere Herausforderung im Archivwesen ist das Konzept "Original" an sich. Ein Bit weiß nicht ob es das Original oder eine Kopie ist - Authentifizierung/Signierung addressiert diesen Problembereich.

Aus meiner Sicht ist bis vor wenigen Jahren das Thema Archivierung die mit Abstand größere Baustelle ggü. Backup gewesen. Doch eine technologische Entwicklung hat vor allem für Bibliotheken, Staatsarchive, aber auch Fotografen, eine der größten Barrieren weggenommen. Das Problem des Langzeitzugriffs, die die rasante Weiterentwicklung und die ebenso rasante Veralterung von Software zwangsweise mitbrachte, verliert durch Virtualisierung einiges an Schrecken.

Mußten früher Archivwillige alle Maschinen physisch aufheben, bzw. jeweils einen neuen PC pro alter SW Version aufbewahren, fällt das heutzutage fast komplett weg. Mit Ausnahme meines ersten selbst geschriebenen Programmes (1978 - noch für den UniRechner auf Lochkarten getippt), habe ich alle Programme, Daten, Dokumente seit diesem Zeitraum aufgehoben. (Ob das notwendig ist, sei dahingestellt :)).

Hier ist ein Screenshot von meinem dzt. Arbeitsrechner auf dem gleichzeitig Windows 3.1, Windows 95/98, Windows Nt, Windows 2000, Windows XP und Windows Vista laufen. Linux, BSD Unix, sowie die unterschiedlichen Server hab ich auch noch :) Für PC-fremde Welten gibt es eine ganze Reihe von Emulatoren, die alte SW darin noch ablaufen lassen können, wie zBsp für IBM Mainframes, PDP-11, CP/M-80, .... D.h. es ist verhältnismäßig einfach in die jeweilige Epoche zurückzugehen. (Für Geeks: Kann sich noch wer an Turbo Pascal von Borland, Open Access von SPI oder WordStar erinnern?)

original.jpg


Zu Backup/Restore
Totale Sicherheit gibt es im Leben nie. Weder in der realen, persönlichen Welt, weder mit klassischen Dingen und schon gar nicht im EDV Bereich.
Der dehnbare Begriff "Sicherheit" hat einige Zusatzattribute (und viele mehr):
  • Wie sicher soll es sein? - Wie groß ist der Schaden, wenn der GAU eintritt.
  • Wie wertvoll sind die Daten? - Was bin ich bereit für sichern aufzuwenden. In der realen Welt sind Menschen meistens eher bereit, für Wertsachen einen größeren Aufwand (Kosten, Unannehmlichkeiten) in Kauf zu nehmen. Das gilt hier genauso.
  • Wie lange darf das restaurieren dauern? - Hier reichen die Anforderungen von Millisekunden bis Monate, entsprechend unterschiedlich müssen die Konzepte (und Kosten) sein.
  • Wie dynamisch sind die Daten? - Ändern sie sich im Minutentakt, oder einmal pro Jahr?
Es klingt zwar etwas hochgestochen, aber eine persönliche Risikoanalyse ist ein guter Startpunkt für die Backup/Restore Reise. Wieviel Aufwand bin ich bereit für die Vorsorge zu treffen? Welche Schadensszenarien will ich abdecken? Wirklich alle? - Dann wird es schnell sehr aufwendig. :)


Mein persönlicher Ansatz

Archivierung
Ich unterscheide zwischen 2 Szenarien. Normal und Notfall (quasi der Supergau).

Das Notfallarchiv
Wenn das Haus brennt, wird man kaum mit allen Sachen ( inkl. Küchenkastl ) versuchen aus dem Haus zu kommen, sondern eher die wichtigsten, wertvollsten Dinge retten. Für mich sind das bestimmte Verträge, Schlüsseldokumente meiner Familie (zBsp gescannte Geburtsurkunden, Pässe), die Kontaktliste aus Outlook und auch Bilder aus den verschiedenen Jahrzehnten (das erste Bild meiner Kinder, unsere Hochzeit, usw, usf. ...). Mittlerweile gebe ich in dieses Archiv auch die jeweiligen Bestof Bilder des Jahres hinein. Da sie eh schon bearbeitet sind, reicht hier JPEG vollkommen aus. Es ist ja für den Notfall. Die Datenmenge ist vergleichweise gering, wenige GB. Auf verschiedenen Datenträgern (HD, USB, DVD) lagern diese bei mir, meinen Eltern und Freunden. Update - sehr selten.

Das normale Archiv
Hier unterscheide ich zwischen selbst- und fremderstellten Inhalten. Selbsterstellte Inhalte haben klarerweise höhere Priorität. Wie oben beschrieben, bin ich ein Fan von virtuellen Maschinen. Angefangen von MS-DOS 3.1 bis zum neuesten Betriebsystem liegen diese Dateien (sogenannte Virtual Hard Disks - VHD's) auf meinem PC oder Server. Ebenso alle SW Pakete die ich besitze (auch WordStar, etc ...). Zum Beispiel liegen alle Nikon Capture Versionen dort ebenfalls auf (inkl. Schlüssel). Damit kann man dem Problem vorbeugen, daß alte Programme unter Umständen auf einem neuen System nicht mehr, oder nur mehr fehlerhaft funktioneren. Übrigens ist das Dateiformat VHD vollständig dokumentiert, offen und von allen wesentlichen Virtualisierungsherstellern implementiert - kein Lock-In. Sollte eine zukünftige Version von Nikon Capture auf einmal die NEF Dateien der D1 nicht mehr lesen können, kann einem so geholfen werden. Canon hat das übrigens bereits gemacht. Mal sehen wann Nikon damit anfängt.

Die technische Veralterung gehe ich meist mit einem Generationensprung an. D.h. jeweils die übernächste Technologie übernimmt alle Daten. Die erste Generation von DAT Bändern konnte ca. 1,3 GB speichern. Sobald Festplatten ca. 70-100 GB speichern konnten, wurden die Daten kopiert. Da gibt es meistens noch alle Treiber, beide Datensysteme können gleichzeitig an einem Computer betrieben werden und der neue Datenträger macht das Handling erheblich einfacher (und günstiger). Bei den ggw. Platten hatte ich überwiegend 160/320GB Modelle, 500GB ließ ich aus und jetzt halt die 1TB Platten. Die 2 TB werden übersprungen, bei 4 TB ... mal sehen :)

Im Unterschied zu Backuplösungen wird im Archiv keine Kompression der Daten und einpacken in eine (ZIP)Datei vorgenommen . Warum? Die Vermeidung der Abhängigkeit von speziellen Programmen, im Fehlerfall ist nur eine Datei betroffen und im HD Problemfall kann man die Disk noch immer zu einem Recoveryservice einschicken. In Bezug auf die Foto's, liegen in diesem Archiv auch die notwendige Software - die VHDs und die Installationsfiles von CNX zum Beispiel.

Wie sichert man nun einen Homeserver?
Noch dazu einen der einen relativ großen Speicher hat. Ganz einfach - mit Platten. Nicht einfach ist die Frage des "Wie" zu beantworten. (Damit ich nämlich nicht zu viel Zeit damit verbringe.)

Bevor wir mit den vermutlich erwarteten "Backup Konzept" anfangen, ein paar einführende Bemerkungen.

  1. Eine der häufigen Ursachen für Serverprobleme ist Stromausfall. Auch wenn er nur wenige Minuten dauert, bis die (Strom)Sicherung wieder drinn ist, kann das Dateisystem und die in Arbeit befindlichen Daten inkonsistent werden. Mein Server hängt an einer unterbrechungsfreien Stromversorgung (USV) von APC. USV von APC Die kostet ca. 160 Euro und hält den Server ca. 10 Minuten am Leben. Ist bis dahin noch immer kein Strom im Haus, fährt er vollautomatisch ordnungsgemäß runter. Server und USV kommunizieren über ein USB Kabel.
  2. Eine andere Ursache ist Eigenverschulden. Wie oft hat man schon zum falschen Zeitpunkt gelöscht oder gespeichert? Hatte ich mich früher zu den unfehlbaren Experten gezählt und all die möglichen Schutzmechanismen abgeschalten, gehe ich das jetzt vorsichtiger an. Dazu zählen:
    • Sinnvolle Benutzerrechte vergeben. Wenn ich Daten nur lesen will, dann soll nur Lesen in diesem Verzeichnis für mich erlaubt sein. Mein ArchivFolder ist standardmäßig nur zum Lesen freigegeben. Will ich was ändern, existiert ein zweiter Freigabename auf das gleiche Verzeichnis mit den entsprechenden Rechten. Schutz vor der eigenen Schussligkeit.
    • Der Papierkorb bleibt am Server eingeschalten ! :)
    • Volume Shadow Copy (VSS) ist ebenfalls aktiviert. Unter diesem Begriff verbirgt sich eine Versionsverwaltung. Wenn ich bespielsweise eine Datei NEF_XXXX lade, verändere und unter dem selben Namen wieder abspeichere, ist normalerweise die Originaldatei dahin. Unter Vista und dem von mir verwendeten Windows Server 2008 erlaubt das VSS Service das selektive Wiederherstellen von früheren Versionen ein und derselben Datei. Sehr praktisch.
  3. Wir leben in einer vernetzten Welt. Wer mehr als einen Rechner im eigenen Netzwerk hat, tut gut daran IMMER die Firewalls ALLER Rechner einzuschalten - Defense in Depth. Die Firewall am Router ist nett und wichtig, aber kann nicht im eigenen Netz aktiv werden wenn Probleme mit dem Notebook nach Hause gebracht werden.
  4. Interesse. Sich monate- und jahrelang nicht die Fehlermeldungen eines Servers ansehen und dann überrascht sein ist sicher nicht der richtige Ansatz. D.h. nicht, daß man den ganzen Tag Logfiles lesen sollte. Ich habe zum Beispiel meinen Server so eingestellt, daß er mir ein Mail schickt wenn eine Platte im RAID als defekt angezeigt wird.

So, nun zum technischen "Backupkonzept" :D

So hat es Pre-HomeServer ausgesehen. :)
original.jpg


Die Platten benötigen im ausgeschalteten Zustand mehr Strom als der Server jetzt eingeschaltet benötigt. Den externen und ineffizienten Netzteilen sei dank - schaut euch mal den CosPhi Wert im ausgeschalteten (Standby) Zustand an - sehr schlecht. Während das Netzteil im Standby angeblich nur 5 Watt braucht, zieht es 15 VA aus dem Netz.

Als Minimum für ein Backup sind zwei externe Kopien notwendig - entsprechend viele Platten benötigt man. Es dürfen niemals alle Backupdaten gleichzeitig im Zugriff sein. Durch die große Datenmenge ist Zeit ein nicht zu unterschätzender Faktor. Also, welche Platten passen besser, welche sollte man nicht nehmen?

Zu berücksichtigende Faktoren:
  1. Preis/GB als Kenngröße ist sehr wichtig, es geht um riesige Mengen
  2. Kapazität - Je größer um so weniger Handlingaufwand und Fehlermöglichkeiten.
  3. Backup ist hauptsächlich eine Schreibaktivität - die sequentielle Schreibleistung ist sehr wichtig.
  4. Stromverbrauch, der wegen dem Dauerlauf im Server so wichtig war ist hier vernachlässigbar.

Ich habe hier eine kleine Tabelle zusammengestellt, die von ein paar gängigen Platten diese Eckdaten zeigt. Die VelociRaptor von WD ist zwar die schnellste Platte, aber mit 300GB ist sie vergleichsweise klein (und teuer). Dafür ist sie wegen der kurzen Zugriffszeit (Fileserver I/O Zahl) exzellent als Systemplatte geeignet. Die 1 TB Platte von Samsung hat aufgrund ihrer Konstruktion zwei große Vorteile. Samsung hat weltweit die höchste Dichte auf der Platte, damit steigt die Transferrate deutlich an und Samsung hat einen erheblich günstigeren Herstellunsgpreis, den Samsung auch an den Markt weitergibt. Sie ist die Günstigste. Im Durchschnitt kann sie 90 MB/s schreiben, während die WD mit 60 MB/s nur auf 2/3 dieser Leistung kommt - das ist ein deutlicher Unterschied.

original.jpg

Quelle der Einzelwerte: www.tomshardware.com

Die Transferleistung von 90 MB/s (max > 110 MB/s) ist gut und schön, nur können die gängigen USB, FW400 und FW800 Protokolle diese Leistung nicht liefern und würden das alles ausbremsen. eSATA könnte problemlos diese Leistung bringen hat allerdings einen großen Nachteil. Sie ist in den meisten Systemen als Einzelplatte nicht HotPlug fähig. Obwohl es in der eSATA Spezifikation definiert ist, haben fast alle Chipsatz Treiber der Motherboardhersteller diese Funktion nicht implementiert - ärgerlich. Zum Glück gibt es für Vista 32/64bit eine kleine Utility, die diese Funktion nachreicht. Da der Windows Server die gleichen Treiber verwendet kann ich das hier verwenden - Hurra! HotSwap! Utility

Damit kann ich das 40 Euro Sharkoon eSATA Device direkt am Server betreiben, die Platten im laufenden Betrieb wechseln und sie liefern die volle Leistung.
original.jpg


Ein kurzer Test zeigte die Performance:
original.jpg


Der Rythmus
Bei Bedarf werden 2 volle Backups gemacht und dann solange differential Backups weggeschrieben bis eine TB Platte voll ist. Dann startet der Zyklus wieder mit 2 vollen Backups. Abhängig von der Anzahl der veränderten Daten sind das vergleichsweise kleine Mengen.
Wenn mein PC startet, kopiert er sich die jeweils letzte DiffBackup Datei des Servers auf die lokale Festplatte. Das geht über ein Skript vollautomatisch.

Noch 2 Nachträge:
  1. Das Archiv geht immer außer Haus. Die beiden Backupkopien bleiben im Haus. Sie enthalten das Archiv, allerdings komprimiert.
  2. Falls jemand nicht nur seinen "Server" sichern will sondern auch alle im Haushalt befindliche PCs. Ich verwende dazu in einer virtuellen Maschine den Windows Home Server (WHS). Die im Lieferumfang des WHS enthalte Client Software wird auf den Familen PCs installiert und damit kann der WHS alle PCs vollautomatisch sichern (inkl. jener Daten für eine Komplettwiederherstellung). Zusätzlich ermittelt er alle Datendubletten (über alle PCs hinweg) und speichert diese nur einmal ab. Somit kümmert sich der WHS um alle Familien PCs. Seine VHD Datei liegt am Server und wird ganz normal mitgesichert. Simple, Easy.

So, jedem der bis jetzt durchgehalten hat, möchte ich zur gezeigten Ausdauer gratulieren. :hallo:
Ich hoffe das eine oder andere Interessante war dabei.

Liebe Grüße,
Andy
 
Anzeigen
Jetzt fehlt nur noch eine Info, Andy: packst Du die "rohen Platten" alle in Peli-Cases, oder wie lagest Du die? :D
 
Kommentar
Hi Andy,

den Beitrag finde ich noch interessanter als den Homeserver.

Wie haeufig versuchst Du die Daten aus dem Backup zurueckzuspielen?

Die Weltmeere wurden aus Traenen geformt von Leuten, die das erste Mal ein Restore versucht haben, als die Originaldaten weg waren.

Gruss

Martin
 
Kommentar
Hallo Andy

Sehr schöne Zusammefassung.

Nicht vergessen sollte man aber, von Zeit zu Zeit zu testen, ob sich ein Backup auch rücksichern lässt.
Ich bekomme immer wieder mal von (potenziellen) Kunden 'Datensicherungen', auf denen sich gar nichts oder nur Schrott befindet.

Selbst lagere ich ca. alle 2-3 Wochen eine komplette Datensicherung in einen eigens dafür angemieteten Banksafe aus. Ein Teil dieser Sicherung wird zuerst in eine andere Partition rückgesichert und das Ergebnis mit Windiff und fc mit dem Original verglichen.

LG Peter
 
Kommentar
Hallo AndyE,
verwendest Du fuer Backups oder Archive eine Verschluesselung?

Oder koennte jeder Dieb oder Finder einer Platte Deine Daten lesen?
Ich meine natuerlich Backups und Archive - aber vermutlich gaebe es auch eine Moeglichkeit, die Daten auf den Live-Platten zu verschluesseln.
 
Kommentar
Nein, die Backupplatten und Liveplatten verschlüssel ich derzeit nicht. Jene Dateien, die es sein sollten, sind auf Dateiebene verschlüsselt. Bilder zähle ich nicht dazu.

Es wäre kein Problem, Platten transparent mit Bitlocker (in Win7 und Windows Server 2008 enthalten) auch zu encrypten, ich mache es derzeit nicht.

Meine Firmennotebooks mit denen ich sehr viel unterwegs bin, sind so konfiguriert. Die interne Platte ist mit Bitlocker verschlüsselt, damit der Datenschaden Null ist wenn der Notebook mal einen neuen Besitzer findet. Die externen USB-Platten auf Reisen sind mittlerweile auch damit verschlüsselt.

LG,
Andy
 
Kommentar
-Anzeige-
Zurück
Oben Unten