Wohin mit den Daten? - Ein neuer Homeserver

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.

AndyE

Sehr aktives NF Mitglied
Registriert
Das wird vermutlich mein letzter Thread für heuer werden. Vielleicht besteht Interesse an ein paar Informationen zum Thema Datenspeicherung.

Vor 4,5 Jahren hatte ich meinen letzten Homeserver gebaut. Ein Projekt daß ich damals auch dokumentierte. Mehr Info's dazu gibt es hier

Jetzt 4,5 Jahre später wurde es wieder einmal Zeit, eine neue Basis für die nächsten 4-5 Jahre zu schaffen um bequem und sicher das Thema Datenhandling abzuarbeiten.

Aufgrund der Anforderung, daß ich gerne mit virtuellen Maschinen arbeite, war mein "Datengrab" damals kein HomeNAS oder ähnliches System, sondern eine relativ starke PC Basis um auch diese Anforderung abdecken zu können (Zum Thema VM später mehr).

Das Resümee des alten Servers:
  • Intel 4 Kern CPU, 8 GB, 3Ware Raid Controller mit 12 SATA ports
  • Zu Beginn 12 x 1 TB Western Digital Green Platten, Vor ca. 1 Jahr Austausch auf 12 x 2 TB WD Green Platten. Die 1 TB Platten werden im Backupbetrieb weiterverwendet.
  • Der Stromverbrauch lag im Schnitt unter 100 Watt wenn alle Platten laufen und die CPU idle ist. Bis 10% CPU Last verändert sich der Stromverbrauch nicht. Ist die CPU voll ausgelastet waren es ca. 180 Watt, aber das kam so gut wie nie vor.
  • Betriebsstörungen: Einige Wenige (es haben sich Kabel gelockert und die entsprechende Platte war nicht mehr online und das Raid ging in der "degraded" Modus mit reduzierter Leistung und reduzierter Sicherheit)
  • Datenverluste in 4,5 Jahren: 0
  • Defekte Platten: 0

Die Anforderungen an den neuen Server waren nicht wirklich komplett anders.
Ein paar Punkte:
  • Mehr und größere Platten
  • Eine modernere CPU, die den Grafikteil gleich eingebaut hat (Stromsparender) und die Virtualisierung besser unterstützt. Hier kamen in den letzten Jahren von Intel neue Eigenschaften dazu (SLAT und VT-d um nur 2 zu nennen).
  • Den Hauptspeicher mit ECC Unterstützung
  • Dramatisch bessere Netzwerkleistung, die lokale Festplatten und SSDs für die Datenhaltung überflüssig machen (Boot SSD ist nach wie vor sinnvoll)
  • Automatische Deduplizierung von identen Daten (jedoch nicht auf Basis von ganzen Dateien, sondern auf Clusterebene. Ist effizienter)

Das seit 5 Monaten laufende PC Studienprojekt daß ich schon mal wo anders kurz angesprochen hatte, geht jetzt bald in die Endphase. Von diesem Projekt habe ich sehr viele für mich neue Erkenntnisse zum Thema Daten, Ein/Ausgabeleistung und Netzwerkkonfiguration erhalten, die auch in den Homeserver eingeflossen sind.

(Die schnellere der beiden Workstations schafft es zum Beispiel 120 GB Daten in 6 Sekunden in den Hauptspeicher zu lesen. 120 GB ist die Größe einer üblichen SSD, bzw. war vor ein paar Jahren eine übliche Festplattengröße. In Fotografensprache: ca. 2700 RAWs einer D800 können in 6 Sekunden in den Hauptspeicher geladen werden)

Zurück zum Homeserver:
Diese Leistung ist nicht notwendig, sie ist sogar kontraproduktiv zu ein paar anderen Eigenschaften. Der Homeserver muß vor allem eines gut machen - sicher und stabil laufen. Zusammen mit einem guten Backupverfahren ein Garant für eine sorgenfreie Zeit.

Welche Komponenten sind es geworden und warum gerade diese?

CPU: Intel E3-1245v2
Diese CPU ist die Servervariante der aktuellen Desktop CPU-Serie i7-3770. Sie hat ECC Speicherunterstützung, kann ebenfalls 32 GB RAM ansprechen, unterstützt PCI 3.0, hat eine GPU am Chip, ist fast genauso schnell wie die Desktopvariante (100 MHz fehlen), hat einen sehr niedrigen Stromverbrauch im (sehr häufigen) Leerlauf von nur 1-2 Watt. Daß sie ca. 50 Euro billiger als die 3770 CPU ist, ist ebenenfalls schön.

Speicher: 4 x 8 GB Kingston unbuffered ECC DDR3
Man muß nur auf 2 Dinge besonders aufpassen. Es müssen bei dieser CPU unbuffered ECC Speicher sein (keine registered ECC) und sie sollten nicht über dual rank sein wenn man eine volle Bestückung anstrebt.

Motherboard:
Asus P8C WS. Dieses MB hat einen C216er Chipsatz und unterstützt (unbuffered) ECC Ram wenn eine entsprechende CPU wie zum Beispiel die E3-1245v2 drinnen ist. Das MB unterstützt auch PCI 3.0 (2 slots mit je x8 Anschluß) und USB 3.0 für etwas flottere USB Anbindung. Dazu hat es 2 x 1GBit/s Server Ethernet Anschlüsse (Server in diesem Zusammenhang bedeutet, daß die lokale CPU geringer belastet wird, wenn hohe Datenraten anliegen)

Netzwerkkarten
Um ausreichende Netzwerkleistung sicherzustellen, ist ein Intel i340 Serveradapter mit 4 x 1Gbit/sec eingebaut. Da derzeit 10 Gb/sec Ethernet Controller sehr teuer sind und die dazupassenden 10Gb/s Switches unbezahlbar sind, gehe ich für die nächsten Jahre den Weg der Zusammenfassung mehrerer Gigabit Ports um in etwa die Leistung einer schnellen lokalen SSD von 400-450 MByte/sec zu erreichen.

Raid Controller:
Hier habe ich extra auf den neuen Adaptec 72405 gewartet, der einige gute Themen zusammenfasst. Er ist mit einem neuen Raidcontroller Chip ausgestattet, der nicht so elends langsam ist, wie die Vorgeneration (alle Raidcontroller vor Frühjahr 2012 sind nach aktuellen Maßstäben sehr langsam). Des weiteren hat er PCI 3.0 Unterstützung und kann diese auch gut ausnutzen. Mit 24 SSD angefeuert, kann er von den 8 GB/sec die theoretisch über einen x8 PCI 3.0 Slot transferiert werden können, ca. 7 GB/Sec erreichen. Werte von über 3 GB/sec mit Festplatten sind somit locker abgedeckt (im JBOD Betrieb). Im Raid5 Betrieb ist er natürlich langsamer, aber ein 12 Platten Raid5 kann locker über 1 GB/sec lesen und schreiben. Der Adaptec Controller hat noch etwas Interessantes. Das Modul AFM-700 ist eine kleiner Kondensator und ein Flashspeichermodul. Der Kondensator wird innerhalb von 5 min voll aufgeladen. Sollte es einen Stromausfall geben, ist genügend Strom im Kondesator, um die 1 GB Bufferdaten die der Controller im RAM hat in das Flashmodul zu schreiben und dann dreht sicht der Raidcontroller auch ab. Damit ist dieser Speicherzustand auch über Tage aufrecht und nicht wie bei einer Batterie nach einiger Zeit auch futsch.

Wer absolute Performance mit SSDs sucht, ist besser bei LSI aufgehoben, aber die haben nur 8 SATA/SAS Ports pro Karte. (Ich habe in der schnellen Workstation 6 dieser Controller im Parallellbetrieb, die kleine hat deren 4)

Festplatten:
Da hat wohl jeder seine Favoriten. Ich bin seit Jahren mit den Western Digital Green Platten ganz gut aufgehoben. Sie brauchen wenig Strom, sind recht günstig, der wenige Strom hält sie kühl. Im alten Server kamen die Platten nie über 27 Grad. WD hat neue Platten für NAS vorgestellt. Die WD Red Serie, die extra Dauerlauf geeignet ist, eine längere Garantie hat und nochmals etwas weniger Strom braucht. Ich habe jeweils 12 Stück der aktuellen Green und Red Platten mit jeweils 3 TB eingebaut. Die RED Platten waren eine Zeitlang nicht verfügbar, bzw. war mir der Preisunterschied damals zu hoch.

Gehäuse:Ich wollte irgendwas Kompaktes und Leises haben. Ich habe mich für das Lian-Li V343 entschieden und habe noch 6 Raid Plattenkörbe von LianLi für jeweils 4 HDs dazugenommen. Im Prinzip gefällt mir das würfelförmige Layout sehr. Es hat nur einen Nachteil, auf den ich erst beim Einbau gestoßen bin. Die Befestigungsschrauben der FEstplattenkörbe in der Mitte des Gehäuses kann man so gut wie nicht erreichen. Nach einigem Herumprobieren habe ich die Trennwand in der Geäusemitte mit einem Bosch Ultraschallschneider etwas aufgeschnitten um besser dazuzukommen. Die Japaner scheinen viel kleiner Finger als ich zu haben ... Ventilatoren sind von der österreichischen Firma Noctua. Die sind mehr oder weniger unhörbar

Stromversorgung:
Von meinem anderen Projekt ist mir noch ein Enermax Platimax 600W übergeblieben, daß ich hier eingebaut habe. Es hat einen hohen Wirkungsgrad auch bei niedriger Auslastung und der Lüfter ist leise.

Ein Bild (aus der Testphase)
Er schaut wirklich nach nichts Besonderem aus. Ein schwarzer Würfel mit ca. 45 cm Seitenlänge, der halt vor sich hinsummt. Er ist so leise, daß er unter dem Tisch stehen kann und beim Arbeiten und Telefonieren nicht stört. Trotzdem wandert er zum alten Server in den Keller da er sowieso "headless" betrieben wird (keine Tastatur und Bildschirm).

original.jpg


Ein paar Setup Infos und Leistungswerte kommen noch.

Liebe Grüße,
Andy
 
Anzeigen
Sorry, wenn ich nicht wirklich was zum Thema beitragen kann, aber ...
... was ist ein Homeserver?

Der Begriff Server kommt aus dem kommerziellen Umfeld.

Ein Homeserver steht dagegen zu Hause und ist einfach ein zentraler Platz für die Datenablage, Datensicherung aller PCs im Haus ist, ein zentraler Medienserver, einfach immer vorhanden und eingeschalten, auch wenn mal man von unterwegs auf Daten zu Hause zugreifen möchte, der nebenbei auch Webserver für Familienmitglieder und Freunde ist, einfach ein Server der sich um alles zu Hause kümmert ... :)


Liebe Grüße,
Andy
 
Kommentar
Ein cooles Projekt, Andy! Mich würde etwas - da nicht vom Fach- die Komplexität des Setups abschrecken. In welcher Größenordnung (preislich) liegt Dein Homeserver?
 
Kommentar
Hallo AndyE,

Ich bin beeindruckt von Deiner Hardware. Ich möchte Dir auch nicht zu nahe treten. Du befindest Dich hier in einem Fotoforum und nicht in einem EDV-Forum. Was möchtest Du uns mit Deinen Ausführungen sagen???
Ich, und sicher noch vielle andere, gebe mein Geld lieber für Fotohardware aus. Über Ddatensicherung machen wir uns sicher alle so unsere Gedanken aber es geht auch einfacher;).

Gruß, Ralf
 
Kommentar
... und dabei war von sicherung noch gar nicht die rede. ;)

ich finde andys berichte zur edv-ausrüstung übrigens interessant, nicht nur weil ich die letzten tage selbst am schrauben war (neue würgstation). schließlich will dieser forenbereich ja auch versorgt werden und der ein oder andere kann einzelne tipps oder anregungen verwenden.
 
Kommentar
. Du befindest Dich hier in einem Fotoforum und nicht in einem EDV-Forum. Was möchtest Du uns mit Deinen Ausführungen sagen???
Ich, und sicher noch vielle andere, gebe mein Geld lieber für Fotohardware aus. Über Ddatensicherung machen wir uns sicher alle so unsere Gedanken aber es geht auch einfacher;).

Gruß, Ralf

Hast Du schon meinen Geländewagenfred gelesen?:D
 
Kommentar
Nachdem die Hardware beschrieben wurde, etwas Information zum Setup, zur Leistung und was damit gemacht wird.

Gestartet wird der Server von einer (gespiegelten) Boot SSD mit 120 GB. Die Platten sind in 2 Raid5 Blöcke zu jeweils 12 x 3 TB aufgeteilt, also je 33TB(dezimal) oder 30 TB(binär) Speicher pro Raid Verbund. Die Aufteilung in 2 gleichgroße Blöcke hat sich auch beim alten Server bewährt und so hab ich es einfach übernommen.

Der Adaptec Controller kann bei neuen Platten das Raid5 sofort zur Verfügung stellen, es muß nicht erst Stunden und Tagelang initialisiert werden - das ist sehr angenehm. Man könnte den Controller auch im Raid6 Modus betreiben (zwei statt einer Parity Disk. Raid5 und Raid6 haben keine dedizierte Parity Disk, aber vom Konzept her kan nes so gesehen werden) Raid6 hat den Vorteil, daß eine Platte ausfallen kann und noch immer eine redundante Datensicherung vorliegt. Das geht auf Kosten der Nettokapazität.

Moderne Platten haben assymetrische Transferraten. Wenn von der Innenspur gelesen wird ist sie ca. halb so schnell wie an der äußersten Spur.
Die WD Green Serie kommt auf ca. 60 MB/s bzw. 120 MB/sec, die WD Red Serie auf 80 MB/sec und 160 MB/sec respektive. Daß heißt, auch in der innersten Spur kann ein 12 Plattenverbund genügend Datenrate liefern um die 4 Gigabit Ports zum Netzwerk auszulasten. Ditto beim schreiben.

Durch die große Plattenanzahl, die sowieso einen Disk controller erfordert, habe ich die Raid Funktionalität in den Controller gelegt. Man könnte auf Kosten der CPU Leistung dies auch per Software im Betriebsystem laufen lassen.

Es gibt einige Desktop Motherboards, die eine sehr große Anzahl an SATA Schnittstellen zur Verfügung stellen. Hier gilt es aufzupassen, wie diese im Systemangeschlossen sind. Die meisten verwenden den DMI Port zur CPU, der die GEsamte Datenrate beschränkt. Wer ein paar HDs anschließt wird nichts bemerken, einige flotte SSDs im Raidverbund werden jedoch durch den DMI eingebremst. Empfehlung: Schnittstellen am PCI Bus sind besser weil schneller

Zur Netzwerkgeschwindigkeit:
Es gibt in vielen Betriebsystem den Begriff des NIC Teamings, dem Zusammenfassen von Netzwerkkarten um höhere Bandbreiten zu erreichen. Den Aufwand wollte ich mir nicht machen, denn das Setup incl. Switch ist kompliziert. Ich verwnede hier die eingebaute Funktionalität von SMB 3.0 dem Server message Protokoll von Windows Server 2012 und Windows 8. Das geht mehr oder weniger vollautomatisch, auch mit unterschiedlichen Netzwerkkarten und adaptiv. Wenn man während einer Übertragung von 4 Netzwerkkarten ein Kabel davon absteckt, geht die Leistung proiportional zurück, bricht aber nicht ab. Steckt man sie wieder an, geht es wieder mit voller Geschwindigkeit weiter.

Ich habe auf meinem FotoPC (einer mit i7-3770K) CPU ebenfalls eine 4fach Netzwerkkarte eingebaut. 400 MB/sec sind kein Problem. Der große Vorteil: Eine lokale SSD wäre zwar auch so schnell ist aber von der Kapazität zu klein. Würde ich eine Harddisk nehmen, kommt man nie auf die Geschwindigkeit, auch die Suchzeiten sind viel länger, da der mehrere GB große Cache des Serves viel abfangen kann. Wenn man mehrere lokale Harddisks im Verbund hat, dauert das Starten des Rechners viel länger (ggü nur einer SSD) und lauter ist er obendrein.

Wie der Raid Controller kam, habe ich per Spaß einmal 24 SSDs angeschlossen, um zu sehen, was er schafft.

Erster Bildschirm - 16 SSDs
original.jpg


Zweiter Bildschirm - 8 SSDs
original.jpg


Maximale Lesegeschwindigkeit wenn alls 24 SSDs einzeln angefahren werden: 7,4 GByte/sec
original.jpg


Maximale Schreibgeschwindigkeit: 6,8 GB/sec
original.jpg


Der Adaptec Controller
original.jpg


Mehr als ausreichend Reserven für die nächsten Plattengenerationen :)

Liebe Grüße,
Andy
 
Kommentar
Weil die "Sinnhaftigkeit" dieses Threads angesprochen wurde.

  • Im Jahr 2008 war mein damaliger "Homeserver" vermutlich auch eher an der oberen Grenze.
  • Es gibt ja nicht nur Hobbyfotografen im Forum, sondern auch Fotografen die sich immer größeren Datenmengen stellen müssen, und gerne hätten daß ihr Workflow nicht zu langsam wird. Viele der hier vorgestellten Konzepte und Ideen kann auch im Firmenumfeld verwendet werden
  • Was so lapidar "Homeserver" bezeichnet wird, ist in meinem Fall keineswegs ausschließlich für die Ablage einiger Bilder gedacht, sondern er deckt viele familäre und (in meinem Fall) privat/berufliche/weiterbildende Anforderungen ab.
  • Dachte, es interessiert den einen oder anderen.

Ein Thema, daß aus meiner Sicht in Zukunft vielen sehr nutzlich werden wird, wenn es mal überall eingebaut ist. Deduplizierung von Daten:
Hier wird ohne Benutzerinteraktion, der gesamte Plattenplatz nach identen Datenteilen in Dateien durchsucht und in einem mehrstufigen Verfahren "dedupliziert". Im Endeffekt, liegen die Daten einmal physisch auf der Platte und ein oder mehrere "Verweise" zu den anderen ehemaligen Kopien.

Die Einsparung ist unterschiedlich groß. Ich hatte in meinem Fall über alle Daten ca. 30% und damit 4,4 TB "eingespart" (bei ca. 4 Mio dateien)
original.jpg


Wenn man einen Server/PC damit laufen hat, sind die Einsparungen bei bearbeiteten RAW Dateien am größten und können 50-90% betragen. Durch die Auswirkungen der Deduplizierung kann auch der Workflow geändert werden. Da in diesem Fall nicht die ganze Datei ident sein muß, sondern auf Clustergröße verglichen wird, werden die unveränderten Rohdaten gleich wegdupliziert und nur die vglsw. kleinen Metadaten hinzugefügt. D.h. auf einem dedup Rechner ist das RAW Format gegenüber dem JPEG /TIFF Format das platzsparendere :)

Liebe Grüße,
Andy
 
Kommentar
"120 GB Daten in 6 Sekunden in den Hauptspeicher zu lesen"
Andy, wenn wir jetzt alle Komplexe kriegen bist du schuld.
Otto, mein privates PC Studienprojekt hat hier in einem Fotoforum tatsächlich nichts verloren, aber wenn man ein paar "Rekorde" aufstellen will, braucht es zuweilen etwas Hardware.

Die 6 Raid Controller in der 32CPU Workstation an denen 48 SSDs hängen und die 256 GB RAM füttern siehst Du im Bild unten. Dieses System hat in etwa die Leistung die ein 400 Server Cluster mit 2600 Festplatten vor ein paar Jahren hatte und damals der schnellste Rechner der Welt in dieser Anwendung war. Kosten: 5,5 mio $

Aus Performancegründen musste ich die CPUs auf Wasserkühlung umbauen. Sie wären sonst geschmolzen.
original.jpg


Wie gesagt, die dazu passende Geschichte gehört nicht ein Fotoforum.

Liebe Grüße,
Andy
 
Kommentar
Doch Andy, das gehört auch in ein Fotoforum. Denn jeder von uns hat einen Rechner um hier teilzunehmen, mind. jeder 2. hat einen stets zu lahmen und vollen PC und manch einer sogar Interesse daran :)
Abgesehen davon, dass ich mich schon über eine SSD am 3770k freue, finde ich Deine Projekte einfach positiv abartig - und das ist spannend.
Tja, kann den Leistung Sünde sein? ;)
Ich geh jetzt erst mal heulen, was will ich denn jetzt mit 12 TB....
Zeig's uns :up:
 
Kommentar
Hallo AndyE,

Ich bin beeindruckt von Deiner Hardware. Ich möchte Dir auch nicht zu nahe treten. Du befindest Dich hier in einem Fotoforum und nicht in einem EDV-Forum. Was möchtest Du uns mit Deinen Ausführungen sagen???
Ich, und sicher noch vielle andere, gebe mein Geld lieber für Fotohardware aus. Über Ddatensicherung machen wir uns sicher alle so unsere Gedanken aber es geht auch einfacher;).

Gruß, Ralf

Ganz im Gegenteil!
Die digitale Fotografie leifert immer größere Datenmengen und auch die Vernetzung der verschidensten Geräte wird immer mehr zum Thema, da bietet sich ein Homeserver geradezu an - ob das jetzt eine "HighEnd"-Lösung sein muß, steht zwar auf einem anderen Blatt, aber es sit mal interessant wie jemand vom Fach soetwas umsetzt und dabei evtl. sogar erklärt warum er diese oder jene Lösung gewählt hat!

Danke AndyE für den Thread! :up:
 
Kommentar
Das Thema Virtualisierung ist ja in "Fachkreisen" seit ein paar Jahren ein ganz heißes Thema.

Wie kann man es im Heimbereich verwenden? Ein paar unübliche Anwendungen

Fall 1:
Wer hat sich schon mal einen neuen Rechner gekauft und dann den alten Rechner mit Daten und Programmen "abräumen müssen" bzw. den neuen Rechner mit eigentlich alten unnötigen Programmen gleich zu Beginn zumüllen müssen, denn es könnte ja sein, daß man auf irgendeine einzige Datei zugreifen muß, die dann Programm XYZ vom alter Rechner braucht. Virtualisierung macht es viel einfacher:
Schritt 1:
Der alte Rechner wird von seinen Daten befreit. Die kommen auf die entsprechenden Verzeichnisse auf den Server. Die bis jetzt große Sorge, daß dann unter Umständen der Server viele Daten doppelt vorrätig hat, ist mit Deduplizierung ein Thema der Vergangenheit. Einfach draufkopieren reicht. Wenn es doppelt ist wird es in der physischen Platzverwaltung nur einmal gespeichert, aber der Verzeichnisbaum zeigt an allen Stellen die Dateien an, wo man "glaubt" daß sie sein sollten.

Schritt 2:
Nachdem der alte Rechner nur mehr alle Programme und Konfigurationsdateien hat, würde man den gerne aufheben. Das geht mit Virtualisierung leichter als mit dem realen Gerät.
Man startet in Windows das kostenlose Programm disk2vhd, welches aus einem laufenden Windows (XP ab ServicePack2 oder höher) eine vhd Datei macht. Eine vhd Datei ist nichts anderes als die Betriebssystemplatte in einer Datei abgespeichert, die dann einem Hypervisor als virtueller PC vorgelegt wird. Deshalb hat mein Homeserver einen laufenden Hypervisor (kann Windows 8 oder Windows 2012 sein).
Das heißt, daß man ein komplettes Abbild des alten Rechners hat, daß im Bedarfsfall kurz gestartet werden kann um die eine alte Anwendung schnell noch mal auszuführen. Der neue PC bleibt von dieser Altlast an Programmen verschont und läuft wesentlich sauberer.

Fall 2:
Es gibt noch Altsoftware, die eine ältere Betriebsystemversion vorschreibt und nicht mehr auf neueren läuft.
Dazu habe ich virtuelle Maschinen mit alten Betriebsystemversionen (bis MS DOS zurückreichend). Vielleicht kann sich noch jemand Turbo Pascal erinnern? Da es zur Gänze in den Level 1 Cache moderner CPUs passt, ist es heutzutage ca. 3.000 mal schneller als am originalen IBM PC mit 4,77 MHz.

Fall 3:
Der PC müßte für eine Anwendung sehr lange laufen und eingeschalten sein. Daß mache ich lieber in einer virtuellen Maschine. Da der Server als einziger Rechner sowie läuft, wird ein Download oder Upload der mehrere Stunden oder Tage dauert, immer von der VM gemacht. Dazu kommt, daß meistens Desktop PCs durch Grafikkarten mehr Strom brauchen als der Server. Erst seit der letzten Desktopgeneration werden die Dinger sparsamer (wenn keine Hochleistungsgrafikkarte drinn ist)


Fall 4:
Mein Homeserver stellt nur Basisdienste auf der phsyischen Maschine zur Verfügung. Alles andere ist zwecks der leichteren Verwaltbarkeit in virtuellen Maschinen.

Mein Windows Home Server (das Produkt WHS) läuft in einer VM am realen Server. Das hat mehrere Vorteile:
Der WHS kann seine Funktion ganz normal und ungestört zur Verfügung stellen.
Die Sicherung des WHS ist watscheneinfach. Die VM abschalten und die dazupassende VHD auf eine Platte spielen, bzw. auf einen anderen Server. Die VM wieder starten. Fertig.

Sollte es Probleme mit zum Beispiel dem WHS geben. Dann nimmt man die VHD Datei un started sie einfach auf einem anderen Rechner der auch einen Hypervisor hat. Das kann auch ein DesktopPC mit Windows8 sein und hat zumindest den Server in einer Form laufen, während man den Fehler bei der Originalversion in Ruhe beheben kann.

Will man es ganz bequem haben (das braucht aber die Windows Server Version), dann verwendet man Live Migration. Es gibt 2 Server im Haus. Den alten und den neuen. Wenn im neuen etwas passiert, dann kann man alle virtuelle Maschinen ohne Unterbrechung auf den zweiten schieben, den ersten Server reparieren oder erweitern, und wenn man fertig ist, holt man wieder alles zurück und dreht den alten Server ab. Die Anwendungen in den VMs und die daran angehängten PCs die gerade darufzugreifen bekommen von der Aktion nichts mit.

Fall 5:
Man will nur schnell was "ausprobieren". Eine der häufigsten Ursachen, warum auf einmal der Rechenr instabil wird. Da wird eine ultra coole Utility aus dem Internet runtergeladen, eine Demo mal ausprobiert, die nächste Version der eigenen Software getestet, etc ... Sobald man das auf seinem eigenen PC macht, ist das eines der schnellsten Mittel, den Rechner krückenlangsam und unberechenbar zu machen.

Ab in die virtuelle Machine. Zum schnellen ausprobieren kann man bei der VM die UnDo Disk einschalten, die alle Änderungen seit dem Start mitschreibt, und wenn die Neugierde befriedigt ist, kann man die VM exakt wieder auf den Zustand zurückstellen, bevor diese Software ausprobiert wurde. Der Schaden auf dem aktuellen PC ist abgewendet.

Fall 6:
Man hat einen Internetzugang, der auch eine Web Serverpräsenz erlaubt. Entweder mittels statischer oder dynamischer IP Addresse. Mittels einer eigenen VM, wird der Rest des Systems sehr gut von Aussenwirkungen und Gefahren abgeschirmt.

Fall 7:
Meine Eltern haben einen lokalen kleinen Server für die Sicherung ihrer PCs und dgl. Die Sicherung dieses Server passiert über das Internet in eine eigene VM auf meinem Server. Sollte dem Server meiner Eltern was passieren, gibt es bei mir eine Kopie außer Haus.


Dazu gibt es noch viele weitere Szenarien, warum für mich ein Server zu Hause wesentlich mehr können muß, als nur Daten abzuspeichern. Ich hoffe, die oben angeführten Ideen geben einen kleinen Einblick.
 
Kommentar
Mit Lan- und WLan-Verbindungen?
Falls die Frage ernst gemeint war:
100 D4 Dateien sind einem flotten GBit Lan in ca. 17-20 Sekunden übertragen, bei einem WLan sind es abhängig von der Ausprägung typischerweise 10-20 Minuten.
WLan ist für mich aus Zeitgründen nur ein Notbehelf, da so langsam. Wann immer es irgendwo ein LAN Kabel gibt, ziehe ich das vor. Es ist für mich kein Vergleich.

Doch Andy, das gehört auch in ein Fotoforum. Denn jeder von uns hat einen Rechner um hier teilzunehmen, mind. jeder 2. hat einen stets zu lahmen und vollen PC und manch einer sogar Interesse daran :-
Vieles von dem hier beschriebenen kann man mit "älteren" PC auch machen. Kann das mal beschreiben, wie so was aussehen könnte.

Ganz im Gegenteil!
Die digitale Fotografie leifert immer größere Datenmengen und auch die Vernetzung der verschidensten Geräte wird immer mehr zum Thema, da bietet sich ein Homeserver geradezu an
Danke AndyE für den Thread! :up:
Gerne :)
Die Datenmenge zu speichern ist eines, mit ihnen effizient arbeiten zu können ist eine andere Betrachtung. Der Homeserver ist da aus meiner Sicht den NAS Lösungen um einiges voraus.

Bei Wasserkühlung , zucken bei mir alle Gesichtsmuskeln.
Warum? Ist ein fertiges Gerät von Corsair. (ich habe den H100 in Summe 3 mal verbaut)
Das Problem ist folgendes: Es gibt unterschiedliche Stufen von "CPU ist ausgelastet".

Fall 1: Die CPU zählt 2 Zahlen in einer Endlosschleife zusammen. Sie ist ausgelastet. Der Performancemonitor zeigt 100% CPU Auslastung
Fall 2: Die CPU ist so anprogrammiert, daß möglichst viele Transistoren auf dem Chip zugleich was leisten müssen. Die 4 Speichercontroller sind voll mit Datenschaufeln beschäftigt, die Addressberechnung läuft auf höchsten Touren, die AVX Multimediaeinheit bearbeitet 4-16 Zahlen parallel, die Instruktionsdekodiereinheit kommt kaum mit dem Befehle laden, vorbereiten und zuweisen zurecht, usw usf ...

Man merkt die tatsächliche Auslastung einer CPU in der Kombination von Energieverbrauch, Temperturprofil und (zurückgehender) Taktfrequenz.

Während im ersten Fall die CPU "voll" beschäftigt ist, kann sie aufgrund der geringen tatsächlichen Auslastung alles mit maximaler Taktrequenz rechnen und der Energieverbrauch ist unterhalb des Maximalwertes - sie muß ja nur addieren.
Im zweiten Fall, sieht es anders aus: Der Energieverbrauch geht an die maximale Grenze, die Temperatur geht ebenfalls an das Limit. Da bleibt der CPU nur mehr der rettende Ausweg zum thermischen Überleben, die Taktfrequenz runterzufahren.

In meinem Fall:
Die CPU hat eine reguläre Taktfrequenz von 3,1 GHz, kann alle 8 Kerne kurzfristig bis 3,4 GHZ übertakten und einzelne Kerne dürfen bis 3,8 GHz laufen.
Mit sehr guten Lüftern war die CPU Temperatur mit 95 Grad am Anschlag und die Taktfrequenz ging bis auf 2,2 GHz runter, damit die CPU überleben konnte.

Mit den Wasserkühlern sind es folgende Werte: Die CPU läuft mit allen 8 Kernen auf 3,4 GHz bei 60 Grad. Trotz niedrigerer thermischer Belastung hatte ich 55% mehr Leistung zur Verfügung. Nicht schlecht für ein 80 Euro Investment. Sonst ist es mir egal, bei diesen Versuchen war es ein essentieller Beitrag.

Ich würde für normalen Desktop Einsatz mit der viel geringeren CPU Belastung keinen Wasserkühler einbauen. Bei mir liefen jedoch manche Programme mit dieser Belastung über Wochen.


Selbstverständlich gehören diese Beiträge ins Fotoforum! Sie sind beispielhaft und zeigen, in welche Richtung die Reise der digitalen Datensicherung gehen kann.
Danke, Andy!
Ob sie wirklich beispielhaft sind, kann ich nicht sagen. Aber diese Themen sind für mich immer wieder interessant gewesen und früher oder später werden die hier angeführten Leistungswerte sowieso normaler Alltag werden. Es ist nur eine Frage des Wann, nicht des Ob.

Beim Fotografieren lerne ich laufend noch viel mehr dazu, bei den PCs bin ich schon etwas weiter .... ;)

Liebe Grüße,
Andy
 
Kommentar
Ich finde die Ausführungen sehr gut und verfolge dies mit sehr grossem Interesse weil ich selber auch immer grössere Datenmengen in verschiedenster Art zu bewältigen habe.

Sicherlich mag es sein das ein solche Lesitungsfähigkeit zukünftig zur Normalität werden wird, aber wenn dies soweit ist werden die Datenmengen die dann zu bewältigen sind auch um ein vielfaches gewachsen sein.

Deine Bemühungen noch detaillierter mit HIntergund zu beschreiben ist unverzichtbar und es wäre schön wenn man mehr erfahren könnte.

Vielen Dank
 
Kommentar
-Anzeige-
Zurück
Oben Unten