Mein nächster Datenserver

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.
Zu wenig freie Arbeitszeit :gruebel:
Was denkst du eigentlich warum das Arbeitszeit heisst und was man da macht :D
Arbeiten

Wenn ich im Büro bin dann ist das geschäftliche Arbeitszeit (für meinen Arbeitgeber, gegen Geld)

Wenn ich frei habe dann ist es eben meine persönliche freie Arbeitszeit (für meine privaten Projekte)

Ich habe also zu wenig freie Arbeitszeit, weil ich zu viel geschäftliche Arbeitszeit habe.:eek:





Back to topic bitte!
Hat also keiner eine MacMini basierte Storage-Lösung?
 
Kommentar
Anzeigen
Keep it simple:

zu unterscheiden sind professionelle Server: Hardware und Administration
sowie
solche für den Heimgebrauch, die in der Regel selbst betreut werden sollen/müssen.
Die klare Vorgabe ist; einfach zu bedienen und zu administrieren.

Technisch ist ein Daten-Server (File-server) nichts anderes als ein PC mit angeschlossenen Festplatten. Dazu gibt es einfache Regeln, die von einem normalen Windows User angewandt werden können (ich spreche hier nur für Windows, da ich ebenfalls nicht Linux oder Apple administrieren kann).

1) Was soll das Gerät können?
Es macht leistungsmäßig einen Unterschied, ob nur Daten abgelegt werden (nochmals!: ich rede hier von Servern für den Heimgebrauch) oder auch Programme installiert werden, die z.B. Videodaten on the fly auf einem Mobildevice darstellen können.
Dies ist eine Frage zur CPU und dem passenden Mainboard.
2) Für eine einfache Administration nehme ich Windows 7 (verwende ich sowieso; wird wahrscheinlich mit W10 genauso gehen, habe ich aber nicht im Einsatz), ein Mainboard mit 4x Sata und einer PCIe Schnittstelle und schließe hier an:
1x HDD oder SSD (120GB) für das Betriebssystem und die verwendeten Programme (z.B. Musik (Software) Server, TV (Software) Server und Medienplayer für Mobile Geräte (der konvertiert on the fly Videoformate ruckelfrei)
HDDs als Datengräber (10 Stück problemlos mittels PCIe SATA Controller anschließbar (also 40-100TB kein Problem).

Grundsätzlich: Formatierung der HDDs mit NTFS -> HDDs sind damit leicht an andere Betriebssysteme anschließbar
Kein Raid: für solche Fälle völlig überflüssig und KEIN Datenschutz!!
Ein Privater braucht keine Permanentverfügbarkeit; viel wichtiger ist eine echte Datensicherung, die NIEMALS im gleichen System sein darf. Die einzige echte Datensicherung ist eine Kopie der Festplatten auf eine andere Festplatte (oder Bandlaufwerk), die ohne PC Anschluß in einem anderen Raum gelagert wird. Produziert man täglich viele Daten, werden die neuen Daten parallel auf eine weitere HDD kopiert (Hilfsprogramme gibt es zur genüge).
Alle Automatismen bezügl. Updates und Internetzugängen abschalten, wenn es keinen Zugriff von Außen auf Deinen Server geben muß.
System schlank halten; nur das absolut notwendige ist installiert.

Sowas läuft völlig stabil über Jahre und bedarf keiner professionellen Komponenten (HDDs, Mainboard, Controller, Netzteil). Es ist aber unbedingt auf die Temperaturen zu achten und mittels geeigneter Lüfter gegenzusteuern, wenn Temperaturen über 40 Grad laufen. Geht eine HDD defekt (kommt sehr selten vor), wird diese getauscht und die Datensicherung zurückkopiert. Das System fällt für ca. 20 Minuten aus (Austausch der HDD); alle Daten stehen nach dem Hochfahren sofort wieder zur Verfügung, anschließend die getauschte HDD zurückspielen. Kein Administrationsstress, fast kein Serverausfall. Einfacher (für einen privaten Hobby Administrator) geht es nicht.

Und preiswert ist es auch: W7 Lizenz (gebraucht ca. 25€)
Hardware: nach Bedarf (1x Gbit LAN reicht locker für 5 BD Streams gleichzeitig)
 
Kommentar
Danke bl2002,
so eine simple Architektur schwebt mir auch vor.
Und in der Tat fände ich W10 (gebraucht sehr günstig!) auch viel charmanter als so ein spezielles ServerOS.
Aus heutiger Sicht plane ich gar keine Services ausser Fileserver.

Mit dem primären in-der-selben-Box Backup (täglich) sehe ich es ein wenig entspannter als Du wenn (!!!) sekundäre externe Backups gemacht werden.

Abriegeln nach aussen auf der Kiste selber und im Router ist wichtig.

Auch im inneren Netz sollten nicht alle Platten freigegeben sein, denn wenn ein interner Client den Virus hat, könnte der auch auf alle freigegebenen Platten zugreifen.

Das hat mich jetzt bestärkt :)
 
Kommentar
W7, W8 oder W10 ist auch deshalb bestens geeignet, weil häufig Mediensoftware nicht für (professionelle) Serversoftware tauglich ist. Den Frust haben etliche mit der seltsamen Windows Home Server Konstruktion erlebt. Da wurde sogar das Betriebssystem auf die eigentlichen Datenplatten gepackt. Unglaublich, was da unters Volk gebracht wurde.
Du bleibst mit den normalen Betriebssystem Versionen maximal flexibel, falls doch noch einmal sich was ändern sollte.
Nimmst Du ein Intel 1150 Board oder neuer, gibt es alle Leistungsklassen an CPUs (ab ca. 35€). Genauer läßt sich ein Privatserver nicht anpassen. Seagate kommt bald mit 12TB HDDs; die Reise geht dann bis 120TB; sollte erstmal reichen.
Noch ein kleiner Hinweis: Sata-Controller funktionieren nur sicher mit etablierten Treibern/Firmware. Da hatte ich am Anfang von W7 mit einem fehlerhaften Treiber Stress (er hat einfach HDDs verloren). Bei W7 gibt es einen Treiber, der nun sauber läuft; schaue genau ob es sowas für W10 auch gibt. Sonst ist der Server kein Server, sondern eine Stressmaschine. Controller für so viele HDDs gibt es auch nicht gerade wie Sand am Meer; vor allem, die bezahlbaren.
 
Kommentar
Letztendlich braucht ein System (egal welches) Pflege, daher schaue ich regelmäßig meine Disks im NAS an und aktualisiere die Firmware so schnell wie möglich. Dazu existiert noch ein Backup, falls wirklich die Kiste die Grätsche macht und ich auf ein neues Gerät wieder herstellen muss.

Ich tausche auch die NAS Platten, oder ggf. das gesamte NAS nach 3-4 Jahren aus, egal ob es noch gut ist oder nicht.

/b!
 
Kommentar
Hi,

[...] und aktualisiere die Firmware so schnell wie möglich.
das würde ich eher nicht machen. Firmwaren sind keine Viren-Pattern, die zwingend aktuell sein sollten. Wenn eine Firmware tut, was sie tun soll, dann besteht erstmal keine akuter Bedarf was zu ändern (anders, wenn sie nicht tut, was sie tun soll). Die Gefahr, dass eine neue Version nicht mehr tut, ist viel größer. Ich verwende nur gut abgelagerte Firmware :cool:.

Ciao
HaPe
 
Kommentar
Hi,


das würde ich eher nicht machen. Firmwaren sind keine Viren-Pattern, die zwingend aktuell sein sollten. Wenn eine Firmware tut, was sie tun soll, dann besteht erstmal keine akuter Bedarf was zu ändern (anders, wenn sie nicht tut, was sie tun soll). Die Gefahr, dass eine neue Version nicht mehr tut, ist viel größer. Ich verwende nur gut abgelagerte Firmware :cool:.

Ciao
HaPe

Ja und Nein, ich warte in der Regel 2-3 Wochen und beobachte ob zwischendurch die Firmware nochmals zurückgezogen wird oder nicht. Bei einigen größeren QNAPs im Enterprise-Bereich, war der Support immer sehr hilfsbereit - aber generell nur unter dem Tenor, "install the latest firmware" ...

Das Risiko, dass ein Update oder eine neue Firmware auch neue Fehler ins System bringen besteht natürlich immer und nicht nur bei QNAP sondern auch bei Microsoft, Apple, Linux und whatever ....

Vor vielen Jahren hatte ich einmal das Problem, dass eine alte Firmware auf einem Adaptec Controller eine Migration stoppte und auch nach Konsultation des Adaptec Supports nur noch ein Restore des Volumes aus dem Backup die Lösung war. Was mich natürlich zum letzten Punkt bringt.

Backup, Backup und nochmals Backup - und dazu, ein Backup ohne Restore ist ein nutzloses Backup - daher immer fleißig testen.

/b!
 
Kommentar
Mal eine andere Frage:
Worüber reden wir hier eigentlich? Um wie viel Datenvolumen geht es denn und wie verfügbar bzw. wie schnell müssen denn die Daten ausgetauscht sein?

Geht es um einen Heimanwender mit 3-10TB oder um wesentlich mehr Datenaufkommen, sprich werden die genannten 40-100TB aktuell gebraucht oder ist die Planung weit in die Zukunft ausgelegt?
 
Kommentar
daher schaue ich regelmäßig meine Disks im NAS ............Ich tausche auch die NAS Platten, oder ggf. das gesamte NAS nach 3-4 Jahren aus, egal ob es noch gut ist oder nicht.
Ja, das tue ich auch

Wenn eine Firmware tut, was sie tun soll, dann besteht erstmal keine akuter Bedarf was zu ändern
Nach eineigem Lehrgeld halte ich das auch so.
Das Ding läuft, darf eh nicht ins WWW, also bleibt die Firmware wie sie (jetzt stabil) ist.

ein Backup ohne Restore ist ein nutzloses Backup
Daher kopiere ich nur Filesysteme.
Ich will kein proprietäres Backup-Format, das ich vielleicht in 3 Jahren nicht mehr lesen kann, weil mir die entsprechende Anwendung fehlt.
Damit kann ich dann keine Versionierung, das ist ein Nachteil den ich in Kauf nehme.
 
Kommentar
Um wie viel Datenvolumen geht es denn und wie verfügbar bzw. wie schnell müssen denn die Daten ausgetauscht sein?
......
Geht es um einen Heimanwender mit 3-10TB oder um wesentlich mehr Datenaufkommen, sprich werden die genannten 40-100TB aktuell gebraucht oder ist die Planung weit in die Zukunft ausgelegt?

Also was mich angeht, so komme ich mit 4-6 Platten aus.
Bisher sind die Kapazitäten pro Platte ja auch stets gestiegen, so dass das auch in Zukunft damit zu rechnen ist, dass 4 Slots reichen sollten.
Die meisten PC-Gehäuse können 7 oder 8 Platten aufnehmen, da wäre dann noch "Luft".

Ich bin Privatanwender und im wesentlichen kommt das Volumen aus Bildern. Wenn einer Videos sammelt kommt natürlich schnell mehr zusammen.
Von 100TB habe ich also nicht gesprochen.
 
Kommentar
Das Thema Geschwindigkeit ist ja auch schon diskutiert worden.
Ich habe heute morgen endlich mal gemessen wie schnell ich auf mein QNAP zugreifen kann.

Hier ist das traurige Ergebnis:
35ILWnfc



Zum Vergleich ein via USB3 angeschlossene externe Platte (lacie):
LyXCHkWw



Und dann noch eine via USB3 angeschlossene SSD:
h9LfaMFU




Das schlechte Ergebnis schreibe ich natürlich nicht alleine dem QNAP zu, da muss ich schon alle Netzkomponenten berücksichtigen...
Aber es wäre schon schön, wenn ich mit dem QNAP performanter Arbeiten könnte, dann würden weniger lokale Platten auf dem Schreibtisch rumlungern.
 
Kommentar
aah ja, wer lesen kann. Die 40-100TB hatte ich aus Beitrag #22, die stammten also gar nicht von Dir.
Aber 4-6 Platten ist jetzt auch keine Angabe, mit der man was anfangen kann, wenn man bedenkt, dass die Spanne der angebotenen Kapazitäten im Handel im Augenblick 500GB-10TB umfasst.

Ich nutze selber Synologies und keine Qnaps, vermute aber, dass auch da ein Unix Derrivat unter der Haube werkelt (edit: ja, tun sie). Damit diese Kisten mit Windows Rechnern kommunizieren können, wird Samba als Protokoll verwendet.
Wenn man sich die Specs von einem aktuellen Modell aschaut, dann bist Du doch nicht so weit weg. Je nachdem, was da im Hintergrund auf dem NAS und auf dem Client passiert, je nach Festplatte und je nach Netzkonfiguration, können da schon erhebliche Abweichungen von den Laborwerten entstehen.

Insgesamt bin ich selber großer Freund dieser NAS. Einen Server selber vernünftig aufzusetzen, ist auch kein Vormittagsprojekt. Das schöne an diesen KlickiBunti-Oberflächen ist doch gerade, dass man auch ohne große Vorkenntnisse schnell zu einem funktionierenden Ergebnis kommt.

Ob man die Kiste als Samba Share, (SSH-) oder FTP Server nutzt, kann man sich ja für sich selber überlegen. Mit jeder dieser Lösungen kann man per rsync (unter Windows robocopy) Backups anlegen, die kein proprietäres Dateiformat benutzen.

Zumindest auf der Synologyoberfläche ist das anlegen eines Volume selbst für einen Anfänger ziemlich einfach. Datenmigration auf eine größere Platte kostet etwas Zeit, beschränkt sich aber im wesentlichen aus dem physikalischen Tausch und Warterei bis das Volume wieder repariert ist. Einfacher kann man kaum in der Kapazität wachsen, zumal Qnap mit diesen Expansions ja wirklich interessante Sachen anbietet.

Ich finde Beitrag #4 schon recht sinnvoll. Das ganze Teil mal neu aufsetzen und wirklich nur das an Diensten aktivieren, was man braucht um die Last auf der Maschine möglichst gering zu halten (bei meiner älteren Synology aus 2012 merkt man das schon deutlich).

Wenn das alles nix für Dich ist, würde ich persönlich zum Selbstbau tendieren. Das ist aber mit Sicherheit nicht in der Zeit getan, in der Du die Qnap eingerichtet hast. Zu der Wahl der OS mag ich nichts sagen, da ich meistens mit Linux unterwegs bin.
 
Kommentar
Wenn man sich die Specs von einem aktuellen Modell aschaut, dann bist Du doch nicht so weit weg. Je nachdem, was da im Hintergrund auf dem NAS und auf dem Client passiert, je nach Festplatte und je nach Netzkonfiguration, können da schon erhebliche Abweichungen von den Laborwerten entstehen.

Aber das ist Faktor 4!
Ich muss heute abend mal nachsehen ob bei der FritzBox zufällig der "Green Mode" aktiviert ist, wo die Übertragungsleistung zugunsten E-Verbrauch zurückgenommen ist. Wenn der GreenMode bei Fritz der Default ist wäre das natürlich ein Erklärung.
 
Kommentar
Hast Du zwei Netzwerkports an deiner Qnap und auch beide angeschlossen? Sonst ist es gerade mal doppelt so schnell.
Das ist auch ein aktuelles Modell.

Läuft vielleicht ein Virenscanner (auf Qnap oder Client) o.ä. mit, der die Rate herunter bremst?
 
Kommentar
Zwei Nics zusammenschalten macht der Switch, wenn ers kann - das nennt man trunking. Aus dem Microserver laufen die Datenpakete über zwei Leitungen, der switch verteilt das ganze.

Danke! Schade dass ich das nicht schon beim Routerkauf gewusst habe :heul:
Ich hab einen Netgear GS105. Der kann leider gemäß Spec. kein Trunking, sollte aber GBit können. (Die Dioden leuchten auch entsprechend)

Ich geh also mit dem Mac in die GS105 und gleich weiter zum QNAP (nur mit einer Leitung aktuell).
Die Fritz-Box hängt auch an der GS105.
Da würde ich ja davon ausgehen, dass bei einem Zugriff vom Mac auf das QNAP die Kommunikation nicht über die Fritzbox läuft?

Aber über die gemessenen 55 Gigabyte/s komme ich nicht hinaus.
[MENTION=15499]dampfbetrieben[/MENTION]: auf dem QNAP läuft meines Erachtens nichts weiter. Und der Mac hat auch keinen Virenscanner, aber das wäre ohnehin auch nicht das Bottleneck. Der Mac hat genug Reserven.
 
Kommentar
Nein.
Im Qnap läuft eine normale einzelplatte die via SMB vom Mac angebunden ist.


Gesendet von iPhone mit Tapatalk
 
Kommentar
Nach längerer Zeit nehme ich das Thema noch einmal auf.


Meine komplette Datensicherung hat am vorletzten WE geschätzt 10-12h gedauert.
Der QNAP ist einfach als Netzwerkplatte saulangsam (obwohl mit Mbit spezifiziert!)


Jetzt war ich mal bei QNAP auf der Page:
da gibt es ja Hammer Geräte jetzt!

So was hier:
https://www.qnap.com/de-de/product/model.php?II=232&ref=product_overview

Thunderbolt 2 (!!!) und Ethernet
6 HDD Bays und zwei SSD-Bays

Wow.
WOW.

Hammer!

Das ändert einiges in meinen Gedankenspielen - da kann man ja ganz neue Konzepte entwickeln...

(Aber schweineteuer, das Gelumpe...)
 
Kommentar
Ja, das kenne ich. Ich habe auch seit 13 Stunden eine Datensicherung von einem Synology auf ein anderes Synology laufen, also Full Backup eines Ordners mit 900GB Daten. auch per GBit angeschlossen. beide Geräte melden Übertragungsraten von ca 13-17MB/Sekunde.... Das kanns auch nicht wirklich sein, da muss ich auch nochmal ran und schauen wie ich es schneller machen kann. Eigentlich läuft mein Backup NAS nur an den Tagen an denen auch Daten gesichert werden, das Live NAS hingegen läuft 24/7. Also hatte ich das BAckup Nas per Zeitplan nachts um 0:30 eingeschalten und morgen um 08:30 ausgeschaltet. Gestern hatte ich dann mal die Logs angeschaut... und jedes Fullbackup ist morgens um 08:30 gescheitert (klar, da hat sich ja das NAS abgeschaltet) Gibt jetzt zwei Dinge die ich schauen muss: Wasrum es trotz Gbit Verkabelung nicht schneller geht, evtl mal testen ob per FTP ich bessere Übertragungsraten schaffe und das zweite ob es keine Möglichkiet gibt dass das NAS erst abschaltet wenn , sagen wir mal, fünf Minuten keine nennenswerte Übertragung stattgefunden hat. Ist ja blöd wenn was abschaltet obwohl es noch nicht fertig ist.

Beste Grüße
Wolfgang
 
Kommentar
-Anzeige-
Zurück
Oben Unten