Sicherungskonzept Server / LVM mit mehreren Festplatten oder besser kein LVM ?

  • Hi,
    habt Ihr einen Tipp, wie ich am sinnvollsten meine Festplatten nutze? Unter Windows würde ich Acronis einsetzen, unter Linux fehlt mir was passendes.


    Ich denke mal mit LVM würde es am besten funktionieren?


    Ziel: Backup der Laufwerke , Ausfallsicherheit des wichtigsten Bereichs Archiv


    zur Verfügung stehendes Material:


    • im alten Server: 6 * 1TB WD RE3 am Adaptec Raid 1280 PCI-X 8 Port als Raid 6
    • Im neuen Server: 3 * 3TB Seagate SV35 am Areca 12 Port als Raid 5
    • 2 * 1TB Desktop Platten z.Zt. als lokale VDR-Server Platte und Archiv Dallas (z.zt. teilweise ungesichert)
    • 1 * NAS LevelOne mit 1TB


    Der alte Server funktioniert noch, soll aber vom Netz gehen. Mir schwebt da vor, den per WOL und neuem BS als Backupserver zu verwenden. Ohne Raid könnte ich dann die volle Kapazität von 6TB nutzen.


    Problem für mich sind Ordner für Foto / AVCHD / Musik . Diese als LVM ? mit Spiegel auf 2 * 1TB Platten. Aber kann man mit LVM das auf mehreren Platten auch nachträglich hinzufügen?


    Soll heißen, muss dann die komplette Festplatte ein LVM haben, oder kann man auch mischen? LVM kann keine externen LVMs ansprechen?


    mhdfs kommt für mich nicht in Frage, ich will meine Ordner zusammen lassen und nicht die index von den ts getrennt lagern, bzw alles unkontrolliert verteilt haben.


    Da ich mit LVM bisher nichts gemacht habe, wäre ich über ein wenig Schützenhilfe dankbar.


    Thx

    Proxmox VE, Tyan Xeon Server, OMV, MLD-Server 5.1
    MLD 5.1 64bit: Asus AT5iont-t, ION2, 4GB Ram, SSHD 2,5" 1Tb, HEX TFX 300W 82+, Cine S2 V6.2 , 38W max.
    Yavdr 0.5:
    Zotac D2550ITXS-A-E mit GT610 OB, TT S2-4100 PCI-e ,Joujye NU-0568I-B
    Yavdr 0.5:
    Sandy Bridge G840, Tests und Energieverbrauch , CoHaus CIR, Cine S2 V6.2
    MLD 5.1 Beebox N3150
    , DVBSky S960 und 1Tb WD Blue

    3 Mal editiert, zuletzt von Dirk () aus folgendem Grund: Präfix hinzugefügt

  • Such dir mal eine gute Einführung zu dem Thema (kleiner Einstieg z.B. http://wiki.ubuntuusers.de/Logical_Volume_Manager oder http://www.selflinux.org/selflinux/html/lvm.html) und schau dir an wie man ein LVM anlegt, erweitert, PVs und VLs verschiebt usw. - wenn du die paar NFS-Optionen beim Avahi-Mounter für anspruchsvoll gehalten hast viel Spaß :mua


    LVM lohnt sich eigentlich nur auf Systemen mit sehr zuverlässigen Controllern, die sterbende Platten verkraften können (oder für Spielsysteme, die dann aber keine wichtigen Daten halten sollen) und setzt IMHO einiges an Vorwissen voraus. Was stellst du dir unter externen LVMs vor? Einzelne Platten kann man natürlich zusätzlich in ein LVM einbinden ( (aber nicht wirklich dynamisch ohne das geplant zu ändern wieder herauslösen) , aber das Risiko für seine Daten, dass man so schafft steht in keinem Verhältnis zum Vorteil des Konzepts.
    Der Anspruch Daten in einem LVM nicht wild über die Platten zu verteilen ist aber absurd, sobald mehr als ein PV auf mehr als einer Platte im Spiel ist.
    Bei mhddfs hat man im schlimmsten Fall mehrere strukturgleiche Verzeichnisbäume die man mit oder ohne Hilfe von mhddfs leicht wieder zusammensetzen kann und jede Platte oder beliebige Teile können einfach mit den gewohnten Backup-Tools gesichert werden. Fällt eine Quelle aus, sind nur die Daten weg, die auf der jeweiligen Platte gelagert wurden. Beim LVM steht und fällt der komplette Datenbestand mit jedem PV in einer VG die ein LV beinhaltet, weshalb man das eigentlich nur auf einem oder mehreren RAIDs mit ausreichend Spare-Platten einigermaßen sicher betreiben kann.

    yaVDR-Dokumentation (Ceterum censeo enchiridia esse lectitanda.)

  • Das hört sich erstmal danach an, als wenn ich von LVM keinen Nutzen hätte. Klar dass es nicht mal ebenso zu nutzen ist wie normale Dateisysteme. Wenn sich aber es loht dann lerne ich es. NFS war im nachhinein betrachtet nicht wirklich schwer, aber wenn es irgendwo hakt ist aller Anfang schwer...


    Andererseits können meine Hardware Raid Controller alles was das Herz begehrt (insb. online capacity expansion) was beim Areca hervorragend über das WebIF danke eigenem Netzwerkanschluss geht. Das lässt sich einfach bedienen, ohne Klimmzüge mit LVM zu machen.
    Wenn es auf 2 Separaten Raid Controllern läuft hat es auch Vorteile, wenn der mittlerweile 8 Jahre alte Adaptec den Geist aufgibt ist nur das Backup im Eimer.


    Oder doch vielleicht besser alle an den Areca Controller und einfach auf XFS für die großen Laufwerke gehen. Und den alten Server als Backup-NAS aufsetzen. Da der dann nur noch selten an ist, läuft der vermutlich immer noch 5 Jahre bei 1 Backup / Monat


    Bei mhdfs stört mich einfach immens, dass die vdr recording Verzeichnisse zerpflückt werden, und je nachdem wo genug frei ist mal auf der einen Platte was ist und mal auf der nächsten (sofern ich das Prinzip nicht falsch verstanden habe)


    Mein größtes Problem ist aber, dass mir bisher kein vernünftiges Gui-Backup Programm unter Linux bekannt ist (ohne 500 € für Acronis auszugeben, die ich nicht habe)


    Mir geht es nur um die Sicherung der Daten. Das System und die VM's sind kein Thema zu sichern. Die sind auf einer 256GB SSD und werden über die Volumesnapshots bei Bedarf auf eine Netzfreigabe kopiert.


    PS: zum Probieren habe ich zur Zeit mein Archiv in ein XFS LVM kopiert. Als Gui Fetischist habe ich mich dem Tool system-config-lvm bedient. Damit ging es ganz leicht, hatte aber bereits einmal das Problem, dass die VG ständig nach einem Reeboot manuell aktiviert werden musste. Warum auch immer, ich habe es neu aufgesetzt und seitdem das Problem nicht mehr. Ich vermute mir hat das gparted eingebrockt, obwohl ich auf dem LVM nichts damit bearbeitet hatte.

    Proxmox VE, Tyan Xeon Server, OMV, MLD-Server 5.1
    MLD 5.1 64bit: Asus AT5iont-t, ION2, 4GB Ram, SSHD 2,5" 1Tb, HEX TFX 300W 82+, Cine S2 V6.2 , 38W max.
    Yavdr 0.5:
    Zotac D2550ITXS-A-E mit GT610 OB, TT S2-4100 PCI-e ,Joujye NU-0568I-B
    Yavdr 0.5:
    Sandy Bridge G840, Tests und Energieverbrauch , CoHaus CIR, Cine S2 V6.2
    MLD 5.1 Beebox N3150
    , DVBSky S960 und 1Tb WD Blue

  • Bei mhdfs stört mich einfach immens, dass die vdr recording Verzeichnisse zerpflückt werden, und je nachdem wo genug frei ist mal auf der einen Platte was ist und mal auf der nächsten (sofern ich das Prinzip nicht falsch verstanden habe)


    Wenn du beim VDR das splitten der TS abschaltest sollten zumindest die einzelnen Filme nicht über mehere HDDs verteilt werden.


    Du kannst dich auch mal in AUFS reinlesen: http://aufs.git.sourceforge.ne…c96;hb=refs/heads/aufs3.7
    Ich nutze es nicht fürs Videoverzeichnis, aber laut Doku kann AUFS Verzeichnisse zusammenhalten (sofern vom Platz her möglich).


    AUFS ist allerdings nen Kernelmodul (D.h. wenns mal abschmiert dann richtig) und braucht minimal nen Kernelpatch (auch wenn man das Modul ausserhalb baut).


    Und in den Kernel wird es niemals kommen, weil die wollen ja nur ihr eigenes UnionFS (was natürlich noch nicht exisitert :wand ) im Kernel, weil das reicht ja :wand



    BTW Sicherungskonzept: Ich checke im cron.daily alle Metadaten (also alles auser die *.jpg; 0??.vdr; *.ts; index[.vdr]) in ein GIT ein. Bleiben hier also nur zum Sichern/Datenretten die (relativ wenigen) 0??.vdr/*.ts.
    Sowas ist auch vom Vorteil wen im mhdfs/AUFS Verbund plötzlich ne HDD ausfällt, man weiß wenigstens was fehlt ;)


    Ferner ist die Frage ob man ALLE sichert (überhaupt sichern will/muss) oder nur die über Priorität x?


    cu

  • @thorsten73: Vielleicht lohnt für dich ein Blick auf solaris und zfs. (zuzüglich aller derivate.)


    wenn solaris/et.al. deine adaptec hw erkennt, kannst du zfs nutzen. solaris ist leider etwas zickig mit hardware.


    zfs ist sehr einfach im handling. du kannst aber auch einfach mit napp-it.org das system administrieren.


    Code
    zpool create tank raidz c1t0d0 c2t0d0 c3t0d0 c4t0d0 c5t0d0 c6t0d0
    zfs create tank/home
    zfs set sharenfs=on tank/home

    und du hast aus 6 platten ein raid-z und einen nfs share gemacht.


    verwende nicht den raid modus des adaptec. überlass zfs die raid arbeit.

    yavdr 0.5, AMD Athlon(tm) II X2 240e, MSI 770-C45, 4GB, Cine S2, Terratec Cinergy S2 PCI HD, TechniSat SkyStar2 DVB-S, TechniSat AirStar2 DVB-T

  • Wenn es sich um ein ernstzunehmendes Backup handeln soll, dann gehören die Backup-Medien vom eigentlichen Rechner separiert. Nicht umsonst wird in Unternehmen selbst dann, wenn gespiegelte Platten genutzt werden, noch eine Sicherung auf Band gemacht.


    Selbst das beste RAID bringt dir nichts mehr, wenn der Server bei Gewitter anständig Überspannung abbekommt und es dabei beide Instanzen des Spiegels zerstört.


    Im Privatbereich ist eine Kombination von rsync und halbwegs soliden eSATA-Gehäusen eine recht praktikable Lösung. Backup durchführen beschränkt sich dann auf:
    - Als root einloggen
    - Platte anstecken und mounten
    - rsync-Script starten
    - Nach Ende des Scripts Platte wieder aushängen und verstauen

  • Warum überhaupt RAID für das riesige VDR Videoarchiv? Braucht man da denn die Ausfallsicherheit wirklich?


    Oder doch lieber den Plattenplatz voll ausnutzen und ein automatisches nächtliches rsync Backup auf die Backup HDD.


    Im Privatbereich ist eine Kombination von rsync und halbwegs soliden eSATA-Gehäusen eine recht praktikable Lösung. Backup durchführen beschränkt sich dann auf:
    - Als root einloggen
    - Platte anstecken und mounten
    - rsync-Script starten
    - Nach Ende des Scripts Platte wieder aushängen und verstauen


    Lässt sich mit ner passenden udisk-glue Einstellung auch automatisieren "wenn HDD Seriennummer x dann Backupscript starten". Ranstecken, warten bis das flackern der LED aufhört und rausziehen -> fertig.


    cu

  • AUFS ist allerdings nen Kernelmodul (D.h. wenns mal abschmiert dann richtig) und braucht minimal nen Kernelpatch (auch wenn man das Modul ausserhalb baut).

    Da ich keine Kernel bisher kompiliere, fällt damit dieser Ansatz raus.


    Vielleicht lohnt für dich ein Blick auf solaris und zfs. (zuzüglich aller derivate.)

    Habe ich schon von gehört und mal kurz angelesen, aber da es kein Linux / Ubuntu ist war ich davon eher abgeneigt. Aber ich denke nochmal drüber nach.

    Wenn es sich um ein ernstzunehmendes Backup handeln soll, dann gehören die Backup-Medien vom eigentlichen Rechner separiert. Nicht umsonst wird in Unternehmen selbst dann, wenn gespiegelte Platten genutzt werden, noch eine Sicherung auf Band gemacht.


    Selbst das beste RAID bringt dir nichts mehr, wenn der Server bei Gewitter anständig Überspannung abbekommt und es dabei beide Instanzen des Spiegels zerstört.

    Vollkommen richtig. Ich predige das selber ja auch ständig, auch wenn ich unter uns gesagt Zuhause selber es nicht immer beherzige :( . Mein Archiv ist lange Zeit nicht separat gesichert gewesen. Lediglich meine privaten eigenen Videos / Fotos/ usw die unwiederbringlich sind sogar 3fach gesichert. (NAS, und auf 2. Arbeitsplatz). Aber das wollte ich eigentlich nun ändern.

    Warum überhaupt RAID für das riesige VDR Videoarchiv? Braucht man da denn die Ausfallsicherheit wirklich?

    Eine gute Frage. Die ist mir auch schon mehrfach durch den Kopf gegangen. Sicherlich ist es schön eine flotte Read Performance zu haben, aber die Platten schaffen auch so locker den Parallelzugriff von allen max. möglichen VDR´s.
    Entstanden ist das damals aus der Windows Welt, wo es ohne Raid nicht möglich war zusammenhängende große Dateisysteme zu erzeugen. Und mehrere Ordner in einer Freigabe zusammenzufassen war nicht möglich. Außerdem ist es meine technische Spielwiese um einfach mit Raids und den Controllerfunktionen umgehen zu können praktisch sowas Zuhause zu haben.


    Nur stehen heute andere Aspekte im Vordergrund, u.a. weniger Stromverbrauch und Linux, und massiv weniger Geld zu Verfügung (Nachwuchs ohne Lohnzuwachs ist :wand ). Daher auch Komponenten die die Laufwerke selber in Standby setzen können. Wobei ich mir dabei sehr wohl bewust bin, dass dies zu einer geringeren Lebenserwartung führen wird. Alle Raids die ich bisher gebaut habe und die nonstop laufen haben die Nutzungsdauer des Systems überlebt. Die Start Stop Zyklen zehren an der Lebenserwartung. Wobei das Archiv bestenfalls beim Neustart und vielleicht einmal am Tag genutzt wird.
    Der Areca kann die Platten in den Standby schicken. Um den Cache von 1-2GB zu nutzen könnte ich die Platten auch als jbod laufen lassen. Damit habe ich so etwas ähnliches wie mhdfs ohne dessen Nachteile.
    Ist das für ein Archiv besser?
    Vorteil ist mehr Kapazität, Nachteil Read Performance, etwas geringere Datensicherheit


    Aber warum habe ich dann einen so schönen Raid Kontroller. Das ist doch Verschwendung. Ich habe es gerne sch schnell wie es nur irgend möglich ist. (Wenn schon kein Ferrari in der Garage dann ein Porsche im Datennetz :D :D :D )
    Ich will aber dann auch volle Kopiergeschwindigkeit haben und nicht wie bei Windows mein Gigabit mit max. 50% auslasten zu können.


    Aber genau deshalb freue ich mich über Euer Feedback. Manchmal wird man Betriebsblind und verliert den Blick fürs Wesentliche.

    Proxmox VE, Tyan Xeon Server, OMV, MLD-Server 5.1
    MLD 5.1 64bit: Asus AT5iont-t, ION2, 4GB Ram, SSHD 2,5" 1Tb, HEX TFX 300W 82+, Cine S2 V6.2 , 38W max.
    Yavdr 0.5:
    Zotac D2550ITXS-A-E mit GT610 OB, TT S2-4100 PCI-e ,Joujye NU-0568I-B
    Yavdr 0.5:
    Sandy Bridge G840, Tests und Energieverbrauch , CoHaus CIR, Cine S2 V6.2
    MLD 5.1 Beebox N3150
    , DVBSky S960 und 1Tb WD Blue

  • Da ich keine Kernel bisher kompiliere, fällt damit dieser Ansatz raus.


    Ubuntu 12.04 bringt den Patch bzw. das daraus resultierende Kernel-Modul schon mit:


    mhddfs hat gegenüber vielen anderen Overlay-Dateisystemen einen entscheidenden Vorteil: man darf den Lower-Tree manipulieren. D.h. man kann zum Bestücken durchaus separate Freigaben für die einzelnen Partitionen/Ordner nutzen (z.B. über Samba oder NFS) aber dann alles als einen gemeinsamen Verzeichnisbaum so exportieren, dass ein yaVDR-Client alles richtig zusammengestellt über Avahi geliefert bekommt. Die Verteilung der Daten findet ja nur bei Schreibzugriffen auf das mhddfs statt.

    yaVDR-Dokumentation (Ceterum censeo enchiridia esse lectitanda.)

  • mhddfs hat gegenüber vielen anderen Overlay-Dateisystemen einen entscheidenden Vorteil: man darf den Lower-Tree manipulieren.


    Geht bei AUFS auch, allerdings ist er mir dabei schon mal abgesemmelt (aber sehr selten). Keine Ahnung wie stabil da mhddfs ist wenn man beim direckten Branch Zugriff ein Verzeichnis wegnimmt?


    cu

  • Naja im schlimmsten Fall geht der Userspace-Daemon flöten. Als FUSE-Dateisystem bricht es natürlich keine Geschwindigkeitsrekorde, aber für den normalen Zugriff von VDR-Clients im Netzwerk macht das eigentlich nichts aus.

    yaVDR-Dokumentation (Ceterum censeo enchiridia esse lectitanda.)

  • Jetzt weiss ich wieder woher mir zfs bekannt vor kam, es wird auch bei FreeNAS genutzt. Das schwebte mir auch als Lösung auf dem alten Server vor.


    Merkwürdigerweise ist meine vg archiv plötzlich defekt und kann nicht gemountet werden:


    Proxmox VE, Tyan Xeon Server, OMV, MLD-Server 5.1
    MLD 5.1 64bit: Asus AT5iont-t, ION2, 4GB Ram, SSHD 2,5" 1Tb, HEX TFX 300W 82+, Cine S2 V6.2 , 38W max.
    Yavdr 0.5:
    Zotac D2550ITXS-A-E mit GT610 OB, TT S2-4100 PCI-e ,Joujye NU-0568I-B
    Yavdr 0.5:
    Sandy Bridge G840, Tests und Energieverbrauch , CoHaus CIR, Cine S2 V6.2
    MLD 5.1 Beebox N3150
    , DVBSky S960 und 1Tb WD Blue

    Einmal editiert, zuletzt von Torsten73 ()

  • Mein größtes Problem ist aber, dass mir bisher kein vernünftiges Gui-Backup Programm unter Linux bekannt ist (ohne 500 € für Acronis auszugeben, die ich nicht habe)


    Ein wirklich gutes Backuptool ist rsync. Kann ich uneingeschrenkt empfehlen und man hat mannigfaltige Möglichkeiten. Mann muss sich allerdings vorher ein Konzept einfallen lassen, hat keine GUI und muss sich etwas einarbeiten.
    So mache ich es:


    -Rechner Startet täglich zu einer Zeit ( Startzeit im Bios gesetzt)
    -Crontab startet nach dem booten mein Script. Darin dann
    -Netzlaufwerke mounten
    -Vergleichen
    -Veränderte Dateien in ein mit Datum versehenden Ordner verschieben
    -Aktuelles Verzeichnis abgleichen
    -Rechner runterfahren


    Das funktioniert hier schon ein paar Jahre problemlos. Ein Raid spare ich mir.
    Gruß Jan

    1:Dell PoweEdge T20; Xeon E3-1225 v3; 32GB RAM; Proxmox 5.4; MLD 5.4 als VDR-Server; 2 x Cine S2;
    2:Intel NUC i3 Passiv; 4GB RAM; 120GB SSD; easyvdr 3.5 als client; Harmony Hub

    2:Intel NUC i5 Passiv; 4GB RAM; 120GB SSD; easyvdr 3.5 als client; Harmony Hub
    3:Raspberry Pi 3B; MLD

  • Habe ich schon von gehört und mal kurz angelesen, aber da es kein Linux / Ubuntu ist war ich davon eher abgeneigt. Aber ich denke nochmal drüber nach.


    so what? du hattest noch einem sicheren und einfachem system für ein nas gefragt. wenn windows zfs hätte, würde ich sogar das nehmen. ;)

    yavdr 0.5, AMD Athlon(tm) II X2 240e, MSI 770-C45, 4GB, Cine S2, Terratec Cinergy S2 PCI HD, TechniSat SkyStar2 DVB-S, TechniSat AirStar2 DVB-T

  • FreeNas scheint ja durchaus deutlich gewachsen zu sein. Die Test die ich gelesen hatte waren aus 2011 und bescheinigtem dem System damals Instabilität und mäßige Performance. Aber die Liste der Möglichkeiten ist Interessant und mittlerweile ist vermutlich einiges besser als noch vor 2 Jahren. Da es rein per Webgui administriert wird, es es für mich egal, dass ich mit freebsd nichts anfangen kann.


    Es nutzt auch rsync und crontab, iscsi kann für die VM interessant werden und mit 2 FreeNas Servern wird vermutlich sogar failover möglich sein?
    Zeroconf ist auch da. Möglich, dass es mit dem avahi vom yavdr nutzbar ist.


    Das ganze in einer VM zu testen sollte ja hinzubekommen sein. Wenn da nicht noch 2 Baustellen mit PCI-Passtrough bei mir wären, die ich dafür gelöst bekommen muss (was aber nicht hier rein gehört).

    Proxmox VE, Tyan Xeon Server, OMV, MLD-Server 5.1
    MLD 5.1 64bit: Asus AT5iont-t, ION2, 4GB Ram, SSHD 2,5" 1Tb, HEX TFX 300W 82+, Cine S2 V6.2 , 38W max.
    Yavdr 0.5:
    Zotac D2550ITXS-A-E mit GT610 OB, TT S2-4100 PCI-e ,Joujye NU-0568I-B
    Yavdr 0.5:
    Sandy Bridge G840, Tests und Energieverbrauch , CoHaus CIR, Cine S2 V6.2
    MLD 5.1 Beebox N3150
    , DVBSky S960 und 1Tb WD Blue

  • Hallo,


    ich stimme da Jan voll zu.


    Im Heimbereich ist imho ein Archiv via RAID total überflüssig, mein Server gleicht sich via rsync mit dem Backupserver alle 24 ab,
    sollte in der zwischen zeit wirklich mal etwas verloren gehen ist es auch nicht so tragisch,
    unsere Masse an TV Sendern ist auch ein vorzüglicher "Cloud" Speicher, wenn es morgen nicht wiederholt wird,
    dann aber in 4 oder 6 oder wann auch immer Wochen.


    Kind regards

    VDR-Server: Ubuntu 16.04 mit TVH
    als SAT>IP, PLEX Media, und Asterisk Server - ASRock J1900M, DD Cine S2 V6.5 + 3 * DuoFlex S2, 8GB Ram, 8x6 TB HDDs + 8x6 TB Backup Server alle 24 Stunden via rsync, kein Raid
    VDR Clients: yaVDR 0.6.0, ASRock Q1900B, 2GB Ram, 16 GB USB-Stick, Zotac GeForce GT 730, keine Lüfter - alles mit Heatpipes gegen Starngkühlkörper

  • FreeNas scheint ja durchaus deutlich gewachsen zu sein. Die Test die ich gelesen hatte waren aus 2011 und bescheinigtem dem System damals Instabilität und mäßige Performance.


    Teste doch mal lieber OMV, dann brauche ich es nicht zu tun ;). Klingt für mich sehr interessant.


    Gerald


    HP Proliant MicroServer Gen8, Xeon E3-1230, 12 GB RAM, 3xWD red 2TB im RAID 5, 2xSundtek MediaTV Home DVB-C/T, L4M TWIN-C/T, Ubuntu Server 14.04.1, Plex Media Server
    Samsung UE55H6470

  • Hallo ich habe mit http://zfsonlinux.org/ sehr gute Erfahrungen gemacht.
    Grüsse Peje

  • Teste doch mal lieber OMV, dann brauche ich es nicht zu tun ;). Klingt für mich sehr interessant.

    Alleine schon um beides zu testen werde ich Wochen brauchen. Wenn NAS dann wird es vermutlich zwischen den beiden zur Wahl kommen. Wobei mich FreeNas mit empfohlenen 6GB RAM bei FullZFS schon erstaunt. Was macht man beim NAS mit so viel Arbeitsspeicher. Virtueller Puffer für die Freigaben?
    OMV hat einen ähnlichen Funktionsumfang auf den ersten Blick. Sind wohl beide recht mächtig. Wie immer man hat die Qual der Wahl. Wobei ZFS sich wirklich gut anhört.

    Hallo ich habe mit http://zfsonlinux.org/ sehr gute Erfahrungen gemacht.

    Guter Link. Es gibt sogar ein PPA! Somit könnte man den Yavdr mit dem PPA um die ZFS Fähigkeit erweitern. Fragt sich nur was ein solches PPA alles an Problemen verursacht. Es dürfte recht tief in den Kernel eingreifen?

    Proxmox VE, Tyan Xeon Server, OMV, MLD-Server 5.1
    MLD 5.1 64bit: Asus AT5iont-t, ION2, 4GB Ram, SSHD 2,5" 1Tb, HEX TFX 300W 82+, Cine S2 V6.2 , 38W max.
    Yavdr 0.5:
    Zotac D2550ITXS-A-E mit GT610 OB, TT S2-4100 PCI-e ,Joujye NU-0568I-B
    Yavdr 0.5:
    Sandy Bridge G840, Tests und Energieverbrauch , CoHaus CIR, Cine S2 V6.2
    MLD 5.1 Beebox N3150
    , DVBSky S960 und 1Tb WD Blue

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!