Welches Dateisystem für 10TB-Partition?

  • Hallo,


    ich möchte mein Videoarchiv (10TB) mit einem ext4-Dateisystem versehen (neu formatieren).
    Ist für die Videodatenspeicherung die Option largefile beim Erstellen des Dateisystem noch nötig/sinnvoll?


    Hardy

    Suche: 6 Richtige für die nächste Lottoziehung
    PS: Wer Rechtschreibfehler findet, darf sie behalten!

    Einmal editiert, zuletzt von HFlor ()

  • in diesem Zusammenhang ist mir gleich nochwas aufgefallen:


    Die Array-Größe beträgt 10002047303680 Bytes (9315,1 GiB)
    df -B 1 gibt bei Blöcke 9845097840640 Bytes (9169,0 GiB)
    und bei verfügbar 9844922052608 Bytes (9168,8 GiB) an.


    Die Differenz von 168 MiB bei df von Blöcke/verfügbar ist ja erklärbar, aber wo sind die 156949463040 Bytes (146,2 GiB) bei Erstellung des Dateisystems geblieben?

    Suche: 6 Richtige für die nächste Lottoziehung
    PS: Wer Rechtschreibfehler findet, darf sie behalten!

  • Zitat

    Originally posted by HFlor
    Die Differenz von 168 MiB bei df von Blöcke/verfügbar ist ja erklärbar, aber wo sind die 156949463040 Bytes (146,2 GiB) bei Erstellung des Dateisystems geblieben?


    Reserved Blocks? Jedenfalls wird bei EXT3 sowas in dieser Grössenordnung Reserviert wnen man da nichts sagt.


    cu

  • Hallo Keine_Ahnung,


    Zitat

    Original von Keine_Ahnung
    Reserved Blocks? Jedenfalls wird bei EXT3 sowas in dieser Grössenordnung Reserviert wnen man da nichts sagt.


    Nein, diesmal habe ich aufgepasst und -m 0 mit angegeben.


    Hardy

    Suche: 6 Richtige für die nächste Lottoziehung
    PS: Wer Rechtschreibfehler findet, darf sie behalten!

  • Auf der Suche nach einem geeigneten Dateisystem für mein großes RAID-System war der Vorschlag für XFS gekommen.


    Jetzt habe ich mal das Plattensystem mit XFS formatiert, einige Dateien darauf kopiert und nach dem umount folgende Befehle ausgeführt:


    Code
    xfs_metadump /dev/md6 md6_meta
    xfs_mdrestore md6_meta /dev/md6

    nach dem mount sind jetzt (fast) alle Datei- und Verzeichnisnamen fehlerhaft:

    in der Datei md6_meta sind die richtigen Namen zu finden.


    Haben die XFS-Reparaturwerkzeuge ein Problem mit Dateisystemgrößen über 8 TiB?


    Hardy

    Suche: 6 Richtige für die nächste Lottoziehung
    PS: Wer Rechtschreibfehler findet, darf sie behalten!

  • Kann Dir zwar nicht bei Deinem XFS Problem helfen, darf aber den ueblichen Dateisystem-Flame-War etwas anheizen :gap


    ext4 wuerde ich auch nicht nehmen- zu neu!
    Warum bleibst Du nicht bei ext3? Zitat aus der Wikipedia:

    Zitat

    ext3 ist langsamer als andere moderne Journaling-Dateisysteme, wie zum Beispiel XFS oder JFS, dafür aber relativ robust.


    Und die Geschwindikeit bei Videodaten ist eher vernachlaessigbar. Wenn es wirklich schneller sein soll, nimmt "data=writeback" als Option in der /etc/fstab rein, das ist dann schneller. Wenn eine Datei am Ende wegen eines Absturzes Datenmuell enthaelt, ist es ja eh' egal- der weitere Film wird ja dann auch nicht mehr aufgenommen ;D

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

  • Hi,


    auch meinen Senf dazu: Das ist ein Archiv, wie du im Eingangspost sagst. Also ist Performance absolut unkritisch, du willst ja nur Filme davon abspielen. Dann wuerde ich auch auf ein robustes, ausgereiftes Dateisystem setzen, das du zur Not auch mit jeder Live-CD wieder ans laufen kriegst. Also ext2 oder ext3 (wozu brauchst du da eigentlich ein Journal?).


    Und falls du keinen Backup hast (wahrscheinlich bei der Datenmenge), dann wuerde ich die Platten als RAID5 oder RAID6 organisieren (SW-RAID mit mdadm) und die Platten ausserdem im Normalbetrieb nur read-only mounten.


    Gruss,
    - berndl

  • Hallo,


    nun auch mein Senf dazu ... Sun und Apple gehen den Weg von ZFS.


    Ok, ich gebe zu, dass seit 1989 ich ein Solaris/Sparc-Freak bin.


    BTW. Im September 2006 habe ich im Kundenauftrag zwei identische RAID5/6 Hardware-Systeme an ein und der selben Maschine am gleichen Ultra-SCSI-Controller getestet ... eins mit ufs und eins mit zfs.


    Gewinner war mit 25-30% Performance-Vorteilen das ZFS.


    Es ist zudem sicher und skalierbar ... rauf wie runter.


    Selbst Apple geht den ZFS-Weg. Unter Linux gibt's das auch.


    Einschränkung: RAM muss her, weil ZFS Speicher frißt ... aber bei 10TB kann RAM doch nicht das Problem sein.


    Senf-Ende.


    Gruß Miru

    VDR-Server 2.0.6 yavdr-testing-repo - Kubuntu 12.04 LTS/64 - I-Dual-Core 2,2 GHz, 2 GB RAM, SATA 500GB, via NFS 2,9 TB HW-RAID5 an Sol10Sparc mit ZFS, 1x FF-TT 2.3 modded, 1x FF-TT 1.5, 2x TT-1600, via DLAN AVpro/Coax 4x 2x MVP Ver.D3A - VOMP 0.4.0 mit Media, MVP-Dongle 0.4.0
    Arbeitsplatz: 12.04 LTS/64 2.0.6
    yavdr-testing-repo - I-Dual-Core 2,4 GHz, 4 GB RAM, 2x 1TB, 2x TT-1600
    WAF-VDR-Client: openelec-3.2.4/XBMC-12.2-Frodo/ alternativ yavdr 0.5.0a: PulseEight-USB-CEC-Adapter, ZBOX-HD-ID41: 4GB RAM, 64GB SSD, 16GB Patriot-USB-Stick am Samsung UE37D5700 (gehackt) für TimeShift direkt am TV ohne VDR-Zugriff

  • Bis vor kurzem wäre hier auch XFS mein Vorschlag gewesen, allerdings bin ich vor kurzem auf ein Problem getroffen welches evtl auch früher oder später relevant werden könnte:
    Blockgrößen des Dateisystems.
    Gerade bei besonders großen Dateisystemen geht man teilweise davon weg starre 512byte Blockgrößen zu nutzen.
    Wenn man später mal die Daten migrieren möchte (ich gehe davon aus, daß Du noch einen zwischenlayer wie LVM verwenden willst) und man die Daten verschiebt geht dies zwar auch auf Devices anderer Blockgrößen, aber das muß auch vom Dateisystem unterstützt werden.
    XFS scheint damit massive Probleme zu haben, mit ext3 hat es dagegen geklappt...

  • Hallo zusammen,


    habe gerade diesen Fred entdeckt und mit Interesse gelesen.


    ZFS ist sicher sehr interessant, in Verbindung mit Linux und der angepeilten FS-Größe würde ich vom Einsatz jedoch (noch) abraten.
    ZFS hat (zumindest nach dem, was ich so lesen konnte) die Einschränkung, dass man ein drunterliegendes Raid nimmer vergrößern kann - im Gegensatz zu den meisten Linux-FS, die es als Kernel-FS gibt.


    Wenn Du allerdings sicher bist, dass Deine 10Tb nicht voll werden ... ;)


    Gruß Gero

    Ich bin verantwortlich für das, was ich schreibe, nicht für das, was Du verstehst!

  • Zitat

    Originally posted by geronimo
    ZFS hat (zumindest nach dem, was ich so lesen konnte) die Einschränkung, dass man ein drunterliegendes Raid nimmer vergrößern kann -


    Link?


    Das wuerde mich allerdings maechtig wundern. Dateisysteme sind normalerweise ein paar Schichten oberhalb der physikalischen Ebene. Und gerade ZFS mit seinem Volume-Management Ansatz sollte eine Erweiterung problemlos mitmachen.


    IMHO hat ZFS das Volume Management bereits dabei. Ist also quasi ext3+LVM.
    LVM konnte vor ein paar Releases physikalische Devices auch noch nicht vergroessern. Hat man halt temporaer ein zusaetzliches Device reingehaengt, das zu Vergroessernde rausgenommen, vergroessert und wieder in LVM reingebracht. Mindestens so wird das auch mit ZFS gehen.


    Habe aber keine praktischen Erfahrungen mit ZFS, dafuer aber mit so ziemlich allen anderen Dateisystemen....
    ext2/3 sehr stabil und auch flexibel: Vergroesserbar UND verkleinerbar! Mittlere Geschwindigkeit.
    xfs: Schnell, kann vergroessert werden, aber nicht verkleinert.
    JFS: vor ein paar Jahren noch nicht richtig integriert
    ReiserFS: vergroeser/ verkleinerbar, aber nicht besonders zuverlaessig falls ein Dateisystemcheck noetig ist.


    Insofern nutze ich seit Jahren ext3- je nach Anwedung mit unterschiedlichen data= Optionen. Darunter ein LVM und unterschiedlichste RAID Devices...

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

    Einmal editiert, zuletzt von knebb ()

  • Ein link mit infos dazu würd mich auch mal interessieren.
    Ist es nicht gerade ein feature von zfs, dass man den pool aus dem die einzelnen "partitionen" erstellt werden jederzeit vergrößern kann indem man eine neue platte nachschiebt?

  • Auch ich habe ein NAS aufgebaut und mich mit dieser Frage "gequält". Am liebsten hätte ich ZFS gewählt.. aber auf Opensolaris wollte ich aus Zeitgründen einfach nicht wechseln, da noch weitere Dienste laufen. Mit Linux kenne ich mich einfach besser aus .. ;)
    Daher fahre ich jetzt mit der Kombi: mdadm (Raid 5) -> LVM -> ext3


    Deutsche Whitepaper zu ZFS (lohnt sich!): http://blogs.sun.com/constantin/entry/new_zfs_white_paper_in


    Grüße

    P5N7M / 2GB RAM / E5300 / 320 GB 2,5" / yaVDR 0.5 / 2x TT S2-1600 /eVii S471 / softhddevice / Sony KDL-46W5500 / 50Hz / Onkyo TX-SR508

    Einmal editiert, zuletzt von Spaceman ()

  • zfs kann ohne probleme im laufenden betrieb vergroessert werden, aehnlich lvm.
    hab bei einem kunden 28*46TB (sun x4500) und bei einem anderen 250TB via fc/sata
    storage im einsatz, produktiv :)


    opensolaris ist linux mittlerweile von der syntax sehr aehnlich, und ein fileserver muss
    ja nicht soooo viel machen.


    ext3 hat uebrigens eine 4TB grenze, zumindest centos 5.3 *g*



    -- randy

  • Moin,


    um mal mit dem Gerücht aufzuräumen, es gäbe ZFS für Linux: Nein, gibt es nicht wirklich!


    Es gibt ein ZFS FUSE Modul, das in seiner Entwicklung allerdings nocht relativ jung ist (und so wie's aussieht, ist das letzte Release auch schon über ein halbes Jahr alt). Das ist keinesfalls mit dem ausgereiften und mit einer über 10-jährigen Entwicklungsgeschichte versehenen ZFS unter Solaris vergleichbar.


    Die Entwicklung von btrfs kommt dagegen allerdings sehr gut voran :)


    Bye...


    Dirk

  • Zitat

    Original von ollo
    ... vielleicht wäre ja StormOS was um ZFS auszuprobieren ohne gleich auf OpenSolaris zu wechseln?! Mit dem Ubuntu-Aufsatz auf den Solaris kernel könnte so sogar VDR laufen?!? Ich hab's (noch!) nicht ausprobiert :schiel


    Hat der OSol Kernel denn Treiber für DVB Karten?


    Bye...


    Dirk

  • Hallo,


    also die, die auf meinen Kommentar geantwortet haben bitte nochmal genau nachlesen.
    Es ging um ZFS unter linux welches auf Raid-Systemen arbeitet.


    Habe den Link nimmer zur Hand, aber ich fand das durch etwas gurgeln, sollte also jedem auch möglich sein, das zu finden und zu lesen.


    Kann gut sein, dass die Einschränkung von Fuse herkam - das weiß ich nimmer.
    Nix gegen Fuse, ich setze es auch ein, wie z.B. auch ntfs3g - aber wichtige Daten würde ich einem solchen FS nicht anvertrauen. Da gehe ich schon den altmodischen Weg (kernel-module).


    Gruß Gero

    Ich bin verantwortlich für das, was ich schreibe, nicht für das, was Du verstehst!

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!