RAID5/LVM mit reiserfs

  • Hallo *,


    oft genug ist das Thema nun schon angesprochen worden, aber ich werde nun doch nicht zu xfs wechseln. Ich will es noch eine Weile mit reiserfs-3 versuchen.


    Darum auch meine Frage, um dieses von der Performance etwas zu optimieren:


    Wie kann ich die 3 Systeme so optimal abstimmen (Chuck-Size vielleicht), dass ich das Beste rausholen kann. Hintergrund: Bei einer vollen 300GB-Videopartition und wenn ich dann auch noch einen Schnitt veranlasse, ruckelt manchmal eine Wiedergabe.


    Also welche Parameter im RAID5 (sind 4 x 160er Platten) so einstellen, dass diese mit LVM und dem reiserfs gut zusammenarbeiten. Genau so auch die Parameter fürs LVM und die entsprechenden Optionen für mkreiserfs oder reiserfstune.


    PS:
    Ich habe noch den Kernel 2.4.27 und wollte noch nicht so recht auf den 2.6er. Darum eben noch nicht reiserfs-4

    VDR-Server: Gentoo (AMD64/Core-i7) / VDR-1.7.23 / Digital Devices Octopus CI & 2xDuoFlex S2 HDTV (Rev. V3)
    VDR-Client: Gentoo (AMD64/Atom-D525) / VDR-1.7.23 / Chieftech & iMON-Pad / ASUSTeK - AT5IONT-I / 4GB-RAM & 65GB-SSD
    Alt: 3xTT-1.5 / linuxtv-dvb-1.1.1 + test_av-1.28 + FW-2622 / vdr-1.3.37 / viele Plugins / LFS-4.1

  • Hallo tom66,

    Zitat

    Also welche Parameter im RAID5 (sind 4 x 160er Platten) so einstellen, dass diese mit LVM und dem reiserfs gut zusammenarbeiten


    Also wenn du IDE oder SATA-Platten verwendest, musst du darauf achten, das jede Platte an einem eingenen Kanal hängt. Hintergrund ist folgender: Bei RAID 5 wird auf alle 4 Platten gleichzeitig geschrieben. Wenn jetzt 2 an einem Kanal hängen, muss erst die Eine Platte fertig werden, bis die andere Schreiben kann. Und das kostet extrem Performance.
    Bei SCSI ist das nicht so, da die Platte während des schreibens den Bus nicht Blockiert.

  • willst auch noch erzählen das man etwa 2 sata platten an einen kanal hängen kann? Meinst du mit Kanal ein kabel? Ich habe bisher immer gedacht das jede festplatte bei sata an einem kabel hängt, im gegesatz zu ide wo 2 platten an einem kabel hängen.....

    Aktuelle Systeme:
    VDR-Server: MSI KT6A Ultra FISR ; Athlon XP 2200+ ; GrKa Geforce 2 MX; 256MB DDR-SDRam Plugins: streamdev-server, remote
    2 x DVB-Budget Karte, Gentoo, Kernel 2.6.8 usw....

  • Hallo!


    Ich habe mir das ganze einfach gemacht, und habe die Installation von einem RAID 5 (4x120GB, IDE) YAST überlassen, was ohne Probleme gelang. Die Performance ist so hoch wie bei einer Platte ~15MB/s über nfs (Gigbit-Lan).
    Wichtig ist die etwas höhere Ausfallsicherheit für mich.
    Als CPU kommt ein PIII 1133MHz mit 1GB Ram zum Einsatz. Als Controller kommt ein NoName mit CMD640 Chipsatz (?) zum Einsatz.

    MfG, Thomas!


    VDR: Intel Atom 330 / 512MB RAM / Boot SSD 8GB - Video HDD 320Gb / Technotrend S2-6400 / eaysvdr 2.0b

    Arbeitstier: AMD Phenom II X6 1050 / Gigabyte GA-MA870T-UD3P / nVidia 640GT / 4x2GB RAM / Samsung SSD 128GB - WD 1TB / SuSE 13.2 - Win 8.1
    Fräse: AMD Fx 4130 /
    ASUS M5A78L-M LE / 2x2GB RAM / SSD 64GB / Kubuntu 12.04 / LinuxCNC 2.6.3

  • Hi,


    Wenn du Platz hast, dann denk über einen Hardware RAID Controller nach...


    Adaptec 2400A z.B. der erhöht die Writeperfomance im Gegensatz zu einem Soft-RAID (Auch passive RAID Controller sind im Prinzip Soft-RAIDs, da macht auch die CPU die Arbeit, also nicht am falschen Ende sparen...) und den gibt's für um die 100.-€ bei eBay...
    Diese Controller haben auch nur eine Platte pro Channel, somit stellt sich da auch das Master/Slave Problem nicht.


    Wenn Platz und Geld reichen, geht imho nix über eine "echtes" Hardware-RAID, also Controller mit Prozessor und eigenem Speicher.


    Solemn

    Client: Silverstone LaScala LC17 -- MSI 945PL Neo3 -- Core2 Duo E4400 -- 2GB RAM -- Zotac GeForce GT 220 Zone Edition -- Harmony 650 -- OpenELEC 3.0.6
    Server: Gigabyte 970A-UD3 -- AMD Phenom II X4 955 -- 6GB RAM -- TT1600-S2 -- DVBSKy S952 Dual DVB-S/S2

    VG system: md-raid 2x160GB RAID1

    VG data: md-raid 6x1TB RAID5

    Ubuntu Server 13.04 -- yaVDR unstable -- xvdr

  • Zitat

    Original von Solemn
    Adaptec 2400A z.B. der erhöht die Writeperfomance im Gegensatz zu einem Soft-RAID (Auch passive RAID Controller sind im Prinzip Soft-RAIDs, da macht auch die CPU die Arbeit, also nicht am falschen Ende sparen...) und den gibt's für um die 100.-€ bei eBay...
    Diese Controller haben auch nur eine Platte pro Channel, somit stellt sich da auch das Master/Slave Problem nicht.


    Wenn Platz und Geld reichen, geht imho nix über eine "echtes" Hardware-RAID, also Controller mit Prozessor und eigenem Speicher.


    Ähm, das stimmt so nicht ganz für Serial ATA. Einen SATA 4-Kanal Controller bekommt man zwischen 230 und 300€, wobei der für 230€ (Intel) gerade bei Raid-5 sehr schlecht ist.


    Auch kann man Raid-5 Hardwarecontrollern hier keinen Persilschein ausstellen. Viele (Raidcore, Broadcom, Areca etc.) haben nur Binary-Treiber, d.h. keine Sourcen und sind somit nicht unter jedem Linux einsetzbar (jeweils nur für spezielle Kernelversionen).


    Das schränkt die Auswahl schon sehr ein. Unter Linux ist der Treibersupport als Source verfügbar von 3Ware, Adaptec, ICP, Intel, LSI. Die letzten drei sind in der Raid-5 Performance äußerst schlecht. Andere Hersteller (Raidcore, Broadcom, Areca, Highpoint) habe ebenfalls Controller, haben aber neben der o.g. Einschränkung auch das Makel, dass es Softwareraids sind. Die gesamte Rechenleistung wird also von der CPU übernommen.


    Bleiben mehr oder weniger für ein reiners Hardwareraid unter Linux nur noch 3Ware und Adaptec:


    [list=1]
    [*]3Ware 8506 Serie (kein OCE, kein Raid-Level Migration, kein Raid-50 )
    [*]3Ware 9500S Serie (noch kein OCE [erst mit Firmwareupdate Februar 2005], kein Raid-Level Migration, Raid-50 Support)
    [*]Adaptec 2410SA (OCE Support, Raid-Level Migration Support, kein Raid-50 Support)
    [*]Adaptec 2810SA (OCE Support, Raid-Level Migration Support, Raid-50 Support [Firmwareupdate nötig])
    [*]Adaptec 21610SA (OCE Support, Raid-Level Migration Support, kein Raid-50 Support)
    [/list=1]


    Ich beschäftige mich halt schon ein wenig länger mit Pro und Contra dieser Materie....


    Noch ein paar Preise:


    [list=1]
    [*]3Ware (4-, 8-, 12-Port): 280€ /420€ / 630€
    [*]Adaptec (4-, 8-, 16-Port): 300€ / 470 € / 650€
    [/list=1]


    Hier ein paar Reviews:


    http://www.tweakers.net/reviews/536/
    http://www.gamepc.com/labs/view_content.asp?id=9500s4lp&page=1
    http://www.gamepc.com/labs/view_content.asp?id=r52005&page=1
    http://www.xbitlabs.com/articl…splay/adaptec-2410sa.html
    http://www.xbitlabs.com/articl…display/3ware-8506-8.html


    Ich hoffe noch auf eine rege Diskussion hier. ;)

    Einmal editiert, zuletzt von franzose ()

  • Zitat

    Original von BlackKing
    willst auch noch erzählen das man etwa 2 sata platten an einen kanal hängen kann?


    Nicht gut drauf heute? Stand irgendwo was von S- ATA- Platten?

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

  • Zitat

    Original von tom66
    Wie kann ich die 3 Systeme so optimal abstimmen (Chuck-Size vielleicht), dass ich das Beste rausholen kann.


    Grundsätzlich laufen diese "Systeme" absolut pflegeleicht und sicher. Deine Probleme kommen wohl tatsächlich daher, daß die vier Platten als Master/ Slave an zwei IDE Knälen hängen. DMA hast Du aber schon aktiviert? Wenn das nicht so ist, korrigiere bitte.
    Die nächste Frage ist, ob Du das Ganze über ein Netzwerk (z.B. NFS o.ä.) oder lokal machst. Vermutlich lokal.


    Viel tunen kannst Du da nicht. Da Du LVM ja wohl nur ein PV zur Verfügung stellst, kann LVM nicht viel verteilen. Da tunen fällt also aus.
    reiserfstune kann bzgl. des Dateisystems auch nicht viel machen- da kannst Du lediglich die Journaloptionen einstellen. Wird Dir also auch nicht viel bringen.
    Die chunk- Size bei RAID5 hochzusetzen ist einen Versuch wert. Den optimalen Wert zu finden,ist hier allerdings recht mühsam, da das RAID jedesmal wieder neu aufgesetzt werden muß. Der Flaschenhals bei RAID5 ist die Berechnung des Parityblocks- ob der 2x32 oder 64k groß ist, ist der CPU da auch egal.


    Schlußfolgerung:
    Softwaremäßig kannst Du wohl in dieser Konstellation nicht viel machen. Alternativen wären die bereits geschilderten:
    1. Zweiten IDE- Controller rein, so daß an einem Kanal max. eine Platte hängt.
    2. Extra- Controller für Hardware- Raid (TEUER!)
    3a. RAID10- kostet aber wieder Plattenplatz, ist dafür aber deutlich schneller.
    3b. Raid1 und ein LVM Stripeset drüber. Dann sollten aber Stripesize und chunksize zueinander passen.
    4. Oder Du gehst übers Netz, da sollte das selbst für Gbit Ethernet reichen :)
    5. Komplett anderes Systemdesign (SCSI, S-ATA).


    Viel Erfolg!

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!