RAID-Erweiterung (mit Fragen :) )

  • Hallo zusammen,


    ich möchte die Weihnachtsfeiertage gerne dazu nutzen, meinen Videoserver endlich einmal aufzurüsten und ihm ein zweites RAID5 zu spendieren. Vorher gibt’s jedoch wie immer viele Überlegungen.Dabei habe ich ein paar Punkte, bei denen ich gerne mal Euren Rat dazu hören würde:
    Hardware:
    1. Bisher hängt am primären IDE-Controller die Systemplatte. An einem SATA-Contrller (PCI-Karte) hängen die vier Samsung Platten des ersten RAIDs. Macht das überhaupt sinn, eine zweite Controllerkarte einzubauen oder sollte ich eher das Mainboard wechseln gegen eins, das bereits viele SATA-Onboardcontroller hat? (derzeit nForce2).
    2. Kann mein Netzteil eigentlich alle Komponenten mit genügend Strom versorgen? (Enermax 350W, Athlon XP2400+, 1GB RAM, GeForce2MX GrKa, 1IDE und dann 8! SATA-Platten)
    Software:
    Ich habe vor, das
    * Neues RAID5 als LVM mit XFS einzurichten
    * Daten des alten RAIDs auf das neue kopieren
    * Altes RAID5 zu LVM machen und dem ersten LVM-Volume hinzufügen und XFS-Platz vergrößern.
    Funktioniert das überhaupt so, wie ich mir das vorstelle? Ich kann mich daran erinnern, das es früher nicht möglich war, auf einem Software-RAID5 (wie ich es einsetzte) ein XFS-Dateisystem zu betreiben. Hat sich das mittlerweile geändert oder ist das nicht von Bedeutung, da das LVM noch als „Zwischenebene“ dient?!?


    Ich weiss, dass sindf viele Fragen – hoffentlich erhalte ich auch viele Antworten... ;D


    Viele Grüß
    Boris

  • Tag,


    ich persönlich halte relativ wenig von Software-RAID's - die belasten halt auch immer das System mit. Ausserdem bist Du mit HW-RAID-Lösungen unabhängig vom OS, was manchmal auch kein Nachteil sein kann ;)
    Ich bin zwar kein Stromverbrauchsexperte, aber ich kann mir durchaus vorstellen, dass Dein Netzteil bei 9 Platten ins Schwitzen kommen könnte...


    Gruß
    -Siegmar

    kostenlosen Webspace + Subdomain etc. für VDR-Projekte: pm an mich!
    Activy, 160GB HD, Celeron 633MHz, Gentoo Linux, vdr 1.4.1, PSone-Display an GraphTFT

  • Hi Eichbaum,



    Erweitere doch einfach dein bestehendes Raid um eine oder mehrere Platten.
    Du schreibst leider nicht wie groß die alten Platten sind.
    Ich würde jedoch dahin tendieren die alten Platte zu entsorgen und ein Neues großes Raid anzulegen (4x500GB). Du sprichst die Stromversorgunsproblematik ja schon an. Ich denke mal 8 + 1 Platten ist schon der Hammer.



    Peter

    VDR1: ASUS N100I-D D4 + IP TV Plugin + Flirc + softhddevice-git VAAPI + vdr-2.6.5 + 3 weitere Plugins + Debian Bookworm via M2 + Kernel 6.1.0


    VDR2: ASUS AT3IONT-I + PCTV USB Stick 461e + Nvidia 340.108 + Flirc + softhddevice-git + vdr-2.6.4 + 8 weitere Plugins + Samsung U70 + Debian Bullseye via SSD + Kernel 6.3.6 + LG 55 Zoll

  • Hi,


    Siegmar
    Ich betreibe mein SW-RAID mittlerweile schon seit 1,5 Jahren - und bin immernoch sehr zufrieden. OS-unabhänig muss ich ja icht sein, denn was anderes ausser Linux kommt eh nicht auf die Kiste.
    Und auch nach bereits zwei Festplattenausfällen (natürlich nicht gleichzeitig!) kommt ich ohne Probleme ein Rebuild ausführen.


    pixelpeter
    Sowas hatte ich auch schon überlegt - nur ist das halt auch ne Kostenfrage. 4 neue 250er kosten ca. 120€ das Stück - bei 500er Platten zahle ich um die 330€ PRO Platte (die 400er sind mit 270€ auch nicht viel billiger). Da würde sich eher ein neues Netzteil lohnen.


    Gruß
    Boris

  • Hallo,


    Sicher ist alles eine Kostenfrage, nur 8 Platte brauchen eine Menge Strom. Jede Erweiterungskarte ebenfalls und ein System mit zwei Softwareraid's erzeugt eine höhere Systemlast was sich auf einem System welches 24h am Tag läuft sicher bemerkbar macht.


    Eventuell reichen ja auch 3x500 aus.


    Wäre sicher günstiger als so ein "Monstersystem" denn bedenke, dass bei acht Platten auch eben acht Platten ausfallen können!



    Peter

    VDR1: ASUS N100I-D D4 + IP TV Plugin + Flirc + softhddevice-git VAAPI + vdr-2.6.5 + 3 weitere Plugins + Debian Bookworm via M2 + Kernel 6.1.0


    VDR2: ASUS AT3IONT-I + PCTV USB Stick 461e + Nvidia 340.108 + Flirc + softhddevice-git + vdr-2.6.4 + 8 weitere Plugins + Samsung U70 + Debian Bullseye via SSD + Kernel 6.3.6 + LG 55 Zoll

  • Hi,


    ok, hab mich grad mal am Powerrechenr vom EPIA-Center versucht - und laut dem Rechner bräuchte ich mind. ein 400W Netzteil. Mit nem 500er wär ich dann auf der sicheren Seite.
    Der Recher läuft bei mir ja auch net 24/7 - wenn ich arbeiten bin, braucht den ja auch niemand ;) - daher dürften sich die zusätzlichen Stromkosten durch die Platten in Grenzen halten. Und für die Ausfallwahrscheinlichekit hab ich ja das RAID *fg*.


    Gruß
    Boris

  • Zitat

    Original von pixelpeterWäre sicher günstiger als so ein "Monstersystem" denn bedenke, dass bei acht Platten auch eben acht Platten ausfallen können!


    ...die aber im RAID 5 hängen- und deswegen nicht alle Daten mit in den Abgrund reißen.


    Muß der hier vertretenen Meinung ein wenig wiedersprechen. Welchen Controller und ob das Netzteil reicht, mußt Du selber entscheiden.


    Ich kann jedoch einige Tips geben, da ich auch seit Jahren SW-RAID, HW-RAID, LVM im Einsatz habe.


    Also:


    Die Grundsatzfrage, ob SW oder HW Raid liegt im Endeffekt einzig und allein eine persönliche Entscheidung- und auch eine Geldfrage. Im Prinzip nehmen sich beide nicht viel. Das Geld, was man in einen HW-Controller steckt, muß man bei SW-RAID in CPU stecken...
    Einzig zu beachten bei SW-Raid ist, daß Du IMMER darauf achten mußt, daß nie, NIE NIE mehr als eine Platte des Verbundes weg ist. Also auch nicht, wenn das System bootet.


    LVM/ RAID5 und XFS sind inzwischen kein Problem. Früher (TM) war es so, daß XFS (und auch reiser?) die Blockgröße für das Journal eine andere Größe hatte, als die Blockgröße des Datenbereiches. Und da mußte RAID5 immer den Cachebuffer leeren und neu einlesen. War nicht sonderlich performant. Mit einem aktuellen XFS gibt's aber ein Parameter, mit dem man beim Einrichten die Blockgröße egalisieren kann. Evtl. ist das inzwischen sogar default? :google hilft.


    Zur Datenübernahme ist zu sagen, daß Dein Weg, Eichbaum ok ist.
    Neue Platten rein, als RAID55 bauen, als LVM bauen, VG und LV anlegen, formatieren, mounten, Daten per cp -a rüberziehen. Danach das alte RAID umounten, zum LVM-VG hinzufügen und glücklich sein. :)


    LVM verkraftet das auch, wenn eines seiner darunterliegenden PVs- also bei Dir die beiden RAIDs mal weg ist. Es fährt dann halt nicht hoch. Klemmt man das wieder an, ist alles ok. Recht fehlertolerant :)


    Ansonsten würde ich Dir empfehlen, auf reiserfs zu gehen- einzig und alleine aus dem Grund, daß das eine VERKLEINERUNG des Dateisystems ermöglicht. Mit XFS kannst Du IMHO nur vergrößern. Und das ist bei Verwendung von LVM ziemlich unpraktisch... :D


    Grüße

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

  • Hi knebb,


    Danke für Deine Meinung!
    XFS will ich für meine Videos verwenden, da ich schon öfters gelesen habe das es bei großen Dateien sehr viel performanter und besser ist. Aus eigener Erfahrung kann ich nur sagen, das meine 400G Reiser RAID5 beim Mounten (Filesystem, NFS) fast 30 Sekunden benötigt - meine 230er XFS-Partition nur ca 1! Sekunde. :] Und wer will seine Videopartition schon verkleinern??? :D ;D
    Wegen den Parametern beim Anlegen werde ich jedenfalls mal krätig googeln und dann die beiden RAIDs erst mal ein paar Tage parallel laufen lassen - man will ja nix riskieren ;)


    Viele Grüße
    Boris

  • Hi Eichbaum,


    wo kaufst Du denn die Platten - in der Apotheke?
    Ich habe vor 2 Wochen eine 250er Samsung für 95,77€ bei hardwareversand.de gekauft. Nur als Tip :]


    Viele Grüße
    Chriss

  • klar, na bei www.hardwareversand.de.
    Kostet jetzt sogar nur noch 92,40€ - ach, nee, Du wolltest ja SATA haben!?
    Gibt's für 102,51€.


    Viele Grüße
    Chriss

  • Hallo,


    Zitat


    2. Kann mein Netzteil eigentlich alle Komponenten mit genügend Strom versorgen? (Enermax 350W, Athlon XP2400+, 1GB RAM, GeForce2MX GrKa, 1IDE und dann 8! SATA-Platten)


    Ich würde sagen, hier ist äußerste Vorsicht angebracht. Ich habe seinerzeit auch gedacht, das sollte gehen. Nach einigen RAID-Crashes (Multi-Disk-Errors - da steigt der Puls rapide ;) ) habe ich dann dazugelernt... Zu dieser Zeit waren es übrigens nur 6 250er Platten eingebaut Prozessor war ein Celeron4-2000 und sowas wie ne Gfx-Karte gab es nicht.


    Jetzt läuft hier ein 460W-Servernetzteil von (Emacs) und damit gibts auch mit zwei 244er Opterons und maximal 9 Platten (8x 250er 7200rpm + 1x 20GB) keinen Ärger mehr. Fazit: bei einem solchen (ohnehin nicht ganz billigen) System sollte man nicht an der falschen Stelle sparen!


    Viele Grüße,
    Holger

    VDR 1-3: Zotac ZBox HD-ID42, yavdr-0.5
    VDR 4: AMD5900/Asus M3N-78, yavdr-0.5
    DVB-Empfang: Netceiver
    Storage: via NFS von separatem Fileserver

    [size=10]

  • Hallo,


    wieviel soll den auf den Raid-Arrays los sein? Ein einzelnes Array dürfte den PCI-Bus schon ziemlich auslasten, besonders bei Software-Raid. Zwei auf dem gleichen Bus geht natürlich, aber schneller wird es nicht gerade. Die DVB-Karten und eventuell die Netzwerkkarte wollten ja auch noch etwas Bandbreite abhaben.


    Falls es doch ein neues Mainboard werden soll, ist die Frage interessant, wie der Raid-Controller angebunden ist. Ich glaube mittlerweile gibt es alle Varianten: als PCi-Device auf dem normalen PCi-Bus, dito auf einem eigenen PCI-Bus und als PCI-X- oder PCI-Express-Device. Letztes würde ich bevorzugen.


    Grüsse,
    EddieT

    PIII-866, 512 MB Ram, Avermedia 761 DVB-T, PVR150MCE, Debian unstable, vdr 1.3.38, Xine über Xorg auf GF2MX

  • Und ich kann nur sagen Qualität hat ihren Preis. Was ich beruflich in diesem Jahr an defekten Platten gesehen habe ist unglaublich. Ich setze im Moment nur noch SATA Platten der Marke Raptor ein. Sind auf SCSI Basis und etwas teurer. Haben dafür 5 jahre Garantie, 5ms und 10000 Umdrehungen :) Können vom Preis aber leider nicht mit den aktuellen sata/ide Platten mithalten. Eine 36GB ist schon teurer als eune 250GB standard Platte aber das sind mir meine Daten wert.


    Tschau Ben

  • Hallo zusammen,


    danke für Eure Antworten!
    Holger
    Ja, sowas hab ich mir mittlerweile auch gedacht. Hab mir daher schon ein 500W Netzteil rausgesucht.


    EddieT
    Es hängen nicht viele Rechner am RAID dran normalerweise 1-2 Desktops gleichzeitig, die ein paar Dateien saugen oder die Mail wollen. Dazu kommt noch mein VDR, der Filme sehen will. :) Sonst habe ich noch ne Fritz Karte drin un ne GB-LAN-Karte. DVB ist keine drin.
    Für mich ist die Frage dabei, ob sich die zusätzlichen Ausgaben von insgesamt ca. 90€ lohnen (SATA-Controller 60€ - Sockel 754 Board mit GB-LAN und 4 SATA Kanälen onboard ca. 75€, Semperon 64 ca 75€) bei dem Traffic und Einsatzzweck - habe davon leider noch nicht so viel Ahnung, was voll belastete Busse bedeuten.


    @ben
    Klar, die Garantie und die Leistung sprechen ganz klar für die Raptor, aber der Preis vor allem bei der Kapazität (für ein Video-Raid) sprechen meiner Meinung nach nicht für den Privatgebrauch.



    Viele Grüße
    Boris

  • Hallo,


    zum Thema Buslast: es kommt darauf an, wie Du mit dem Rechner arbeitest. Wenn die Daten hauptsächlich per Netzwerk rein und raus gehen (was wohl für ein Client/Server-VDR-Szenario typisch wäre) und Dein Netz mit 100 MBit arbeitet, kann dir die PCI-Last grundsätzlich egal sein (es sei denn Dein Board hat nen VIA-Chipsatz ;) ). Schließlich gehen hier nie mehr als 12 MB/s rein oder raus (auf dem Bus sinds dann 24 MB/s) und das schaft wirklich fast jedes Desktop-Board ab nem Pentium 3. Wenn Du lokal hohe Transferraten brauschst (z.B. für nen Datenbank-Server) oder mit Gigabit arbeitest, wirst Du um ein richtiges Server-Board (mit mehreren separaten PCI/PCI-X/PCI-E) nicht herumkommen. Schöne Sachen in dieser Kategorie findet man u.a. bei Tyan und Konsorten.


    Was aber auch für die "kleine" Lösung (Desktop-Board) auf jeden Fall empfehlenswert ist: ein echter RAID-Controller (mit IO-Prozessor) sowie ein richtiges Gehäuse (Backplane, starke Lüfter). Die 8 Platten ziehen bei mir ca. 100W (nur die Platten!) und produzieren logischerweise auch exakt die gleiche Menge Wärme. Machst Du so etwas in einem normalen Tower, brauchst Du auf den ersten Plattenausfall nicht lange warten...


    Investitionsreihenfolge nach meiner Erfahrung:
    1. Gehäuse
    2. Platten
    3. RAID-Controller
    4. Server-Board
    5. Gigabit


    zur Raptor:
    ist m.E. in einem RAID nicht unbedingt nötig. Habe hier eine im lokalen PC - sie ist schon ziemlich fix und sicher auch sehr solide. Seit meine Platten aber im Server stecken, laufen diese bislang auch (fast) ohne Zwischenfälle (Barracude 7200.7, .8 und Maxtor 7L), ich würde meine ganz persönliche MTBF inzwischen auf mindestens 6 Jahre schätzen (6 Platten seit einem Jahr ohne Fehler). Vorher mit Platten in einzelnen PCs war alle paar Monate eine fällig.


    Viele Grüße,
    Holger

    VDR 1-3: Zotac ZBox HD-ID42, yavdr-0.5
    VDR 4: AMD5900/Asus M3N-78, yavdr-0.5
    DVB-Empfang: Netceiver
    Storage: via NFS von separatem Fileserver

    [size=10]

    3 Mal editiert, zuletzt von hsteinhaus ()

  • Hi Holger,


    als Gehäuse nutze ich CM-Stacker von Coolermaster. Da habe ich drei Festplattenkäfige, die jeweils 4 Platten aufnehmen und von vorne pro Käfig einen 120mm Lüfter haben.
    Bei den restlichen Komponenten muss ich mir das noch überlegen, was ich machen werde. Höchstwahrscheinlich nehme ich ein Sockel 754 Board mit GB-LAN und 4 SATA Kanälen onboard und einem Semperon 64. Damit dürfte genug Leistung für das Software-RAID und GB-LAN vorhanden sein. Ein RAID-Controller mit eigenem Prozessor und RAM wäre da dann wohl die noch teurere Variante.


    Viele Grüße
    Boris

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!