Raid 5 Probleme

  • So heute war es soweit, eine (bzw. evtl 2) meiner 4 Platten gibt anscheinend wieder den Geist auf.
    Auf jeden Fall lässt sich das Raid5 aus hda2/hdc2/hde1/hdg1 nicht mehr mounten, weil die beiden Platten die am 2. Controller hängen fast gleichzeitig einen Fehler lieferten. (evtl ist es auch ein Controllerfehler gewesen)


    Ich habe (bis auf einen Neustart) noch keine Versuche unternommen, das Array wieder zum Laufen zu bringen


    smart hat keine Fehler geloggt und badblocks hat bis jetzt auch noch keinen Fehler gemeldet (läuft noch)


    Wie kann ich das Array wieder starten ohne gleich wieder einen Daten-Supergau zu verursachen.


    Hier mal meine Konfiguration:



    und /proc/mdstat


    sowie /etc/mdadm/mdadm.conf

    Code
    DEVICE /dev/hda1 /dev/hdc1 /dev/hde1 /dev/hdg1 /dev/hda2 /dev/hdc2
    ARRAY /dev/md2 level=raid5 num-devices=4 spares=1 UUID=80dcf864:ac45fa00:59e21512:90e30e95
    ARRAY /dev/md1 level=raid1 num-devices=2 UUID=c23f52f6:043b4645:59e21512:90e30e95
    MAILADDR praml


    Und das ist das Log:

    Software: VDR 1.4.3, mp3, osdpip, streamdev-server, femon, wapd, X11, Wireless Keyboard Kernel: 2.6.18
    Hardware: 1x DVB-S v 1.3, 1x Skystar 2, Celeron@2GHz, 256 MB RAM, 4 HDs Raid1/5, Total: 600 GB, Asus P4S533 cmi8738 & LAN on board 6 PCI
    40" Sammelbestellungs-LCD an ATI Radeon 9550 DVI-Out + tvtime, 70 cm TV an J2-RGB-Out
    Organisator der ersten und zweiten VDR-Sanitizer Sammelbestellung.
    In progress: POV-ION 330 - MediaPointer MP-S2 - vdr 1.7.9 - vdr-xine(vdpau)

  • Zitat

    Original von pram
    md2 : inactive hda2[1] hde1[3] hdc2[2] hdg1[0]
    779409152 blocks


    Das ist das Array, um das ees geht, richtig? Und da ist ein RAID5, ja? Was sagt den das Logfile während des Bootens? Da steht vmtl. was von Superblock oder so.
    Kannst Du die Platten momentan wieder ansprechen? Wenn ja, kriegen wir das wieder hin ;)

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

  • aalso. Anscheinend hat wirklich der Controller (Promise FastTrak100) abgedankt. (ich hoffe dass er die Platten/Filesystem nicht mitgerissen hat)
    Der VDR bootet nämlich nicht mehr wenn das Teil drin steckt.


    Habe nun alle Platten an den internen controller angeschlossen, die Laufwerksnamen haben sich dementsprechend geändert:
    hda->hda
    hdc->hdb
    hde->hdc
    hdg->hdd


    Die Platten scheinen noch zu gehen, smart-Test zeigt auch nix aussergewöhnliches.


    Ich hab also nun folgende Raids:
    md1: Raid1 50GB über hda1, hdb1 (das geht wieder)
    md2: Raid5 je 200GB über hda2, hdb2, hdc1, hdd1 (das ist der Problemfall)
    Das Problem ist, dass hdc und hdd nicht mehr "fresh" sind. Siehe Log unten.
    Ich hab schon ein wenig gegoogled und gefunden dass es mit "mdadm --force --assemble /dev/md2 ..." klappen soll. (Aber ich hab ehrlich gesagt Angst, dass das Array nach dem Experiment dann leer ist :( )


    Gruß
    Roland


    Software: VDR 1.4.3, mp3, osdpip, streamdev-server, femon, wapd, X11, Wireless Keyboard Kernel: 2.6.18
    Hardware: 1x DVB-S v 1.3, 1x Skystar 2, Celeron@2GHz, 256 MB RAM, 4 HDs Raid1/5, Total: 600 GB, Asus P4S533 cmi8738 & LAN on board 6 PCI
    40" Sammelbestellungs-LCD an ATI Radeon 9550 DVI-Out + tvtime, 70 cm TV an J2-RGB-Out
    Organisator der ersten und zweiten VDR-Sanitizer Sammelbestellung.
    In progress: POV-ION 330 - MediaPointer MP-S2 - vdr 1.7.9 - vdr-xine(vdpau)

  • Zitat

    Original von pram
    Das Problem ist, dass hdc und hdd nicht mehr "fresh" sind. Siehe Log unten.


    Yepp. Ist klar. Das RAID-System konnte nur noch auf die beiden ersten den Superblock schreiben- damit sind die beiden anderen veraltet.
    Da geht so einfach dann nix mehr...

    Zitat


    Ich hab schon ein wenig gegoogled und gefunden dass es mit "mdadm --force --assemble /dev/md2 ..." klappen soll. (Aber ich hab ehrlich gesagt Angst, dass das Array nach dem Experiment dann leer ist :( )


    Ich kenne mdadm recht wenig, da ich immer mit den (älteren) raidtools arbeite. Da gibt es aber auch einen Switch:

    Code
    mkraid /dev/md2 --dangerous-no-resync

    :gap


    Das aktualisiert die Superblocks auf den Platten, führt aber keine Synchronisation durch. Das wird vielleicht dasselbe sein wie das bei mdadm? Danach ist das Raid wieder da.
    Du solltest vorher die Superblöcke auf hdc und hdd prüfen. Wenn es da Unterschiede gibt, lasse das RAID vorerst ohne die ältere Platte starten und binde die dann danach erst ein.


    Ich habe den Switch selbst bei genau solchen Problemen eingesetzt und konnte die Array jedesmall problemlos wieder zum Leben erwecken. Danach ist jedoch ein fsck Pflicht!

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

    Einmal editiert, zuletzt von knebb ()

  • juhuuu :)


    also ein "mdadm --assemble --force /dev/md2 /dev/hda2 /dev/hdb2 /dev/hdc1 /dev/hdd1" hat das Array wieder in den degraded status versetzt. (hdc fehlte)
    "mdadm /dev/md2 -a /dev/hdc1" synced das Array wieder.


    nur ob das Filesystem in Ordnung ist, weiß ich noch nicht. Sieht zwar ganz in Ordnung aus, aber xfs_check hat sich gleich mal aufgehängt (xfs_db hat den ganzen speicher weggefressen, dass der Kernel schon angefangen hat, Prozesse zu killen)


    Gruß
    Roland

    Software: VDR 1.4.3, mp3, osdpip, streamdev-server, femon, wapd, X11, Wireless Keyboard Kernel: 2.6.18
    Hardware: 1x DVB-S v 1.3, 1x Skystar 2, Celeron@2GHz, 256 MB RAM, 4 HDs Raid1/5, Total: 600 GB, Asus P4S533 cmi8738 & LAN on board 6 PCI
    40" Sammelbestellungs-LCD an ATI Radeon 9550 DVI-Out + tvtime, 70 cm TV an J2-RGB-Out
    Organisator der ersten und zweiten VDR-Sanitizer Sammelbestellung.
    In progress: POV-ION 330 - MediaPointer MP-S2 - vdr 1.7.9 - vdr-xine(vdpau)

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!