mdadm Experten vor

  • Hallo Leute,


    ich habe da ein Problem mit meinem Raid-5. Ich kann nicht genau sagen, was passiert ist, ich vermute aber, es hat mit einem Stromausfall zu tun. Auf jeden Fall ist mein Raid nicht mehr zum laufen zu bewegen.


    Hier mal die Superblock Infos:



    Irgendie habe ich es geschafft, sde1 als spare zu definieren. Warum auch immer. Das muß auf jeden Fall wieder weg. Fragt sich nur wie?


    Und wie muß ich vorgehen, um die Platten wieder in einen Verbund zu bekommen? Ich blick einfach nicht mehr durch!

  • Hallo MajestyIV,



    Deine sde-Platte läuft schon länger nicht mit, hast du noch ältere Logeinträge von Start des RAIDs mit der Meldung "... with 2 out of 3 Devices ..."


    Bei einem "mdadm -A --force /dev/mdx" würden die Platten sdc und sdd das RAID wieder allein bilden. Das weitere vorgehen hängt dann von der Ausgabe von "mdadm --detail /dev/mdx" ab, ob dort Deine sde-Platte noch aufgeführt ist oder nicht.


    Aber bevor Du etwas mit Deinem RAID machst, würde ich erst mal die Platten testen. Bitte warte auch noch auf eine Bestätigung des o. g. Befehls ob vorher noch etwas anderes getan werden muß.


    Hardy

    Suche: 6 Richtige für die nächste Lottoziehung
    PS: Wer Rechtschreibfehler findet, darf sie behalten!

  • Also,


    Code
    mdadm -A --force /dev/md0


    bringt das Raid leider nicht online, sondern Quittiert mit


    Code
    mdadm: no devices found for /dev/md0


    Hier mal die Infos aus mdstat, falls das von Interesse ist.


    Code
    Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
    md0 : inactive sdd1[1](S) sde1[3](S) sdc1[0](S)
          2930279808 blocks
    
    
    unused devices: <none>


    Und hier mein /var/log/message



    Kann ich die Platte irgendwie testen, ohne die einzubindnen?

  • Zitat

    Originally posted by MajestyIV
    Also,


    Code
    mdadm -A --force /dev/md0


    bringt das Raid leider nicht online, sondern Quittiert mit


    Code
    mdadm: no devices found for /dev/md0


    du musst die devices explizit angeben.


    Code
    mdadm -A -f /dev/md0 /dev/sdc1 /dev/sdd1 /dev/sde1


    <ohne Gewaehr>

  • So, das macht mir dann jetzt doch sorgen.


    mdadm schmeißt einen Segmentation fault nach mdadm -A -f /dev/md0 /dev/sdc1 /dev/sdd1 /dev/sde1


    Code
    mdadm: forcing event count in /dev/sdc1(0) from 63559 upto 63564
    Segmentation fault


    Ich habe in diversen Foren gelesen, mdadm ist clever genug, bei einem create zu erkennen, daß die Platten zu einem Raid gehören und kann es wieder herstellen. Wäre das ein Ansatz?

  • Zitat

    Originally posted by MajestyIV

    Code
    mdadm: forcing event count in /dev/sdc1(0) from 63559 upto 63564


    bis hierher waer's genau richtig.


    Code
    Segmentation fault


    Was ist den da fuer ein schrottiger mdadm drauf?


    Vielleicht von einer aktuellen live-CD mal ein vernueftiges System booten...

  • Hat die Platte auf der dein OS läuft eventuell auch ein Problem ? So hat sich bei mir das Ende meiner Boot VDR Platte angekündigt.

    MAIN: La Scala SST-LC04 Gehäuse / Asus P5N7A-VM / Intel E7500 / YaVDR 0.1 / TT-DVB-S2 / IR-Einschalter Atric / Wakeup-On-Call


    ICH: Bin Microsoft, Cisco, VMware und NetApp zertifiziert

  • So, mit einer aktuellen Live-CD kann ich das Raid mit sdc1 und sdd1 mounten. Das gibt mir schon mal ein wenig Hoffnung.


    Irgend eine Idee, was ich jetzt machen kann? Auf meinem aktuellen System habe ich mdadm deinstalliert und neu installiert. Ohne Erfolg!

  • Hi!


    Ist das nicht die Gelegenheit ein neues System zu installieren? Ich könnte jetzt natürlich die Vorteile meiner Lieblingsdistribution aufzählen aber das hilft nicht weiter.


    Bevor ich lange basteln würde: Tiefes Aufatmen dass die Videos noch da sind und das Linux sichern - vielleicht mit der live-Cd auf das Raid (Konfigurations-Dateien sind immer gut) und dann: alles Neu macht der Mai!


    Tschau
    Tueftler17

  • Das sieht doch schon mal ganz gut aus!


    Code
    Personalities : [raid6] [raid5] [raid4] 
    md0 : active raid5 sde1[3] sdc1[0] sdd1[1]
          1953519872 blocks level 5, 64k chunk, algorithm 2 [3/2] [UU_]
          [>....................]  recovery =  1.9% (19160080/976759936) finish=381.9min speed=41788K/sec
    
    unused devices: <none>


    Allerdings ist sde1 immer noch als Spare im Raid. Ich laß jetzt erstmal das Recovery durchlaufen und versuche danch, die Platte zu syncen.

  • Zitat

    Originally posted by MajestyIV
    Allerdings ist sde1 immer noch als Spare im Raid. Ich laß jetzt erstmal das Recovery durchlaufen und versuche danch, die Platte zu syncen.


    das ist ja eigentlich ok, dass er die '/dev/sde1' in das degradierte Array als Spare einbaut.


    Nach der Recovery sollte das Raid bereits wieder komplett sein. Also mit aktivem '/dev/sde1' => keine weitere Aktion erforderlich.

  • Hallo :)


    die selbe Problematik hatte ich heute auch... ich weiß nicht wieso. Aber gut nach Boot hat mdadm autmatisch das Raid in betrieb genommen, was mich wundert dass, das RAID nicht mehr MD0 heißt sondern, MD127 ;).


    Greetz da Ret

    FileServer [DeadRabbit]
    AMD BE AM2 2300 DualCore@45W
    MB Asus VM HDMI
    4GBRAM
    160GbSys Platte
    2x1TB gespiegelt im Software Raid
    2x1,5TB gespiegelt im Software Raid
    -->all together@55~60Watt<--


    VDR [Brain]: EasyVdr 1.0: AMD Athlon(tm) X2 250 Processor @ [min] 800 MHz; 2Gb DDR2; [SSD;System] OCZ-AGILITY4 64GB [HDD;Medien] ST3200822AS 200GB; NVIDIA GeForce 8300 [@1920x1200]; Hauppauge WinTV PVR-250


    Zwischendurch mal reinschauen ;)
    kolumbienprojekt.de
    mb-schulz

  • So, nachdem das recovery durch ist, habe ich meine normales System gebootet, und siehe da, es läuft alles wieder. Demnächst werde ich mich wohl mal mit einem Update meines Systems beschäftigen müssen.


    Also danke nochmal!


    MajestyIV

  • Hi MajestyIV


    Zitat

    Originally posted by MajestyIV
    So, nachdem das recovery durch ist, habe ich meine normales System gebootet, und siehe da, es läuft alles wieder. Demnächst werde ich mich wohl mal mit einem Update meines Systems


    sehr schoen :prost2


    Ein Update (zumindest vom mdadm) waere wirklich nicht schlecht. Vielleicht hat der sogar durch seine staendigen Crashes beim Boot das Problem selbst verursacht. Google doch mal nach <ubuntu mdadm segfault ip>


    - sparkie

  • Ich nochmal! Da ich scheinbar die Ursache des Problems gefunden habe, wollte ich das kurz noch mal mit allen Interessierten teilen.


    Ich hätte auch vorher schon mal schreiben sollen, daß die Platte für das Raid an einem einzigen eSATA Port in einem externen Gehäuse hängen. Der Controller, den ich dafür verwendent habe, kommt anscheinend nicht mit verschiedenen Plattentypen klar und resetet die kompletten Port von Zeit zu Zeit.



    Habe mir gestern Abend einen neuen Controller gekauft und jetzt scheint das nicht mehr aufzutreten.


    Dumm, wenn man seine Log-Files nicht im Auge behält.

  • Hallo MajestyIV,


    bist Du sicher, das es der Controller ist? Ich hatte auch diese Meldungen im Log, bei mir waren es aber die eSATA-Kabel.


    Hardy

    Suche: 6 Richtige für die nächste Lottoziehung
    PS: Wer Rechtschreibfehler findet, darf sie behalten!

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!