Raid5 startet nicht mehr

  • Hallo!


    Zurzeit baue ich mein neues System auf. Eckdaten: Suse11 da andere Linuxe das Board und das DVD nicht erkennen, xen, 4 Platten mit 640 Gig, Raid5, LVM und darauf dann etch mit vdr.


    Bevor ich wirklich fertig geworden bin startet mein Raid5 nicht mehr. Die Fehlermeldungen sind einfach nicht hilfreich, vielleicht hat jemand von Euch eine Idee. Suse bootet nicht mehr, daher jetzt die Tests mit Knoppix 5.3. Die Ausgaben:


    Was vielleicht noch weiter hilft sind die Ausgaben von dmesg:


    Hat jemand von Euch eine Idee wie ich dieses RAID wieder zum laufen bekommen könnte? Ich bin schon fast soweit das System neu zu installieren, was mich jedoch am meisten abschreckt ist die Idee dass so etwas später noch einmal geschieht und ich dann meine ganzen Videos verliere...


    Viele Grüße
    Tueftler17

  • Hmmmm....so wie das aussieht scheint es so zu sein, dass sich zwei Platten aus dem Array "verabschiedet" haben. Vielmehr, dass bei zweien der Superblock nicht mehr vollstaendig geschrieben werden konnte. Dadurch sagt das System natuerlich: Zwei Platten defekt, Array kaputt!


    Bei den alten raidtools gab es einen (undokumentierten) Parameter namens "--dagerous-no-resync" mit dem man das Array mit einer fehlenden und einer mit altem Superblock wieder starten konnte. fsck danach war aber Pflicht- ebenso wie die zweite Platte danach wieder sauber einzubinden.


    Aber wie jetzt dieser Parameter (sofern es die Option mit mdadm noch gibt) bei mdadm heisst? Aber vielleicht ist der obige Parameter ja schonmal ein Ansatz fuer das weitere :suche
    [EDIT]
    Bei Deiner MEldung steht was von Bitmap. Ob das bei mdadm der RAID Superblock ist?
    Aus reiner Neugierde auch mal Tante :google befragt. Zusaetzlich auch noch man mdadm:

    Code
    --assume-clean
    Tell  mdadm  that the array pre-existed and is known to be clean.  It can be useful when trying to recover from a major failure as you can be sure that no data will be affected unless you actually write to the array.  It can also be used when  creating  a RAID1  or  RAID10  if  you  want to avoid the initial resync, however this practice — while normally safe — is not recommended.
    Use this only if you really know what you are doing.


    Koennte ggf. damit klappen.

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

    Einmal editiert, zuletzt von knebb ()

  • Hi knebb!


    Physikalisch sind die Platten OK, ich habe alle beschrieben, mit smart geschaut etc.


    Was mich wundert ist dass bei allen Partitionen jeweils angezeigt wird, dass eine Platte ausgefallen ist.



    Ich erkenne einfach nicht, welche beiden Platten nicht eingebunden werden können. im dmesg wird angezeigt, dass alle Platten eingebunden werden konnten.


    Vielleicht hast Du noch eine Idee.


    Danke und viele Grüße
    Tueftler17

  • Was mir auffaellt:


    Code
    /dev/sda1
    [...]
      Array Slot : 4 (0, 1, 2, failed, 3)
      Array State : uuuU 1 failed


    Es sollte eigentlich keinen Slot 4 geben, nur 0, 1, 2, 3- fuer vier Devices eben. Bei den anderen passt das jeweils.


    Das scheint mir der einzige Hinweis auf einen Fehler zu sein. Ansonsten sieht das eigentlich gut aus. Ich wuerde es evtl. einfach mal ohne sda1 zu starten versuchen. Also sda abklemmen und mal sehen, was er dann sagt. Wenn er sauber startet, kannst Du die sda1 ja loeschen und neu einbinden. Aber ist natuerlich riskant- wie das LEben halt so ist :gap


    Wie kam es eigentlich dazu? Ist die Kiste abgeschmiert?


    [EDIT] einen hab' ich noch:


    Und die "Events" stimmen auch nicht ueberein. Bei zweien (u.a. sda2) ist es 4158, bei den anderen sind die neuen Eintraege von 4159 vorhanden. Siehts stark danach aus, als haette ich recht :)

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

    Einmal editiert, zuletzt von knebb ()

  • Hi Knebb!


    Du hast völlig recht. Die events habe ich einfach trotz danach suchen *schäm* in der Ausgabe nicht gefunden. Also: Es handelt sich klar um ein kaputtes Array, es lohnt nicht die Reparaturversuche. Ich habe mitprotokolliert was ich zum installieren getan habe, also: Neuinstallation.


    Danke, Du hast mir sehr geholfen! Ich weiß jetzt wenigstens woran es lag! Eigentlich habe ich die Kiste immer sauber heruntergefahren und so etwas hässliches auch auf anderen Rechnern noch nie gehabt.


    Viele Grüße
    Tueftler17

  • Zitat

    Originally posted by tueftler17
    Also: Es handelt sich klar um ein kaputtes Array, es lohnt nicht die Reparaturversuche.


    Da waere ich mir halt nicht so sicher. Ich hatte so etwas auch schon oefters- mit den alten RAID tools ging das gut.


    Wenn zum Zeitpunkt des Absturzes nicht viel auf dem Array geschrieben wurde, wuerde ich es noch nicht abschreiben! Wenn das die Videopartition war, kannst Du die Datenintegrietaet ja auch recht einfach feststellen (Spaeter mehr).


    Warum startest Du das Array nicht einfach mit einer fehlenden Platte? Probieren. Wenn du das Array sowieso schon abgeschrieben hast, kann ja nix mehr schiefgehen :gap


    Sollte das klappen, kannst Du die Integritaet ja ueber genindex ansatzweise testen lassen (allerdings erst nach dem notwendigen fsck!). Also die bestehende index.vdr umbenennen und mit genindex eine neue erstellen. Ueber beide dann die md5sum bilden und vergleichen. Ist das gleich, waren die 00X.vdr noch ok.

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

  • Hi Knebb!


    Bis jetzt war noch kein einziges Video drauf. Ich verliere die installierte Beta-Version von Suse 11.1, ein mit debootstrap erzeugtes lenny und ein mit x-vdr installierten VDR.


    Es ist nicht wirklich schlimm wenn ich es neu installiere, ich lade gerade schon die finale Version von Suse 11.1 herunter und fange neu an.


    Deinen Tipp habe ich auch schon versucht, mit

    Code
    mdadm --create /dev/md0 --chunk=128  --level=5 --raid-devices=4 /dev/sdb2 /dev/sdc2 /dev/sdd2 missing


    lief das array zwar wieder, aber ich konnte weder die vdr-Partition noch die suse-Partition mounten.


    Nochmals vielen Dank aber ich wollte ohnehin den neueren Kernel verwenden, ein Update wäre schwierig und am meisten war ich an einer Diagnose interessiert.


    Viele Grüße
    Tueftler17

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!