mdadm Raid 5 retten

  • Ich habe ein Raid 5 mit 4 HDD über mdadm laufen.
    Dort ist jetzt allerdings eine HDD defekt (sdd) und nach einem Reboot eine weitere auf Removed (sdc).
    Bei der defekten HDD (sdd) ist nicht mehr viel zu machen, die zweite die auf Removed (sdc) steht ist allerdings noch 100% in Ordnung.

    Ich wollte die "Removed (sdc)" nun wieder dem Raid hinzufügen.
    Dazu habe ich "mdadm --add /dev/md0 /dev/sdc1" eingegeben.
    Allerdings wird mir sdc1 nun als Spare angezeigt. Nach etwas weiterem googlen hätte ich wohl lieber -re-add als -add nutzen sollen.

    Wenn ich mich bis jetzt richtig informiert habe ist nun der Superblock von sdc1 verkehrt.

    mdadm --examine --/dev/sdc1 liefert folgendes:

    Code
    Number   Major   Minor   RaidDevice State
    this     4       8       33       -1      spare   /dev/sdc1
    
    
       0     0       8        1        0      active sync   /dev/sda1
       1     1       8       17        1      active sync   /dev/sdb1
       2     2       8       33        2      active sync   /dev/sdc1
       3     3       0        0        3      faulty removed

    Gibt es eine Möglichkeit den Superblock wieder gerade zu biegen?
    Würde auch, wenns nicht anders geht, mit nem Hexeditor an den Superblock gehen.

    Ich hoffe ihr könnt mir helfen, so dass ich wieder an die Daten komme.

  • moin!

    Ich habe hier ein RAID5 aus 3 Seagate Wackelplatten und fast schon Routine mit diesem Quatsch:

    Erstens das RAID anhalten mit Stop (-S).

    Wenn möglich Images von den Platten ziehen :)

    Das RAID neu mit "--create --assume-clean" aufsetzen. Dabei sollten die Optionen zu dem ehemaligen RAID passen. Bei mir bedeutete das:

    Code
    mdadm /dev/md1 --create --assume-clean --level 5 --raid-devices 3 /dev/sda3 /dev/sdb3 missing


    Du mußt das natürlich anpassen (Anzahl der Platten) und die kaputte Partition (Platte) als missing aufführen.

    Danach ging es bei meinem System dann immer wieder lustig weiter - LVM2 neustarten - Dateisysteme checken und mounten.

    Falls du eine neue Platte hinzufügst achte darauf das das Rebuild nicht während eines fsck anläuft -- so viel Zeit hast du nicht!

    Ich versuche derzeit die Datenmengen so weit zu reduzieren das ich das RAID loswerden kann, denn die Platten (ST31500341AS) sind einfach nicht dafür geeignet.

    viel Glück!
    Stefan

    Edited once, last by tefans (February 13, 2011 at 11:58 PM).

  • Maniac

    Ich wünsche Dir viel Erfolg und Glück bei der Rettung Deiner Daten, ich drücke die Daumen und hoffe Du hast ein brauchbares Backup & Restore Konzept.

    Aber, zwei bessere Beispiele für meine immer wieder zu Recht vorgebrachten Vorbehalte gegen RAID auf Software Basis hättet Ihr nicht liefern können, sorry couldn't resist ...

    Regards
    fnu

    HowTo: APT pinning

    Click for my gear

    [¹] Intel NUC Kit NUC7i5BNH, Akasa Newton S7, 8GB DDR4, WD Black SN700 500GB NVMe, Crucial MX500 2TB, CIR, SAT>IP, Ubuntu LTS 18.04.5, VDR 2.4.1 (15W)
    [²] Intel NUC Kit NUC7i3BNH, 8GB DDR4, WD PC SN520 250GB NVMe, Crucial MX500 1TB, CIR, SAT>IP, Ubuntu LTS 20.04.1, VDR 2.4.1 (13W)
    [³] BQ500, Asrock X470D4U, AMD Ryzen 5 5600, 32GB DDR4 ECC, 2x WDC SN750 512GB, 4x Samsung SSD 4TB, 1x Samsung SSD 8TB, 1x Crucial MX500 500GB, 1x WDC Blue SSD 500GB, Windows Server 2019 Hyper-V (35W)
    [⁴] Jultec JPS0501-12AN, JPS0501-8M2, Octopus Net (DVBS2-8) & openHABian 3.3.0

    Edited once, last by fnu (February 14, 2011 at 12:48 AM).

  • Quote

    Original von fnu
    Aber, zwei bessere Beispiele für meine immer wieder zu Recht vorgebrachten Vorbehalte gegen RAID auf Software Basis hättet Ihr nicht liefern können, sorry couldn't resist ...


    Glaube mir -- Hardware RAID ist nur anders doof.

    cu, Stefan

  • Quote

    Original von tefans
    Glaube mir -- Hardware RAID ist nur anders doof.


    Glaub mir, das ist ein Irrtum, über 10 Jahre Erfahrung im Storage-Geschäft prägen ...

    Regards
    fnu

    HowTo: APT pinning

    Click for my gear

    [¹] Intel NUC Kit NUC7i5BNH, Akasa Newton S7, 8GB DDR4, WD Black SN700 500GB NVMe, Crucial MX500 2TB, CIR, SAT>IP, Ubuntu LTS 18.04.5, VDR 2.4.1 (15W)
    [²] Intel NUC Kit NUC7i3BNH, 8GB DDR4, WD PC SN520 250GB NVMe, Crucial MX500 1TB, CIR, SAT>IP, Ubuntu LTS 20.04.1, VDR 2.4.1 (13W)
    [³] BQ500, Asrock X470D4U, AMD Ryzen 5 5600, 32GB DDR4 ECC, 2x WDC SN750 512GB, 4x Samsung SSD 4TB, 1x Samsung SSD 8TB, 1x Crucial MX500 500GB, 1x WDC Blue SSD 500GB, Windows Server 2019 Hyper-V (35W)
    [⁴] Jultec JPS0501-12AN, JPS0501-8M2, Octopus Net (DVBS2-8) & openHABian 3.3.0

  • Quote

    Original von fnu


    Glaub mir, das ist ein Irrtum, über 10 Jahre Erfahrung im Storage-Geschäft prägen ...

    Glaub mir, 2 defekte Hardware-RAID von insgesamt 3 eingesetzten Geräten unterschiedlichen Typs und Herstellungsdatums (externe Gehäuse bei denen sich der Controller verabschiedete), lassen mich eher tefans glauben als deinen Erfahrungen. Natürlich waren die Geräte schon älter als 3 Jahre, der eine Controller war nicht mehr als Ersatzteil erhältlich, der andere nur zu einem Preis nahe dem Neupreis des gesamten Geräts.

    Hardware-RAID ist nur anders doof. Aber das weiß man und macht deshalb Backups.

    Meine VDR

    1. gen2vdr v2 auf Aopen i915GMm-HFS und CeleronM 360J, RAM 1GB, HD Samsung HD401LJ, DVD Pioneer DVR-A05, Funk-Tastatur Cherry mit USB-Empfänger, TT FF 1.5 (System nur noch selten im Einsatz)

    2. gen2vdr v3 auf Gigabyte GA-E7AUM-DS2H (NVidia 9400 Onboard-Grafik) mit Core2Duo E8500, RAM 4 GB, SATA-Festplatte im Wechselrahmen, SATA BD-ROM/DVD-Brenner Pioneer, Tastatur, Skystar HD2

    Edited once, last by halbfertiger (February 14, 2011 at 8:22 AM).

  • jo, die sind ja auch immer fehlerfrei ;)

    z.b.:

    Quote


    Sun Alert ID: 269828
    Title: During "supportdata" Collection Sun Storage Arrays May
    Experience Loss of Data Access

    ein "supportdata" ist eine abfrage aller configdateien und einstellungen. also sowas wie ein system-report.

    und ja, ich hatte genau das problem bei einem kunden (waren aber auch nur knapp 150TB)... :)

    es gibt fuer beide loesungen vor- und nachteile.

    -- randy

  • Quote

    Original von halbfertiger
    Aber das weiß man und macht deshalb Backups.


    FullAck, Daten gehen nur durch ein fehlendes Backup & Restore Konzept verloren.

    Quote

    Original von randy
    es gibt fuer beide loesungen vor- und nachteile.


    Ja, dem stimme ich auch zu.

    ===

    Aber es ist schon so, das in der kommerziellen Welt HW Lösung eine größere Verbreitung und Beständigkeit haben. Ich habe viele Software-nahe Lösungen kommen und wieder gehen sehen, aber die klassischen HW Arrays gibt es bis heute.

    Sicherlich muß man sich immer Gedanken über die weiter Verfügbarkeit der für Privatiers bezahlbaren HW RAID Controller machen. Diese Sicherheit erkaufen sich meine Kunden und vmtl. auch Randy's, mit Service-/Wartungs-Verträgen. Bei einem Schnäppchen in der Bucht, würde ich mir als Normalo immer gleich zwei Controller kaufen und diese einmal im Jahr durchrotieren ...

    Wo hingegen, bei Softraid's das Problem immer an der Bedienung liegt, ganz besonders wenn man nach einem Fehler etwas "unter Druck" steht. Unterschätzt das nicht, man macht das nicht jeden Tag und das wird dann zum Problem ...

    Bringen wir's doch mal auf den Punkt, die Funktion in Linux gaukelt dem DAU vor er hätte eine hoch professionelle Lösung, ..., aber das ist wie beim Autorennsport, Auto fahren kann fast jeder, aber um ein Rennauto schnell zu bewegen, muß man trainieren, trainieren, trainieren, also quasi Profi werden ...

    Regards
    fnu

    HowTo: APT pinning

    Click for my gear

    [¹] Intel NUC Kit NUC7i5BNH, Akasa Newton S7, 8GB DDR4, WD Black SN700 500GB NVMe, Crucial MX500 2TB, CIR, SAT>IP, Ubuntu LTS 18.04.5, VDR 2.4.1 (15W)
    [²] Intel NUC Kit NUC7i3BNH, 8GB DDR4, WD PC SN520 250GB NVMe, Crucial MX500 1TB, CIR, SAT>IP, Ubuntu LTS 20.04.1, VDR 2.4.1 (13W)
    [³] BQ500, Asrock X470D4U, AMD Ryzen 5 5600, 32GB DDR4 ECC, 2x WDC SN750 512GB, 4x Samsung SSD 4TB, 1x Samsung SSD 8TB, 1x Crucial MX500 500GB, 1x WDC Blue SSD 500GB, Windows Server 2019 Hyper-V (35W)
    [⁴] Jultec JPS0501-12AN, JPS0501-8M2, Octopus Net (DVBS2-8) & openHABian 3.3.0

    Edited 3 times, last by fnu (February 14, 2011 at 1:19 PM).

  • Hi,
    als ich noch RAID5 mit mdadm hatte, habe ich solche Sachen wie oben beschrieben immer erstmal mit 'loopdevices' anstatt der echten Platten durchgespielt, zur Not auf einem anderen Rechner. Hilft ungemein, die Nerven zu beruhigen bevor man ans 'offene Herz' geht.
    Ich habe aber mittlerweile meine 3x1TB im RAID5 durch eine 2TB ersetzt (u.a. wg. Stromverbrauch, auch wg. Schutz vor User-Error (also ich)) und nutzte die 'uebrigen' Platten jetzt als Backuplaufwerke.

    Gruss,
    - berndl

  • Quote

    Originally posted by fnu
    Wo hingegen, bei Softraid's das Problem immer an der Bedienung liegt, ganz besonders wenn man nach einem Fehler etwas "unter Druck" steht.

    das ist dann aber kein Problem von Softraid sondern ausschliesslich vom Benutzer, der es verwendet.

    Ich verwende grundsaetzlich RAID-5 mit jeweils 3 Platten. Und obwohl die Kisten schon einige Hardwareprobleme mit Platten/Controllern hatten - das Softraid hat sich nie davon beeindrucken lassen. Richtigen Umgang damit vorausgesetzt.

    Fuer den Privatgebrauch wuerde ich nie ein Hardware-RAID kaufen. Zu teuer, unflexibel und obige Rotationsloesung ist Unsinn. Wenn der Rechner und nicht die Karte defekt ist, kann der Rechner beim Controllertausch sogar die 2. (noch gute) Karte auch noch schrotten. :)

    - sparkie

    Edited once, last by sparkie (February 14, 2011 at 8:11 PM).

  • Quote

    Original von sparkie
    das ist dann aber kein Problem von Softraid sondern ausschliesslich vom Benutzer, der es verwendet.


    Mein Reden, daher ist das für mich keine Lösung. Wenn sich jemand für € x00,- einen oder zwei Controller kauft, dann befasst er sich mit der Lösung und deren Bedienung. Im Fehlerfall lassen die Dinger zum Glück nicht jeden Blödsinn zu, den der User versucht.

    Das Softraid Geschäft ist halt im Linux drin, wird mal so eben eingerichtet ohne sich damit wirklich auseinanderzusetzen, im Fehlerfall ist das Geschrei wieder groß ...

    Um es klar zu stellen, ich finde nur Softraid 5 oder 6 gehört verboten, ein RAID1 (ugs. Spiegel) ist absolut in Ordnung. Einfaches Layout, einfache Bedienung, im Normalfall keine Überforderung im Fehlerfall.

    Und diese Ammenmärchen von wegen, man kommt nicht mehr an die Daten ran. Mehr oder weniger notgedrungen habe ich RAID1 Sets zwischen Adaptec, HP/LSI ausgetauscht, die habe sogar jeweils auch die RAID1 Sets von den OnBoard SATA Raids und sogar "mdadm" übernommen, jeweils als Legacy Array, also nicht mehr veränderbar, aber lesbar ...

    Regards
    fnu

    HowTo: APT pinning

    Click for my gear

    [¹] Intel NUC Kit NUC7i5BNH, Akasa Newton S7, 8GB DDR4, WD Black SN700 500GB NVMe, Crucial MX500 2TB, CIR, SAT>IP, Ubuntu LTS 18.04.5, VDR 2.4.1 (15W)
    [²] Intel NUC Kit NUC7i3BNH, 8GB DDR4, WD PC SN520 250GB NVMe, Crucial MX500 1TB, CIR, SAT>IP, Ubuntu LTS 20.04.1, VDR 2.4.1 (13W)
    [³] BQ500, Asrock X470D4U, AMD Ryzen 5 5600, 32GB DDR4 ECC, 2x WDC SN750 512GB, 4x Samsung SSD 4TB, 1x Samsung SSD 8TB, 1x Crucial MX500 500GB, 1x WDC Blue SSD 500GB, Windows Server 2019 Hyper-V (35W)
    [⁴] Jultec JPS0501-12AN, JPS0501-8M2, Octopus Net (DVBS2-8) & openHABian 3.3.0

  • Hi,

    Quote

    Um es klar zu stellen, ich finde nur Softraid 5 oder 6 gehört verboten


    kann ich in keinster Weise nachvollziehen. Bin mit meinen beiden softraid5 sehr zufrieden. Man muss sich halt - wie bei jeder Raidlösung - klar sein, das ein RAID kein Backup ersetzt.

    Und da das die wenigsten machen, ist das Geschrei eben groß, wenn was kaputt geht, da hilft auch kein Hardwareraid.

    MfG
    Kris

    Intel DN2800MT 4GB RAM; 32GB mSata, Ubuntu 15.04, TVHeadend 4.1, Digibit R1 SatIP

  • Was hab ich schon fiese Kämpfe gefochten mit HW-Raid in IBM X-Series Servern diverser Baureihen. Dagegen find ich SoftwareRaid teilweise unglaublich entspannt im handlichem Umfeld.

    Praktisch hab ich für mich immer folgende Punkte:

    Bei Software Raid hab ich schon ein paar mal Schiffbruch gehabt in der Form das ein ganzer Controllertreiber ausgestiegen ist wenn eine HDD verreckt ist und ich auch mal eine nicht HotSwappen konnte weil ein Sata Kanal bis zu einem Neustart dann nix brauchbares mehr tat.

    Mit Hardwareraid hab ich schon unglaublichen Spass gehabt mit Arrays die nach Controllertausch nicht mehr zu lesen waren.... Und dan Lieferzeiten von 1 Woche für nen Ersatz... Das schmerzt...


    Grüz!
    Hibbelharry

    - HTPC mit zerbasteltem Yavdr 0.6 , Origen ae X15e, MCE Remote, Asus P5N7A-VM, 1x Digibit R1, Kodi und vdr an Pana 46PZ85E
    - Diverse HTPCs im Umfeld bei Familie und Freundenm die sich vor mir fürchten, mit allen möglichen gruseligen Konfigurationen.
    Auch gern Debian, aber wehe jemand kommt mir mit Suse.

Participate now!

Don’t have an account yet? Register yourself now and be a part of our community!