So heute war es soweit, eine (bzw. evtl 2) meiner 4 Platten gibt anscheinend wieder den Geist auf.
Auf jeden Fall lässt sich das Raid5 aus hda2/hdc2/hde1/hdg1 nicht mehr mounten, weil die beiden Platten die am 2. Controller hängen fast gleichzeitig einen Fehler lieferten. (evtl ist es auch ein Controllerfehler gewesen)
Ich habe (bis auf einen Neustart) noch keine Versuche unternommen, das Array wieder zum Laufen zu bringen
smart hat keine Fehler geloggt und badblocks hat bis jetzt auch noch keinen Fehler gemeldet (läuft noch)
Wie kann ich das Array wieder starten ohne gleich wieder einen Daten-Supergau zu verursachen.
Hier mal meine Konfiguration:
Code
/dev/hda1 * 1 6079 48829536 fd Linux raid autodetect
/dev/hda2 6080 30337 194852385 fd Linux raid autodetect
/dev/hdc1 * 1 6079 48829536 fd Linux raid autodetect
/dev/hdc2 6080 30337 194852385 fd Linux raid autodetect
/dev/hde1 1 24259 194852385 fd Linux raid autodetect
/dev/hde2 24259 24321 506016 82 Linux swap / Solaris
/dev/hdg1 1 24259 194852385 fd Linux raid autodetect
/dev/hdg2 24259 24321 506016 82 Linux swap / Solaris
Alles anzeigen
und /proc/mdstat
Code
cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4] [faulty]
md1 : active raid1 hdc1[1] hda1[0]
48829440 blocks [2/2] [UU]
md2 : inactive hda2[1] hde1[3] hdc2[2] hdg1[0]
779409152 blocks
unused devices: <none>
Alles anzeigen
sowie /etc/mdadm/mdadm.conf
Code
DEVICE /dev/hda1 /dev/hdc1 /dev/hde1 /dev/hdg1 /dev/hda2 /dev/hdc2
ARRAY /dev/md2 level=raid5 num-devices=4 spares=1 UUID=80dcf864:ac45fa00:59e21512:90e30e95
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=c23f52f6:043b4645:59e21512:90e30e95
MAILADDR praml
Und das ist das Log:
Code
Nov 15 15:02:00 vdr kernel: hde: status error: status=0x00 { }
Nov 15 15:02:00 vdr kernel: ide: failed opcode was: 0xea
...
Nov 15 15:02:00 vdr kernel: end_request: I/O error, dev hde, sector 389704639
Nov 15 15:02:00 vdr kernel: raid5: Disk failure on hde1, disabling device. Operation continuing on 3 devices
...
Nov 15 15:02:29 vdr kernel: hdg: irq timeout: status=0xd0 { Busy }
Nov 15 15:02:29 vdr kernel: ide: failed opcode was: 0xea
Nov 15 15:02:29 vdr kernel: hdg: status timeout: status=0xd0 { Busy }
Nov 15 15:02:29 vdr kernel: ide: failed opcode was: unknown
Nov 15 15:02:29 vdr kernel: hdg: DMA disabled
Nov 15 15:02:29 vdr kernel: PDC202XX: Secondary channel reset.
Nov 15 15:02:29 vdr kernel: PDC202XX: Primary channel reset.
Nov 15 15:02:29 vdr kernel: BUG: soft lockup detected on CPU#0!
...
Nov 15 15:04:23 vdr kernel: ide3: reset timed-out, status=0xd0
Nov 15 15:04:23 vdr kernel: end_request: I/O error, dev hdg, sector 242248639
Nov 15 15:04:23 vdr kernel: raid5: Disk failure on hdg1, disabling device. Operation continuing on 2 devices
Nov 15 15:04:23 vdr kernel: end_request: I/O error, dev hdg, sector 242248647
Nov 15 15:04:23 vdr kernel: end_request: I/O error, dev hdg, sector 242248655
Nov 15 15:04:23 vdr kernel: end_request: I/O error, dev hdg, sector 194933143
Nov 15 15:04:23 vdr kernel: raid5:md2: read error not correctable (sector 194933080 on hdg1).
Nov 15 15:04:23 vdr kernel: end_request: I/O error, dev hdg, sector 194933151
Nov 15 15:04:23 vdr kernel: raid5:md2: read error not correctable (sector 194933088 on hdg1).
Nov 15 15:04:23 vdr kernel: end_request: I/O error, dev hdg, sector 194933159
Nov 15 15:04:23 vdr kernel: raid5:md2: read error not correctable (sector 194933096 on hdg1).
Nov 15 15:04:23 vdr kernel: end_request: I/O error, dev hdg, sector 242248183
...
Nov 15 15:04:23 vdr kernel: end_request: I/O error, dev hdg, sector 242248887
Nov 15 15:04:23 vdr kernel: RAID5 conf printout:
Nov 15 15:04:23 vdr kernel: --- rd:4 wd:2 fd:2
Nov 15 15:04:23 vdr kernel: disk 0, o:0, dev:hdg1
Nov 15 15:04:23 vdr kernel: disk 1, o:1, dev:hda2
Nov 15 15:04:23 vdr kernel: disk 2, o:1, dev:hdc2
Nov 15 15:04:23 vdr kernel: RAID5 conf printout:
Nov 15 15:04:23 vdr kernel: --- rd:4 wd:2 fd:2
Nov 15 15:04:23 vdr kernel: disk 1, o:1, dev:hda2
Nov 15 15:04:23 vdr kernel: disk 2, o:1, dev:hdc2
Nov 15 15:04:23 vdr kernel: I/O error in filesystem ("md2") meta-data dev md2 block 0x22db53d8 ("xlog_iodone") error 5 buf count 12288
Nov 15 15:04:23 vdr kernel: xfs_force_shutdown(md2,0x2) called from line 956 of file fs/xfs/xfs_log.c. Return address = 0xc01eaf2d
Nov 15 15:04:23 vdr kernel: Filesystem "md2": Log I/O Error Detected. Shutting down filesystem: md2
Nov 15 15:04:23 vdr kernel: Please umount the filesystem, and rectify the problem(s)
Alles anzeigen