Hi
ich glaub ich stehe hier kurz vor einem GAU im video Verzeichnis. Es ist natürlich kein RAID und Backups von ca. 500GB gibt es auch nicht. Es fing damit an, daß der Scan nach Aufnahmen merkwürdigerweise sehr sehr lang dauerte. In syslog kam ich dann auf folgende Meldung:
Jun 22 05:17:56 farpoint kernel: scsi0: ERROR on channel 0, id 15, lun 0, CDB: Read (10) 00 03 94 d2 e0 00 00 08 00
Jun 22 05:17:56 farpoint kernel: Current sd08:40: sense key Medium Error
Jun 22 05:17:56 farpoint kernel: Additional sense indicates Unrecovered read error
Jun 22 05:17:56 farpoint kernel: I/O error: dev 08:40, sector 60084960
Jun 22 05:17:56 farpoint kernel: lvm(58,1):vs-13070: reiserfs_read_inode2: i/o failure occurred trying to find stat data of [265 266 0x0 SD]
Jun 22 05:17:56 farpoint kernel: sym53c895-0-<15,*>: FAST-40 WIDE SCSI 80.0 MB/s (25.0 ns, offset 14)
Soweit sieht das ja noch nicht so schlimm aus. Aber jetzt noch mal zu meiner Umgebung: 2 IDE Platten bilden über IDE-SCSI Adapter und über LVM mit reiserfs das Video-Verzeichnis (/data/video).
Die SCSI devices sind /dev/sde und /dev/sdb. /dev/sdb ist logisch am Ende, da sie erst später hinzugefügt wurde. Was nun das ganze aber wohl zur Katastrophe machen wird ist die Tatsache, daß die Volume-Gruppe vg01 nicht mehr gefunden wird sondern nur noch vg00 wo sich die Homeverzeichnisse befinden. Ein
gibt keine Fehlermeldung aus sondern nur:
farpoint:~ # vgcfgrestore -l -l -n vg01 -v -f /etc/lvmconf/vg01.conf /dev/sde
vgcfgrestore -- locking logical volume manager
vgcfgrestore -- restoring volume group "vg01" from "/etc/lvmconf/vg01.conf"
vgcfgrestore -- checking existence of "/etc/lvmconf/vg01.conf"
vgcfgrestore -- reading volume group data for "vg01" from "/etc/lvmconf/vg01.conf"
vgcfgrestore -- reading physical volume data for "vg01" from "/etc/lvmconf/vg01.conf"
vgcfgrestore -- reading logical volume data for "vg01" from "/etc/lvmconf/vg01.conf"
vgcfgrestore -- checking volume group consistency of "vg01"
vgcfgrestore -- checking volume group consistency of "vg01"
--- Volume group ---
VG Name vg01
VG Access read/write
VG Status NOT available/resizable
VG # 1
MAX LV 255
Cur LV 1
Open LV 0
MAX LV Size 1.00 TB
Max PV 255
Cur PV 2
Act PV 2
VG Size 558.78 GB
PE Size 32.00 MB
Total PE 17881
Alloc PE / Size 16356 / 511.12 GB
Free PE / Size 1525 / 47.66 GB
VG UUID QOShhy-bTvW-sBL6-z9L8-aEgS-q9rt-Kd8lMw
--- Logical volume ---
LV Name /dev/vg01/lv02
VG Name vg01
LV Write Access read/write
LV Status available
LV # 1
# open 0
LV Size 511.12 GB
Current LE 16356
Allocated LE 16356
Allocation next free
Read ahead sectors 120
Block device 58:1
--- Physical volume ---
PV Name /dev/sde
VG Name vg01
PV Size 279.40 GB / NOT usable 55.67 MB [LVM: 158.00 KB]
PV# 1
PV Status available
Allocatable yes (but full)
Cur LV 1
PE Size (KByte) 32768
Total PE 8939
Free PE 0
Allocated PE 8939
PV UUID IheqIs-8lN7-GoSh-YTvX-LJdk-gtib-xSH6uY
--- Physical volume ---
PV Name /dev/sdb
VG Name vg01
PV Size 279.48 GB / NOT usable 44.82 MB [LVM: 158.00 KB]
PV# 2
PV Status available
Allocatable yes
Cur LV 1
PE Size (KByte) 32768
Total PE 8942
Free PE 1525
Allocated PE 7417
PV UUID ptD8W7-aPU9-G7kU-TLtw-8g71-orH0-KwzYdm
vgcfgrestore -- unlocking logical volume manager
Alles anzeigen
Wenn ich mir die ersten Sektoren mit dd anschaue, sieht das auch nicht sehr ermutigend aus:
farpoint:/etc/lvmconf # dd if=/dev/sde bs=512 count=9|od -ax
9+0 records in
9+0 records out
0000000 nul nul nul nul nul nul nul nul nul nul nul nul nul nul nul nul
0000 0000 0000 0000 0000 0000 0000 0000
*
0010000 Q O S h h y b T v W s B L 6 z 9
4f51 6853 7968 5462 5776 4273 364c 397a
0010020 L 8 a E g S q 9 r t K d 8 l M w
384c 4561 5367 3971 7472 644b 6c38 774d
0010040 nul nul nul nul nul nul nul nul nul nul nul nul nul nul nul nul
0000 0000 0000 0000 0000 0000 0000 0000
*
0010200 soh nul nul nul etx nul nul nul eot nul nul nul del nul nul nul
0001 0000 0003 0000 0004 0000 00ff 0000
0010220 soh nul nul nul nul nul nul nul del nul nul nul stx nul nul nul
0001 0000 0000 0000 00ff 0000 0002 0000
0010240 stx nul nul nul nul nul nul nul nul nul nul nul nul nul soh nul
0002 0000 0000 0000 0000 0000 0000 0001
0010260 Y E nul nul d ? nul nul nul nul nul nul nul nul nul nul
45d9 0000 3fe4 0000 0000 0000 0000 0000
0010300 nul nul nul nul nul nul nul nul nul nul nul nul nul nul nul nul
0000 0000 0000 0000 0000 0000 0000 0000
*
0011000
Alles anzeigen
Die Frage die sich mir stellt ist: Reboot oder noch weiterlaufen lassen und versuchen noch was auf externe Platten (noch kaufen) zu retten. Die möglichen Effekte sind:
Reboot - vg01 ist komplett hinüber
laufen lassen - der Fehler ist nach einiger Zeit (bis ich mir die ext. Platten besorgt habe) so schlimm geworden wie nach einem reboot :-(( .
Ich glaub die zweite möglich bietet die größer Wahrscheinlichkeit noch etwas zu retten. Na mal sehn wie sich das entwickelt.
Stefan Lucke
Nachtrag: ein pvscan liefert:
farpoint:/etc/lvmconf # pvscan
pvscan -- reading all physical volumes (this may take a while...)
pvscan -- ACTIVE PV "/dev/sda3" of VG "vg00" [15.02 GB / 2.32 GB free]
pvscan -- ACTIVE PV "/dev/sdb" is associated to an unknown VG (run vgscan)
pvscan -- inactive PV "/dev/sdc" is in no VG [111.82 GB]
pvscan -- inactive PV "/dev/sdd" is in no VG [114.50 GB]
pvscan -- total: 4 [520.82 GB] / in use: 2 [294.51 GB] / in no VG: 2 [226.31 GB]