Bei RAID5 unter yaVDR trotz neuen HDs 2 von 3 degradet - wie kann ich die Daten Retten?

  • Hi,


    halbfertiger

    Zitat

    Deine WD20EARS würde ich weder in ein RAID stecken, noch sie ohne besondere Vorkehrungen unter linux verwenden


    Sollte doch mit "wdidle3 /d " auszutreiben sein? Hab ich noch nicht bei meinen HDs gemacht, evlt teste ich das morgen


    MFG
    KRis

    Intel DN2800MT 4GB RAM; 32GB mSata, Ubuntu 15.04, TVHeadend 4.1, Digibit R1 SatIP

  • kris


    kannst ja aus spaß mal vor und nach dem ausführen unter linux ein


    "hdparm -B /dev/sd?"


    machen


    ich möchte fast meinen, das der Wert vorher bei unter 128 und danach bei 255 liegt

    Dirk

  • Hi,


    Dirk
    APM_Level not supported


    Hab schon ein bootstick hier liegen ;) Die frage ist nur, schraub ich den cycle auf 300 sek hoch (anstelle von knapp 8) oder schalte ich den ab...


    MFG
    KRis

    Intel DN2800MT 4GB RAM; 32GB mSata, Ubuntu 15.04, TVHeadend 4.1, Digibit R1 SatIP

  • Also, jetzt habe ich meine Tests gemacht.
    Für jemanden der es später auch mal machen muss, eine gute Seite, wo die smartmontools beschrieben sind, wie man diese installiert und benutzt: http://netz10.de/2009/04/23/fe…nalyse-mit-smartmontools/


    Und hier meine Ergebmisse, diesmal als Anlage, damit es nicht zu lang wird.

    Dateien

    Testweise yaVDR0.5.0-headless auf Esxi, 5.0.0, 623860 installiert auf USB Stick, Mainboard Intel DQ67SW, CPU i5 2400, 32GB Ram, SATA HDs 250 GB onboard angeschl.
    Digital Devices Cine S2 V6 Twin, Dual Quad LNB Maxum, Satelliten Astra/Hotbird


    Streamdev-server 1 porduktiv: Intel DH55TC, i3, 8GB Ram, NVIDIA ENGT240 Silent, yaVDR 0.5.0a, Vids lokal und auf (NFS-Openfiler 12TB)
    Streamdev-client 2: AT3IONT-I 1.6GHz, 2GB Ram, HD 160GB, Windows 7 / yaVDR 0.5.0 dualboot, streamdevclient
    Streamdev-client 3: Intel DQ965GF 1.8GHz, bravo 220, streamdev
    Testclient4: Raspberry PI mit Openelec mit VNSI-Plugin angebunden / stürzt ab und zu ab - im Moment nicht mehr in Betrieb

  • Hoi


    sieht doch gut aus (es ist kein fehler, das ab und zu zu machen!


    auch die gerade besprochenen "Load_Cycle_Count" sehen gut aus (aber weiter beobachten)


    ich denke mal, du kannst versuchen das Raid manuell mal einzuhängen, wie du bestimmt selbst siehst, sind es nicht sda,sdb,sdc sondern sdb,sdc und sdd (wie ich es schon vermutet hatte)


    halbfertiger


    danke für den wink mit den Load_Cycle_Count, mein homeserver wird es dir danken :D

    Code
    Device Model:     SAMSUNG HM320JI
      3 Spin_Up_Time            0x0007   252   252   025    Pre-fail  Always       -       2750
      4 Start_Stop_Count        0x0032   002   002   000    Old_age   Always       -       99999
      9 Power_On_Hours          0x0032   074   074   000    Old_age   Always       -       13405
    225 Load_Cycle_Count        0x0032   061   061   000    Old_age   Always       -       397423


    neue Platte is bestellt :D

    Dirk

  • OK nun habe ich auf dem laufenden System das mdadm nachinstalliert.


    Bedeutet diese Meldung etwas schlechtes?
    Generating array device nodes... /var/lib/dpkg/info/mdadm.postinst: Zeile 27: /dev/MAKEDEV: No such file or directory
    failed.


    Wie kann ich jetzt das RAID5 ihne Risiko wieder zusammensetzen?
    Kann ich die nachfolgende Methode von Tiroler für mich benutzen, oder gilt die nur für das Originale System? - und wenn ja, wie muss der Befehl in meinem Fall aussehen?


    Tiroler
    Das Problem hatte ich auch schon öfters...
    Die "force" Option half mir immer gut aus der Misere...
    mdadm --assemble /dev/mdX /dev/sdaX /dev/sdbX --force
    siehe: http://wiki.ubuntuusers.de/software-raid


    mdadm --assemble /dev/mdX /dev/sdaX /dev/sdbX --force
    mdadm --assemble /dev/md0 /dev/sdbX /dev/sdcX /dev/sddX --force (Da ja alle 3 Platten io. sind)
    und wozu steht dann noch das X jeweils na sdb, sdc, sdd?
    Muss ich das eine 1 einsetzen für eine ganze Partition pro Platte?
    mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 --force


    Auf jeden Fall warte ich noch mit dem Befehl, bis mir jemad verifiziert, dass ich dabei die Daten auf den Platten nicht zerstören kann.


    Jari

    Dateien

    Testweise yaVDR0.5.0-headless auf Esxi, 5.0.0, 623860 installiert auf USB Stick, Mainboard Intel DQ67SW, CPU i5 2400, 32GB Ram, SATA HDs 250 GB onboard angeschl.
    Digital Devices Cine S2 V6 Twin, Dual Quad LNB Maxum, Satelliten Astra/Hotbird


    Streamdev-server 1 porduktiv: Intel DH55TC, i3, 8GB Ram, NVIDIA ENGT240 Silent, yaVDR 0.5.0a, Vids lokal und auf (NFS-Openfiler 12TB)
    Streamdev-client 2: AT3IONT-I 1.6GHz, 2GB Ram, HD 160GB, Windows 7 / yaVDR 0.5.0 dualboot, streamdevclient
    Streamdev-client 3: Intel DQ965GF 1.8GHz, bravo 220, streamdev
    Testclient4: Raspberry PI mit Openelec mit VNSI-Plugin angebunden / stürzt ab und zu ab - im Moment nicht mehr in Betrieb

    2 Mal editiert, zuletzt von zahu ()

  • bei der Meldung -> KA, hatte ich nocht nicht und google spuckt nix richtig deutbares aus(oder ich such falsch)


    EDIT:
    hab gerade auf ner Ubuntu 10.04 partition mal mdadm installiert


    kommt der gleiche fehler, nur mit der zeile 170, wobei die ursache auch in zeile 27 liegt


    Code
    if /dev/MAKEDEV md >&2 >/dev/null; then
              echo 'done.' >&2
            else
              echo 'failed.' >&2
            fi


    da MAKEDEV ein Programm ist, ist das ein scriptfehler


    Code
    if MAKEDEV md >&2 >/dev/null; then
              echo 'done.' >&2
            else
              echo 'failed.' >&2
            fi


    danach ein "/var/lib/dpkg/info/mdadm.postinst configure" und es lief durch.


    evtl. hilft es auch schon, wenn du das in der console eingibts


    Code
    cd /dev
    MAKEDEV md
    cd ~


    wäre aber gut, wenn sich da mal noch wer zu wort meldet, der mehr Ahnung davon hat


    Zitat

    und wozu steht dann noch das X jeweils na sdb, sdc, sdd?
    Muss ich das eine 1 einsetzen für eine ganze Partition pro Platte?
    mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 --force


    :D frage selbst beantwortet .D

    Dirk

  • Also dann gebe ich den Befehl mal so ein.
    Dann kann also nichts schief gehen?


    ... Ich gehe mal Kurz einkaufen in die Stadt, und schaue in einer grossen Buchhandlung mal in ein Dickes Ubuntu-Buch, ob ich da auf die schnelle was darüber finde. - Ich will ja nichts überstürzen! - Gut ding will Weile haben ;) - Ich melde mich dann am Abend wieder...


    Jari

    Testweise yaVDR0.5.0-headless auf Esxi, 5.0.0, 623860 installiert auf USB Stick, Mainboard Intel DQ67SW, CPU i5 2400, 32GB Ram, SATA HDs 250 GB onboard angeschl.
    Digital Devices Cine S2 V6 Twin, Dual Quad LNB Maxum, Satelliten Astra/Hotbird


    Streamdev-server 1 porduktiv: Intel DH55TC, i3, 8GB Ram, NVIDIA ENGT240 Silent, yaVDR 0.5.0a, Vids lokal und auf (NFS-Openfiler 12TB)
    Streamdev-client 2: AT3IONT-I 1.6GHz, 2GB Ram, HD 160GB, Windows 7 / yaVDR 0.5.0 dualboot, streamdevclient
    Streamdev-client 3: Intel DQ965GF 1.8GHz, bravo 220, streamdev
    Testclient4: Raspberry PI mit Openelec mit VNSI-Plugin angebunden / stürzt ab und zu ab - im Moment nicht mehr in Betrieb

    Einmal editiert, zuletzt von zahu ()

  • siehe mein edit von oben


    wird erstmal vermutlich nicht klappen ohne die anpassung, da die md devices fehlen


    bei meinen tests mit loop-devices gab es danach kein problem beim einbinden

    Dirk

  • Ich habe folgendes gemacht:


    root@yaVDR-2:~# cd /dev
    root@yaVDR-2:/dev# /var/lib/dpkg/info/mdadm.postinst configure
    Generating array device nodes... /var/lib/dpkg/info/mdadm.postinst: Zeile 27: /dev/MAKEDEV: No such file or directory
    failed.
    Removing any system startup links for /etc/init.d/mdadm-raid ...
    update-initramfs: Generating /boot/initrd.img-2.6.32-23-generic
    update-rc.d: warning: mdadm start runlevel arguments (2 3 4 5) do not match LSB Default-Start values (S)
    update-rc.d: warning: mdadm stop runlevel arguments (0 1 6) do not match LSB Default-Stop values (0 6)
    * Starting MD monitoring service mdadm --monitor /sbin/mdadm already running.
    [fail]
    root@yaVDR-2:/dev# MAKEDEV md
    root@yaVDR-2:/dev# cd ~
    root@yaVDR-2:~# /var/lib/dpkg/info/mdadm.postinst configure
    Removing any system startup links for /etc/init.d/mdadm-raid ...
    update-initramfs: Generating /boot/initrd.img-2.6.32-23-generic
    update-rc.d: warning: mdadm start runlevel arguments (2 3 4 5) do not match LSB Default-Start values (S)
    update-rc.d: warning: mdadm stop runlevel arguments (0 1 6) do not match LSB Default-Stop values (0 6)
    * Starting MD monitoring service mdadm --monitor /sbin/mdadm already running.
    [fail]
    root@yaVDR-2:~#


    Nun scheint es durchgelaufen zu sein.
    Kann ich jetzt davon ausgehen, dass mdadm richtig installiert, trotz des [fail] ist?
    dann bis später...

    Testweise yaVDR0.5.0-headless auf Esxi, 5.0.0, 623860 installiert auf USB Stick, Mainboard Intel DQ67SW, CPU i5 2400, 32GB Ram, SATA HDs 250 GB onboard angeschl.
    Digital Devices Cine S2 V6 Twin, Dual Quad LNB Maxum, Satelliten Astra/Hotbird


    Streamdev-server 1 porduktiv: Intel DH55TC, i3, 8GB Ram, NVIDIA ENGT240 Silent, yaVDR 0.5.0a, Vids lokal und auf (NFS-Openfiler 12TB)
    Streamdev-client 2: AT3IONT-I 1.6GHz, 2GB Ram, HD 160GB, Windows 7 / yaVDR 0.5.0 dualboot, streamdevclient
    Streamdev-client 3: Intel DQ965GF 1.8GHz, bravo 220, streamdev
    Testclient4: Raspberry PI mit Openelec mit VNSI-Plugin angebunden / stürzt ab und zu ab - im Moment nicht mehr in Betrieb

  • der fail kommt, weil du das script nicht geändert hast, wie ich es oben gezeigt habe


    du kannst ja mal versuchen es einzuhängen
    (ich übernehm aber kein gewehr)


    mdadm --verbose --assemble --scan


    bzw.


    mdadm --verbose --assemble --scan --force

    Dirk

  • Zitat

    Muss ich das eine 1 einsetzen für eine ganze Partition pro Platte? mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 --force



    Das hängt von deinen Partitions ab. Wenn du auf den ganzen Platten nur jeweils eine Partition hast, dann stimmt deine Angabe. Könnte stimmen, da du offensichtlich eine sda Platte hast, von der du hochfährst...
    (ansonsten liefert fdisk -l die passende Auskunft)


    Achtung, du nutzt den Befehl falsch!
    mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1 --force
    Das heißt, du führst zuerst zwei Platten zusammen - bei Erfolg kannst du dann schon mal mounten und die Daten wegkopieren. (sollte es mit sdb1 und sdc1 nicht klappen, könntest du wahlweise mit sdd1 tauschen... ich weiß ja nicht, welche degraded sind...)
    Dann wieder unmounten und per
    "mdadm -add" die jeweils dritte Platte ergänzen.


    Du weißt, dass dir
    cat /proc/mdstat
    den Status deines RAIDs liefert? Wie gesagt, sobald du 2 von 3 Platten wieder lauffähig hast, unbedingt die Daten auf ein anderes Laufwerk kopieren - so kann bei den nächsten Versuchen nichts schief gehen...


    EDIT: Das ganze funktioniert nur dann, wenn du die ursprüngliche Systemplatte einbaust, ansonsten müssten (glaube ich) die md devices neu angelegt werden...

    Server: 19" Rack - yaVDR 0.5, 4x DVB-S2
    Server (Reserve): 19" Rack Server - Ubuntu 10.04 + yaVDR Repo (COMPUCASE 4HE, GIGABYTE 770TA-UD3, SNT-BA3151-1 Backplane, Athlon II X2 245e, 4 GB, 2x WD Caviar Green 2TB, 3x TT-budget S2-1600)
    Client "Wohnzimmer": Zotac ZBOX (MLD 4.0.1, Nvidia, Atom)
    Client "Schlafzimmer": Zotac ZBOX (MLD 3.0.3, Nvidia, Atom)
    Client "Kinderzimmer": Asus EeeBox EB1012P-B0550 (yaVDR 0.5, Nvidia, Atom)
    Client "Fitness": Zotac ZBOX (MLD 3.0.3, Nvidia, Atom)
    Client "Küche": Asus EeeBox B202 (Lubuntu+VLC)
    Client "Büro" (Lubuntu)
    Client "Terrasse": NSLU2 (Debian, MPD)

    2 Mal editiert, zuletzt von Tiroler ()

  • Weisst Du Tiroler, mein Problem ist, dass das System von der originalen Platte gar nicht mehr hochfährt, ohne das RAID. Ich komme immer nur bis zur Meldung. "yaVDR wird gestartet" oder so und dann bleibt der Monitor schwarz. Wenn ich dann versuche mit alt F1 bis F10 in andere terminals umzuswitchen, bekomme ich höchstens nur einen blinkenden underline, oder gar nichts. Dh. ich muss dann den Rechner 5sec lang abwürgen. Deshalb habe ich dann meine erste Systemplatte mit dem yaVDR0.2.0 wieder eingebaut und nun das mdadm manuell nachinstalliert. Es sollte doch auch mit dieser Systemplatte gehen, oder? Mit dem --scan Befehl sollte so wie ich es verstanden habe, die /etc/mdadm/mdadm.conf neu geschrieben werden.
    siehe:
    http://wiki.ubuntuusers.de/software-raid
    Abschnitt Wechsel des betriebssystems
    mdadm --assemble --scan

    Testweise yaVDR0.5.0-headless auf Esxi, 5.0.0, 623860 installiert auf USB Stick, Mainboard Intel DQ67SW, CPU i5 2400, 32GB Ram, SATA HDs 250 GB onboard angeschl.
    Digital Devices Cine S2 V6 Twin, Dual Quad LNB Maxum, Satelliten Astra/Hotbird


    Streamdev-server 1 porduktiv: Intel DH55TC, i3, 8GB Ram, NVIDIA ENGT240 Silent, yaVDR 0.5.0a, Vids lokal und auf (NFS-Openfiler 12TB)
    Streamdev-client 2: AT3IONT-I 1.6GHz, 2GB Ram, HD 160GB, Windows 7 / yaVDR 0.5.0 dualboot, streamdevclient
    Streamdev-client 3: Intel DQ965GF 1.8GHz, bravo 220, streamdev
    Testclient4: Raspberry PI mit Openelec mit VNSI-Plugin angebunden / stürzt ab und zu ab - im Moment nicht mehr in Betrieb

  • OK nun habe ich es gewagt:


    root@yaVDR-2:~# mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1 --force
    mdadm: forcing event count in /dev/sdb1(0) from 273 upto 280
    mdadm: /dev/md0 has been started with 2 drives (out of 3).
    root@yaVDR-2:~# cat /proc/mdstat
    Personalities : [raid6] [raid5] [raid4]
    md0 : active raid5 sdb1[0] sdc1[1]
    3907026816 blocks level 5, 64k chunk, algorithm 2 [3/2] [UU_]


    unused devices: <none>
    Sie haben Post in /var/mail/root.
    root@yaVDR-2:~# cd /srv/vdr
    root@yaVDR-2:/srv/vdr# ls
    tmp video.00 video.01
    root@yaVDR-2:/srv/vdr# cd /tmp
    root@yaVDR-2:/tmp# ls
    mc-root vdr.log
    root@yaVDR-2:/tmp# mount /dev/md0 /srv/vdr/tmp
    root@yaVDR-2:/tmp# ls
    mc-root vdr.log
    root@yaVDR-2:/tmp#


    Aber leider sehe ich unter dem Verzeichnis tmp nicht den Inhalt des RAIDS.
    Muss ich jetzt noch die scan-Option durchführen, oder mache ich bloss einen Fehler beim mounten? oder habe ich irgendwie noch ein Berechtigungsproblem?


    Mit:
    mdadm --detail --scan >> /etc/mdadm/mdadm.conf
    habe ich die mdadm.conf neu erstellt.

    Testweise yaVDR0.5.0-headless auf Esxi, 5.0.0, 623860 installiert auf USB Stick, Mainboard Intel DQ67SW, CPU i5 2400, 32GB Ram, SATA HDs 250 GB onboard angeschl.
    Digital Devices Cine S2 V6 Twin, Dual Quad LNB Maxum, Satelliten Astra/Hotbird


    Streamdev-server 1 porduktiv: Intel DH55TC, i3, 8GB Ram, NVIDIA ENGT240 Silent, yaVDR 0.5.0a, Vids lokal und auf (NFS-Openfiler 12TB)
    Streamdev-client 2: AT3IONT-I 1.6GHz, 2GB Ram, HD 160GB, Windows 7 / yaVDR 0.5.0 dualboot, streamdevclient
    Streamdev-client 3: Intel DQ965GF 1.8GHz, bravo 220, streamdev
    Testclient4: Raspberry PI mit Openelec mit VNSI-Plugin angebunden / stürzt ab und zu ab - im Moment nicht mehr in Betrieb

    2 Mal editiert, zuletzt von zahu ()

  • mach mal


    cd ..
    cd tmp
    ls

    Dirk

  • HURRAAAAAAAAAAAAAAAAAAAAAA!!!!!


    Ich habe es geschafft!!!


    Vielen, vielen Dank an alle Helfer.


    Ich bin schon am wegkopieren der wichtigsten Daten mit WinSCP.
    Anschliessend werde ich dann noch die dritte Platte wieder einhängen und zusätzlich eine vierte als Spare.
    Dann schaue ich mir die Einstellungen der Platten noch einmal etwas genauer an und mache sie dann etwas weniger green ;)


    Besten Dank noch mal an alle!! - Und einen schönen Sonntag :)


    Jari

    Testweise yaVDR0.5.0-headless auf Esxi, 5.0.0, 623860 installiert auf USB Stick, Mainboard Intel DQ67SW, CPU i5 2400, 32GB Ram, SATA HDs 250 GB onboard angeschl.
    Digital Devices Cine S2 V6 Twin, Dual Quad LNB Maxum, Satelliten Astra/Hotbird


    Streamdev-server 1 porduktiv: Intel DH55TC, i3, 8GB Ram, NVIDIA ENGT240 Silent, yaVDR 0.5.0a, Vids lokal und auf (NFS-Openfiler 12TB)
    Streamdev-client 2: AT3IONT-I 1.6GHz, 2GB Ram, HD 160GB, Windows 7 / yaVDR 0.5.0 dualboot, streamdevclient
    Streamdev-client 3: Intel DQ965GF 1.8GHz, bravo 220, streamdev
    Testclient4: Raspberry PI mit Openelec mit VNSI-Plugin angebunden / stürzt ab und zu ab - im Moment nicht mehr in Betrieb

  • Zitat

    Original von zahu
    OK nun habe ich es gewagt:


    root@yaVDR-2:~# mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1 --force


    Wie hast Du die beiden Platten zu zusammenführen ausgewählt?
    Hast Du vorher mit 'mdadm -D /dev/sdb1' ... nach dem Eventcount geschaut?
    Der Schritt von 273 auf 280 ist mir eigentlich zu hoch. Du hast vermutl. die Platte mit eingebunden, die zuerst ausgefallsen war.


    Hardy

    Suche: 6 Richtige für die nächste Lottoziehung
    PS: Wer Rechtschreibfehler findet, darf sie behalten!

  • Ich habe mir meine Mailbenachrichtigungen angeschaut, und die jenige Platte, welche zuerst ausgestiegen ist, (sdd) habe ich absichtlich nicht eingebunden.


    1. Mail:
    A Fail event had been detected on md device /dev/md0.
    It could be related to component device /dev/sdd1.


    2. Mail:
    A Fail event had been detected on md device /dev/md0.
    It could be related to component device /dev/sdb1.


    -> Also habe ich es so gemacht:
    mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1 --force


    und anschliessend noch:
    mdadm --detail --scan >> /etc/mdadm/mdadm.conf
    da diese mdadm.conf auf dem yaVDR0.2.0 ja noch jungfräulich war.


    Das mit der Differenz von 273 auf 280 habe ich nicht ganz verstanden.


    Bin aber schon mal froh, dass ich das Wichtige bereits gesichert habe 10GB selber gedrehte und bearbeitete Skatefilme vom Jungen.


    Aber vielleicht kann mir noch jemand diese Schritte 273 auf 280 noch erklären.


    PS: Der Wert des LCC bei meinen WD20EARS ist von mir aus nicht so hoch, wenn er max. 300'000 betragen darf.
    9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 661
    193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 852

    Testweise yaVDR0.5.0-headless auf Esxi, 5.0.0, 623860 installiert auf USB Stick, Mainboard Intel DQ67SW, CPU i5 2400, 32GB Ram, SATA HDs 250 GB onboard angeschl.
    Digital Devices Cine S2 V6 Twin, Dual Quad LNB Maxum, Satelliten Astra/Hotbird


    Streamdev-server 1 porduktiv: Intel DH55TC, i3, 8GB Ram, NVIDIA ENGT240 Silent, yaVDR 0.5.0a, Vids lokal und auf (NFS-Openfiler 12TB)
    Streamdev-client 2: AT3IONT-I 1.6GHz, 2GB Ram, HD 160GB, Windows 7 / yaVDR 0.5.0 dualboot, streamdevclient
    Streamdev-client 3: Intel DQ965GF 1.8GHz, bravo 220, streamdev
    Testclient4: Raspberry PI mit Openelec mit VNSI-Plugin angebunden / stürzt ab und zu ab - im Moment nicht mehr in Betrieb

    4 Mal editiert, zuletzt von zahu ()

  • Hallo zahu,


    in dem RAID-Superblock wird dieser Ereignisszähler gespeichtert, um eine Situation wie bei Dir bei noch funktionsfähigen Platten (es kann ja mal ein Kabel abgehen ...) wieder zu retten.


    Bei jedem (eigentlich wichtigen) Ereigniss für das RAID wird dieser Ereignisszähler erhöht und auf die (noch) funktionsfähigen Platten geschrieben.


    In Deinem Fall ist ein wichtiges Ereigniss der Ausfall der 1. Platte, das zweite Ereigniss ist dann der Ausfall der 2. Platte, also max. eine Differenz von 2 (oder 4). Es sei denn Dein Kernel macht auch nach jedem Schreizugriff eine Erhöhung um 2 (clean -> aktive & aktive -> clean), dann ist der Zähler sicht mehr so aussagefähig...


    Diesen Superblcok kann man mit mdadm -E /dev/... sich ansehen und so noch helfend eingreifen.


    Die neueren Kernel-Versionen zeigen hier nur ein sehr eigenartiges Verhalten siehe hier. Wer dazu einen Tip hat, bitte nicht zögern.


    Hardy

    Suche: 6 Richtige für die nächste Lottoziehung
    PS: Wer Rechtschreibfehler findet, darf sie behalten!

  • Guten Morgen zusammen
    Di ganze Nacht habe ich mit WinSCP kopiert. Nun ist das Kopieren abgebrochen.
    Sogar wenn ich ein Verzeichnuis doppelklicke, welches vollständig kopiert wurde kommt die Meldung:
    Fehler:
    Fehler beim Wechseln ins Verzeichnis'xyz'
    Kann den realen Pfad für '/srv/vdr/raid/video.00/xyz' nicht ermiteln.
    Overflow while converting variant of type (integer) into type (LongWord)


    (Das Verzeichnis raid habe ich auf der Systemdisk selbst erstellt und das Raid dahin gemountet.)


    Irgendwie scheint sich das Zeugs wieder verabschiedet zu haben.
    Einige Verzeichnisse sind zwar noch auflistbar, aber nicht mehr so viele wie gestern.


    EDIT: Es geht wieder!
    Nach einem reboot des VDR und anschliessendem mount des /dev/md0 in ein anderes Verzeichnis kann ich wieder auf die Daten zugreifen.
    Ist wohl ein WinSCP-Problem.

    Testweise yaVDR0.5.0-headless auf Esxi, 5.0.0, 623860 installiert auf USB Stick, Mainboard Intel DQ67SW, CPU i5 2400, 32GB Ram, SATA HDs 250 GB onboard angeschl.
    Digital Devices Cine S2 V6 Twin, Dual Quad LNB Maxum, Satelliten Astra/Hotbird


    Streamdev-server 1 porduktiv: Intel DH55TC, i3, 8GB Ram, NVIDIA ENGT240 Silent, yaVDR 0.5.0a, Vids lokal und auf (NFS-Openfiler 12TB)
    Streamdev-client 2: AT3IONT-I 1.6GHz, 2GB Ram, HD 160GB, Windows 7 / yaVDR 0.5.0 dualboot, streamdevclient
    Streamdev-client 3: Intel DQ965GF 1.8GHz, bravo 220, streamdev
    Testclient4: Raspberry PI mit Openelec mit VNSI-Plugin angebunden / stürzt ab und zu ab - im Moment nicht mehr in Betrieb

    3 Mal editiert, zuletzt von zahu ()

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!