allgemeine RAID Fragen

  • muss einen neuen vdr server aufsetzen.

    4x dvb-s2 nova hd
    6x 1TB WD green SATA
    Gigabyte EP43-DS3 Socket775 FSB1600 ATX P43
    Intel Core 2 DUO 2.8Mhz

    dazu dann
    6x media mvp streaming clients

    die frage stellt sich wie ich die partitionen idealerweise aufteile. da der server schwer zu warten ist (hardwareseitig) wäre mir raid sehr recht.

    raid5 ist wohl ideal was die nettodatenmenge angeht. ich koennte aber auch ein raid1 mit 2x3tb machen. das reicht auch vom speicherplatz her. wie gesagt: es geht weder um performance noch um maximalen speicherplatz.

    konkret: nicht ein raid10, sondern raid1 fuer bootpartition, wo auch video0 draufliegt, dann noch ein raid1 fuer video1 (1tb) und ein raid1 fuer video2 (also das letzte tb)

    mit 3tb netto kommt man auch schon ganz schoen weit. :) (also video0 und dvd-isos)

    meine frage: sollte ich einen extra controller kaufen, oder kann ich das mit dem onboard sata controller machen? besteht bei einem raid1 auch die gefahr, dass bei einem ausfall des boards die platten nur mehr mit dem selben controller (naemlich dem des boards) gelesen werden koennen, oder sind das 2 idente platten, die ich auch jede einzeln betreiben koennte? bzw natuerlich 2x3 platten.

    danke fuer eure hilfe!
    servus izeman

    produktiv: intel dh67bl, sat>ip, octopusnet, 16gig boot-ssd, yavdr 0.6.1, cir lirc
    testing: zotac ion-f itx, 1x tt s2-3600 usb, 8gig boot-ssd, yavdr 0.5 testing
    tv: samsung 75" amp:denon avr-x1300

    Edited 2 times, last by izeman (April 9, 2009 at 7:41 PM).

  • Wenn du mit WG WD meinst dann sind diese Platten nicht wirklich für ein raid system ideal. Gibt da schon einige Meldungen wo gerade die Green Platten von WD schlapp machen :(

    HW1: Tyan S2915|2x AMD Opteron 2216 HE|pcie 8400GS|TeVii S470 |LSI 8888ELP|SAS Expander|15x2TB mit mhddfs|32" SONY 32EX705
    HW2: Zotac ION|Tevii S650|Samsung 60GB 2,5"|HDMI an 52" Toshiba
    SW 1-2: Xubuntu 10.4, VDR 1.7.14, xine-vdpau, xbmc

  • zu spaet. die sind schon gekauft ;) vielleicht ist gerade DESHALB ein raid1 am besten. wenn die ausfallen bin ich so am besten geschuetzt *g*

    PS: hab's auf WD geaendert - danke

    produktiv: intel dh67bl, sat>ip, octopusnet, 16gig boot-ssd, yavdr 0.6.1, cir lirc
    testing: zotac ion-f itx, 1x tt s2-3600 usb, 8gig boot-ssd, yavdr 0.5 testing
    tv: samsung 75" amp:denon avr-x1300

    Edited once, last by izeman (April 9, 2009 at 7:41 PM).

  • Yohoo!

    Wenn es Dir weder auf die Nettokapazitaet noch auf die Performance ankommt, lass die Finger von RAID1 oder 10.

    In Deinem Fall empfehle Ich RAID5 mit einer Spare Platte oder Alternativ RAID6. Beides ueber Linux Software RAID realisiert. Lass bloss die Finger von diesem PSeude RAID Modi der ueblichen OnBoardBilligControllern.

    RAID6/Spare dehalb, weil man beim Ausfall einer Platte nicht unbedigt SOFORT ranmuss, sondern auch noch den Ausfall einer zweiten Platte tolerieren koennte. Austauschen muss man die defekte Platte, klar. Aber nicht ganz so dringend.

    EIN Array bauen! Und ueber das Array dan Paritionen legen- am besten sogar LVM, aber das ist dann die hohe Schule.

    Ein Array auch aus Gruenden der Uebersichtlichkeit.

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

  • aber ist raid5 nicht viel komplizierter? was passiert wenn mir board eingeht? ist das bei lvm und software raid egal? unterstuetzt das JEDER controller?

    und was ist an raid1 auszusetzen? ich will das eh nicht mit der hardware machen, sondern hier auch mdadm einsetzen. habe ich dann bei raid1 zwei 100% gleiche platten?

    produktiv: intel dh67bl, sat>ip, octopusnet, 16gig boot-ssd, yavdr 0.6.1, cir lirc
    testing: zotac ion-f itx, 1x tt s2-3600 usb, 8gig boot-ssd, yavdr 0.5 testing
    tv: samsung 75" amp:denon avr-x1300

  • Quote

    Originally posted by izeman
    aber ist raid5 nicht viel komplizierter?


    Schon, aber wen soll das stoeren? Das komplizierte erledigt doch die CPU fuer Dich. Und auf Performanz kommt es Dir nicht an.

    Quote

    was passiert wenn mir board eingeht?


    Das uebliche. Aber nix, was das RAID betrifft- deshalb ja Software RAID.

    Quote

    ist das bei lvm und software raid egal? unterstuetzt das JEDER controller?


    Der Controller weiss nichtmal was davon, dass er RAID hat- der betrachtet jede Platte einzeln. Und der Kernel nimmt alle Berechnungen vor und sagt dem Controller nur, welchen Daten er in welchen Block zu schreiben hat. Den Controller interessiert das in Deinem Fall nicht- musst die RAID Funktion im BIOS aber auf jeden Fall ausschalten!

    Quote

    und was ist an raid1 auszusetzen?


    RAID1 hat einen Vorteil: es ist schnell.
    RAID1 hat einen Nachteil: es verschwendet Plattenplatz

    Quote

    ich will das eh nicht mit der hardware machen, sondern hier auch mdadm einsetzen. habe ich dann bei raid1 zwei 100% gleiche platten?

    Nicht genau 100%, da ja auch die RAID Informationen irgendwo gespeichert werden muessen, aber die Inhalte sind gleich. Eine Platte rausnehmen, die wird an einem anderen Rechner problemlos als normale Einzelplatte laufen.

    Ach ja, ein NAchteil von RAID5/6: Du kannst davon nicht booten. D.h. Du musst eine extra Partition haben, von der Du bootest. Aber die solltest Du sowieso fuer SWAP haben.

    Also am Anfang einer jeden Platte 150MB primaere Partition, zwei davon als RAID1 fuer /boot, die anderen vier als SWAP. Zweite Partition als RAID5/6. Fertig.

    LVM liegt UEBER RAID- d.h. eigentlich haben die nix miteinander zu tun. Solange das RAID funktioniert, sollte es LVM auch gut gehen.

    :n8 Mitternacht hier.

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

    Edited once, last by knebb (April 9, 2009 at 8:22 PM).

  • Bei Software RAID dient der Controller nur als elektrische Schnittstelle zwischen Festplatten und Software. Die Verteilung der Daten und Datensicherheit erledigt die Software, die jede Festplatte einzeln anspricht. Das geht mit jedem Controller der die Festplatten einzeln behandeln kann.

    Meine VDR

    1. gen2vdr v2 auf Aopen i915GMm-HFS und CeleronM 360J, RAM 1GB, HD Samsung HD401LJ, DVD Pioneer DVR-A05, Funk-Tastatur Cherry mit USB-Empfänger, TT FF 1.5 (System nur noch selten im Einsatz)

    2. gen2vdr v3 auf Gigabyte GA-E7AUM-DS2H (NVidia 9400 Onboard-Grafik) mit Core2Duo E8500, RAM 4 GB, SATA-Festplatte im Wechselrahmen, SATA BD-ROM/DVD-Brenner Pioneer, Tastatur, Skystar HD2

  • Hallo,

    also ich habe hier 4 WD 1TB Green im Raid5-Verbund seit ca. 4 Monaten am laufen. Das läuft ganz gut, laut hdparm -t /dev/md0 sogar mit bis zu 172.33 MB/sec. Dank Gigabit-Netzwerk liegen Transferraten über Netatalk bei 50 - 60 MByte/s. Also performancemäßig gibt's da wirklich nix zu meckern. Und die CPU-Last durch das Softraid liegt bei unter 2% auf meinem 2,3GHz Core2Duo.

    An deiner Stelle würde ich die Platten mit 2 Partitionen versehen:
    Part. No1: System Raid1 (2x HDDs) / Swap (4x HDDs)
    Part. No2: Video Raid5+Spare (6x HDDs)

    Vorsichtig, wäre ich bei dem Feature Virtual Dual BIOS. Dabei speichert das Board die Informationen des BIOS auf einem (angeblich) unbenutzten Bereich auf einer Festplatte. Diese sogenannen unbenutzten Bereiche werden von bestimmten Dateisystemen bzw. z.B. Software-RAIDs verwendet. Ich hatte damit vermutl. Probleme. Seit ich die Platten nur noch an den 4 SATA-Ports der ICH9 meines Gigabyte P35-DS3 angeschlossen habe, ist das Problem nicht wieder aufgetreten.

    Ansonsten muss ich sagen, dass ich die Wahl des Linux-Softraid anstelle des im BIOS integrierten RAIDs nicht bereue. Durch obiges Problem und (nahezu gleichzeitigen) Ausfall einer WD-Platte war mein RAID quasi defekt. Doch mit Recherche im Netz, etwas Mut und ein bisschen Probieren habe ich lediglich 2 VDR-Aufzeichnungen meiner ganzen 2,1TB Daten verloren. :) Seitdem weiß ich, dass nix über ein gutes Backup geht. ;) Außerdem wird mdadm bei mir nun überwacht. Und da ich aus Platz- und Stromkostengründen keine Spare-Platte ins System bauen möchte, denke ich momentan über Hot-Swap-Wechselrahmen nach, um die defekte Platte bei Bedarf schnell auswechseln zu können.

    Ob die WD 1TB Green (WD10EACS) für RAID geeignet ist, kann ich so bisher noch nicht sagen. Fakt ist, dass eine von den Platten schon ausgetauscht wurde und eine weitere auch schon einen reparierten SMART-Fehler hat. Ob da nicht auch oben angeführtes Virtual Dual BIOS seinen Anteil hat, kann ich nicht ausschliessen. :(

    ByE...

    Server:  (K)VM on Proxmox 4.x-Host, VDR 2.2.0 (selbstgebaut vom yaVDR unstable Repo) auf Debian 8 (Jessie), 1x Digital Devices Cine S2 (V6) + DuoFlex S2
    Clients: Raspberry Pi 2/3 mit Raspbian, VDR 2.2.0 (selbstgebaut vom yaVDR unstable Repo) als Streamdev-Clients

  • Moin,

    ein Szenario, das du dir auch ueberlegen koenntest, ist folgendes:
    * 3 Platten, um damit /boot, / und swap zu machen, also z.B. je eine 10GB Partition pro Platte. Mit 2x10GB als RAID1 sowie 1x10GB als swap. Rest der 3 Platten als RAID5 fuer /video.
    * Die restlichen 3 Platten als RAID5 unter z.B. /video/archiv einhaengen. Diese 3 Platten koennen auch z.B. nach 20 Minuten schlafen geschickt werden. Deine VDRs koennen darauf allerdings nicht so einfach aufnehmen. Aber fuer ein Archiv, wo seltener geschaute Sachen liegen waere das ja ok.

    Die Alternative waere fuer mich auch wie von knebb beschrieben ein RAID5 mit Hotspare oder RAID6. Ueberleg bloss mal, wie lange das synchronisieren bei n mal 1TB dauert... Und wenn keiner merkt, dass eine Platte abgekackt ist und dann nochwas passiert...

    Gruss,
    - berndl

    PS: Und natuerlich mdadm verwenden. Von LVM lasse ich persoenlich die Finger weil es eben nochmal Komplexitaet draufpackt und im Ernstfall die meisten RAIDs durch User-Fehler zerschossen werden.

    Edited once, last by berndl (April 10, 2009 at 7:40 AM).

  • Quote

    Original von atl
    Ob die WD 1TB Green (WD10EACS) für RAID geeignet ist, kann ich so bisher noch nicht sagen.

    Das ist egal, es kommt eigentlich auf die Nutzungsart des Rechners an.

    Normaler Rechner: also täglich 1-2 mal einschalten und dann ein paar Stunden mit mäßig Fastplattenaktivität laufen lassen - Das wäre der vorgegebene Einsatzfall für die WD10EACS.

    Serverbetrieb: Irgendwann mal einschalten und dann im Dauerlauf bis zur Verschrottung durchlaufen lassen mit viel bis sehr viel Plattenaktivität - Dafür sieht WD die WD1000FYPS vor, die ist genau so leise und kühl.

    RAID oder Einzelplatte ist nur soweit ein Thema wie sich die Platten bei enger "Stapelung" im Gehäuse gegenseitig aufheizen. Von der Aktivität her werden Platten in einem Heimserver-RAID nicht viel anders beansprucht wie eine Einzelplatte im selben Rechner.

    Meine VDR

    1. gen2vdr v2 auf Aopen i915GMm-HFS und CeleronM 360J, RAM 1GB, HD Samsung HD401LJ, DVD Pioneer DVR-A05, Funk-Tastatur Cherry mit USB-Empfänger, TT FF 1.5 (System nur noch selten im Einsatz)

    2. gen2vdr v3 auf Gigabyte GA-E7AUM-DS2H (NVidia 9400 Onboard-Grafik) mit Core2Duo E8500, RAM 4 GB, SATA-Festplatte im Wechselrahmen, SATA BD-ROM/DVD-Brenner Pioneer, Tastatur, Skystar HD2

    Edited once, last by halbfertiger (April 10, 2009 at 8:18 AM).

  • Quote

    Original von halbfertiger
    Serverbetrieb: Irgendwann mal einschalten und dann im Dauerlauf bis zur Verschrottung durchlaufen lassen mit viel bis sehr viel Plattenaktivität - Dafür sieht WD die WD1000FYPS vor, die ist genau so leise und kühl.

    Okay, genau dieses Szenario meinte ich eigentlich mit "...für RAID geeignet...", da mein VDR gleichzeitig als Datei- und VMware-Server rund um die Uhr läuft. Da hab ich mich etwas missverständlich ausgedrückt. :)

    ByE...

    Server:  (K)VM on Proxmox 4.x-Host, VDR 2.2.0 (selbstgebaut vom yaVDR unstable Repo) auf Debian 8 (Jessie), 1x Digital Devices Cine S2 (V6) + DuoFlex S2
    Clients: Raspberry Pi 2/3 mit Raspbian, VDR 2.2.0 (selbstgebaut vom yaVDR unstable Repo) als Streamdev-Clients

  • Trotzdem glaube ich nicht dass Dein Server zu Hause in Punkto Festplattenstress schon unter die Kategorie fällt die WD mit Server meint.

    Du musst entscheiden, schließlich kosten die WD1000FYPS 50% mehr als die WD10EADS/WD10EACS.

    Meine VDR

    1. gen2vdr v2 auf Aopen i915GMm-HFS und CeleronM 360J, RAM 1GB, HD Samsung HD401LJ, DVD Pioneer DVR-A05, Funk-Tastatur Cherry mit USB-Empfänger, TT FF 1.5 (System nur noch selten im Einsatz)

    2. gen2vdr v3 auf Gigabyte GA-E7AUM-DS2H (NVidia 9400 Onboard-Grafik) mit Core2Duo E8500, RAM 4 GB, SATA-Festplatte im Wechselrahmen, SATA BD-ROM/DVD-Brenner Pioneer, Tastatur, Skystar HD2

  • Etwas ot, aber gerade bei selbstgebauten Servern oft vernachlässigt... eine gute Kühlung der Festplatten!

    Kannst du wunderbar per hddtemp auslesen - ich betreibe meinen selbstgebauten Rack Server auch mit 3x 1TB Platten. Ich hatte zuerst auch Desktop Platten (von Samsung) verbaut, die ungekühlt eine Temperatur von 55 Grad erreichten - Fazit: Nach etwa 4 Monaten waren die ersten beiden defekt... jetzt habe ich (auf Garantie) 2 neue bekommen und kühle die Dinger auf etwa 33-35 Grad herunter! Laut Datenblatt sollten die Festplatten mit 60 Grad klarkommen, was aber wohl nicht für den Dauerbetrieb bestimmt ist... es gäbe da etwas teurere "24h" Platten von Samsung...

    Ich verwende übrigens RAID (also die Boot Partition als RAID1 (gespiegelt), die Root und die Video Partition als RAID5. Beim Plattentausch hat sich das Softwareraid 2x (defekte Platten) schon bewährt! Von LVM habe ich die Finger gelassen, da ich (für mich) keinen Vorteil sehe - das RAID kann man mittlerweile auch mit Bordmitteln erweitern, ohne neu formatieren zu müssen...

    Server: 19" Rack - yaVDR 0.5, 4x DVB-S2
    Server (Reserve): 19" Rack Server - Ubuntu 10.04 + yaVDR Repo (COMPUCASE 4HE, GIGABYTE 770TA-UD3, SNT-BA3151-1 Backplane, Athlon II X2 245e, 4 GB, 2x WD Caviar Green 2TB, 3x TT-budget S2-1600)
    Client "Wohnzimmer": Zotac ZBOX (MLD 4.0.1, Nvidia, Atom)
    Client "Schlafzimmer": Zotac ZBOX (MLD 3.0.3, Nvidia, Atom)
    Client "Kinderzimmer": Asus EeeBox EB1012P-B0550 (yaVDR 0.5, Nvidia, Atom)
    Client "Fitness": Zotac ZBOX (MLD 3.0.3, Nvidia, Atom)
    Client "Küche": Asus EeeBox B202 (Lubuntu+VLC)
    Client "Büro" (Lubuntu)
    Client "Terrasse": NSLU2 (Debian, MPD)

  • Quote

    Original von Tiroler
    Etwas ot, aber gerade bei selbstgebauten Servern oft vernachlässigt... eine gute Kühlung der Festplatten!
    ...


    Kann ich bestaetigen. Alles was ueber 40 Grad druebergeht sollte eine Platte fuer Dauerbetrieb ('RAID-edition') sein. Wenn's drunter bleibt dann reicht auch eine normale, billigere. Und die sollte man dann auch bei Inaktivitaet schlafen legen (also zur Not das OS auf eine SSD/Flash oder 2,5" legen). Hatte damit bisher auch noch keine Probleme.

    Gruss,
    - berndl

  • Quote

    Original von halbfertiger
    Trotzdem glaube ich nicht dass Dein Server zu Hause in Punkto Festplattenstress schon unter die Kategorie fällt die WD mit Server meint.

    Du musst entscheiden, schließlich kosten die WD1000FYPS 50% mehr als die WD10EADS/WD10EACS.


    Genau so denke ich mir das auch. Die Platten werden nur in unregelmässigen Abständen angesprochen. Die Temperaturen liegen stets unter 30°C. Lediglich zur Ruhe kommen die Platten bei mir nicht wirklich. ?(

    ByE...

    Server:  (K)VM on Proxmox 4.x-Host, VDR 2.2.0 (selbstgebaut vom yaVDR unstable Repo) auf Debian 8 (Jessie), 1x Digital Devices Cine S2 (V6) + DuoFlex S2
    Clients: Raspberry Pi 2/3 mit Raspbian, VDR 2.2.0 (selbstgebaut vom yaVDR unstable Repo) als Streamdev-Clients

  • Quote

    Original von berndl
    Und die sollte man dann auch bei Inaktivitaet schlafen legen


    Bliebe noch die Frage, wie man ein RAID5 schlafen legt? ?(

    ByE...

    Server:  (K)VM on Proxmox 4.x-Host, VDR 2.2.0 (selbstgebaut vom yaVDR unstable Repo) auf Debian 8 (Jessie), 1x Digital Devices Cine S2 (V6) + DuoFlex S2
    Clients: Raspberry Pi 2/3 mit Raspbian, VDR 2.2.0 (selbstgebaut vom yaVDR unstable Repo) als Streamdev-Clients

  • Hallo halbfertiger & atl,

    Quote

    Original von halbfertigerDu musst entscheiden, schließlich kosten die WD1000FYPS 50% mehr als die WD10EADS/WD10EACS.

    ich habe beide hier im Test, die WD1000FYPS wird nach einer haben Stunde auf dem Schreibtisch liegend schon über 40°C warm, die WD10EADS erreicht bei dieser Zeit noch nicht einmal 30°C.
    Der Geschwindigkeitsunterschied (107 zu 96MB/s) ist nicht so groß und wird je nach Controller ja auch nicht von allen Platten in einem RAID gleichzeitig geliefert. Der Sil3132 schaft als Gesamtdatenrate gerade mal 162MB/s

    Dafür, daß der Lüfter nur wenig Krach macht würde ich i.M. immer zur WD10EADS greifen.

    Quote

    Original von atl
    Bliebe noch die Frage, wie man ein RAID5 schlafen legt? ?(

    Was ist an einem Software-Raid anders als mit normalen Platten? Mit "hdparm -S .." die Schafenszeit einstellen und bei einem Zugriff halt x mal 3 Sekunden auf die Daten warten.

    Bitte sagt jetzt nicht, daß ich falsch liege. Ich bin gerade am Aufbau eines RAID6 mit 12 Platten, die ich auf diese Weise zum Stromsparen überreden möchte.

    Hardy

    PS: Bei welchen Händlern bekommt mal die WD10EADS eigentlich mit Herstellergarantie? Bisher habe ich in Dresden ein paar bekommen, die zwei Firmen in Wilhelmshaven haben bereits 3 Pakete zurück bekommen. Und die Firma aus Westendorf hat mich mit der letzten Lieferung auch enttäuscht, nachdem ich einige mit Garantie dort gekauft hatte.

    Suche: 6 Richtige für die nächste Lottoziehung
    PS: Wer Rechtschreibfehler findet, darf sie behalten!

    Edited 2 times, last by HFlor (April 11, 2009 at 8:13 AM).

  • Quote

    Original von atl
    Bliebe noch die Frage, wie man ein RAID5 schlafen legt? ?(
    ByE...


    Moin,
    z.B. so:

    Code
    # 1...240: je 5 sec
    # 241...251: 1...11 mal 30 min
    /sbin/hdparm -S 200 /dev/hdb      # 200x5sec
    /sbin/hdparm -S 245 /dev/hdd      # 5x30min


    So steht's bei mir in der /etc/init.d/bootmisc.sh

    Gruss,
    - berndl

  • Quote

    Original von berndl
    ein Szenario, das du dir auch ueberlegen koenntest, ist folgendes:
    * 3 Platten, um damit /boot, / und swap zu machen, also z.B. je eine 10GB Partition pro Platte. Mit 2x10GB als RAID1 sowie 1x10GB als swap. Rest der 3 Platten als RAID5 fuer /video.

    was willst du mit 10GB swap?
    ich hab es bei mir noch nicht erlebt, das der swapspeicher groß benutzt wurde.

    Quote

    Die Alternative waere fuer mich auch wie von knebb beschrieben ein RAID5 mit Hotspare oder RAID6. Ueberleg bloss mal, wie lange das synchronisieren bei n mal 1TB dauert... Und wenn keiner merkt, dass eine Platte abgekackt ist und dann nochwas passiert...

    Deshalb richtet man es auch so ein, das dem Admin beim (evtl. auch drohenden) Ausfall eine eMail geschickt wird. (stichwort -> smartmontools)

    Dirk

    Meine Signatur

    :]Heute ist nicht alle Tage, ich schreib wieder, keine Frage :]
    VDR1: Silverstone LC14M, AMD X2-BE2350,2GB/1,5TB,DVB-s/s2/c,Gentoo,Kernel 3.8.5,VDR-2.0.0
    VDR2: Silverstone GD05B, Intel G2020, Asrock B75-Pro3M, Asus GT610/2G, 8GB/1TB, YAVDR 0.5
    VDR3: Silverstone ML03, Intel G2020, Asrock B75-R2, 8GB/1TB

  • Hallo berndl,

    Quote

    Original von berndl

    Code
    # 1...240: je 5 sec
    # 241...251: 1...11 mal 30 min
    /sbin/hdparm -S 200 /dev/hdb      # 200x5sec
    /sbin/hdparm -S 245 /dev/hdd      # 5x30min


    So steht's bei mir in der /etc/init.d/bootmisc.sh

    aber nicht mit einer WD1002FBYS, da geht es nicht. Ich habe mal eine WD1002FBYS und eine WD10EADS mit "hdparm -S 12 ..." versucht nach einer Minute schlafen zu legen. bei der WD1002FBYS wird selbst nach 5 Minuten bei "hdparm -C ..." immer noch der Status "active/idle" angezeigt. Die WD10EADS geht nach der Minute schön schlafen. Beide Platten waren nur am Rechner angeschlossen, ohne Dateisystem.

    Hardy

    Suche: 6 Richtige für die nächste Lottoziehung
    PS: Wer Rechtschreibfehler findet, darf sie behalten!

Participate now!

Don’t have an account yet? Register yourself now and be a part of our community!