Anzahl der nfs-Daemons auf SuSE-Server

  • Hallo,


    das Videoverzeichnis meines VDR habe ich über nfs an einen SuSE Server angebunden. Da ich mit dem Datendurchsatz zur Zeit nicht zufrieden bin, war ich auch schon auf der Suche :]. Bei diesem Beitrag über Datenaustausch via NFS (pdf) wird auf der letzten Seite erklärt wie groß die Anzahl der nfs-Daemons sein sollte (bei SuSE sind wohl 4 Standardeinstellung). D. h. zumindest einer sollte so gut wie nie gebraucht werden.
    Nun ratet mal wies bei meinem Server aussieht.


    Code
    ~ # ps auxww | grep nfsd
    root     19870  0.1  0.0     0    0 ?        SW   Jan04  79:09 [nfsd]
    root     19871  0.1  0.0     0    0 ?        SW   Jan04  78:52 [nfsd]
    root     19872  0.1  0.0     0    0 ?        SW   Jan04  78:05 [nfsd]
    root     19873  0.1  0.0     0    0 ?        SW   Jan04  74:20 [nfsd]
    root     12837  0.0  0.0  1456  244 pts/0    R    08:41   0:00 grep nfsd
    ~ #

    Da ist die Auslastung ziemlich gleich hoch. Die sind wohl zu wenige.
    So, jetzt weiß ich nicht mehr weiter. Ich finde nicht raus wo man die Anzahl der nfs-Deamons bei SuSE ändern kann. (Habe die nfs-utils laufen). Hat wer nen Tipp?


    Viele Grüße,
    rijo

    DER STILLE:
    Epia ML 6000 EAG; TT-S2300 + TT-S1102 Budget; Transcend 512; 512MB;
    Linvdr 0.7 + Dr. Seltsam Kernel - 2.6.18 + Toxics Patch vdr-1.4.7-ext28-tt-20070523, LinVDR-Updater

    DER SERVER:
    Asus K7V; Athlon 800MHz; 1024MB; FastTrak S150 SX-M 64MB Cache (Raid5); 4xMaxtor 6B200M0;
    SuSE 9.0 (nfs, samba)

    TESTSERVER:
    Asus A8N-SLI Premium; Mahlzeit 4.0beta2

  • Habe leider kein Verzeichni /etc/conf.d/nfs.
    Aber ich habe ne /etc/sysconfig/nfs und da steht ein USE_KERNEL_NFSD_NUMBER="4" drin. Das könnte es sein.


    rijo

    DER STILLE:
    Epia ML 6000 EAG; TT-S2300 + TT-S1102 Budget; Transcend 512; 512MB;
    Linvdr 0.7 + Dr. Seltsam Kernel - 2.6.18 + Toxics Patch vdr-1.4.7-ext28-tt-20070523, LinVDR-Updater

    DER SERVER:
    Asus K7V; Athlon 800MHz; 1024MB; FastTrak S150 SX-M 64MB Cache (Raid5); 4xMaxtor 6B200M0;
    SuSE 9.0 (nfs, samba)

    TESTSERVER:
    Asus A8N-SLI Premium; Mahlzeit 4.0beta2

  • Zitat

    Original von rijo
    Hallo,


    das Videoverzeichnis meines VDR habe ich über nfs an einen SuSE Server angebunden. Da ich mit dem Datendurchsatz zur Zeit nicht zufrieden bin, war ich auch schon auf der Suche :]. Bei diesem Beitrag über Datenaustausch via NFS (pdf) wird auf der letzten Seite erklärt wie groß die Anzahl der nfs-Daemons sein sollte (bei SuSE sind wohl 4 Standardeinstellung). D. h. zumindest einer sollte so gut wie nie gebraucht werden.
    Nun ratet mal wies bei meinem Server aussieht.


    Code
    ~ # ps auxww | grep nfsd
    root     19870  0.1  0.0     0    0 ?        SW   Jan04  79:09 [nfsd]
    root     19871  0.1  0.0     0    0 ?        SW   Jan04  78:52 [nfsd]
    root     19872  0.1  0.0     0    0 ?        SW   Jan04  78:05 [nfsd]
    root     19873  0.1  0.0     0    0 ?        SW   Jan04  74:20 [nfsd]
    root     12837  0.0  0.0  1456  244 pts/0    R    08:41   0:00 grep nfsd
    ~ #

    Da ist die Auslastung ziemlich gleich hoch. Die sind wohl zu wenige.


    Hi Rijo,


    was verstehst du unter "mit dem Datendurchsatz zur Zeit nicht zufrieden'?`
    Bei einem Server und einem Client sollten 4 nfsds schon ausreichend sein. Bei mir laufen (historisch) acht, und auch die sind alle gleichmaessig ausgelastet. Ich denke eher, dass das System fuer eine gleichmaesige Auslastung sorgt.


    Wie hast du denn die mangelhafte Performance gemessen? Welche mount-Optionen hast du verwendet?


    Andreas

    VDR: ASUS AT3ION-T, 2GB, Satix S2 Dual, 1TB 2.5", yavdr 0.4
    Server: Intel DH67CF, Pentium G620, 8GB, 2x1000GB 2.5" Raid1, WLAN, Ubuntu 12.04 @22W
    TV: Panasonic P50G30

  • Hallo Andreas,


    wg. "mit dem Datendurchsatz zur Zeit nicht zufrieden" - Nun ja, es war schon besser. Im normalen Betrieb wirkt sich das so aus, daß ich keinen Beitrag ohne Störungen ansehen kann, wenn gleichzeitig eine Aufnahme läuft. Früher gingen das. Da konnte ich sogar 2 Aufzeichnungen gleichzeitig laufen haben und hatte dann (wenn überhaupt) kaum Störungen. (ich glaube ich hatte damals noch nen ct-vdr laufen, aber das weiß ich nicht mehr so genau).


    Das mit der Auslastung der nfs-Deamons habe ich aus dem genannten pdf.


    Die Performance habe ich so gemessen:

    ... und wenn ich richtig gerechnet habe gibt das 2,2Mbit/s schreibend und 6,5Mbit/s lesend. Dabei wundert mich eigentlich, daß ich fehlerfreie Aufnahmen hinbekomme. Habe auch schon andere Blockgrößen getestet - ähnliches Resultat.
    [edit] falsch gerechnet: 17,6 MBit/s schreibend und 52 MBit/s lesend. Das ist doch eigentlich ok? Hmmm ...[/edit]


    Gemountet habe ich so:

    Code
    fstab:
    192.168.2.43:/media/raid01/vdr /vdrshare nfs defaults,auto 0 0
    192.168.2.43:/media/raid01/musik /mnt/musik nfs defaults,auto 0 0

    "video0" zeigt auf das Verzeichnis "/vdrshare/video" (symlink)



    rijo

    DER STILLE:
    Epia ML 6000 EAG; TT-S2300 + TT-S1102 Budget; Transcend 512; 512MB;
    Linvdr 0.7 + Dr. Seltsam Kernel - 2.6.18 + Toxics Patch vdr-1.4.7-ext28-tt-20070523, LinVDR-Updater

    DER SERVER:
    Asus K7V; Athlon 800MHz; 1024MB; FastTrak S150 SX-M 64MB Cache (Raid5); 4xMaxtor 6B200M0;
    SuSE 9.0 (nfs, samba)

    TESTSERVER:
    Asus A8N-SLI Premium; Mahlzeit 4.0beta2

    2 Mal editiert, zuletzt von rijo ()


  • 34 Sekunden fuer 256MB schreiben= 7.5MB/s schreiben
    24 Sekunden fuer 256MB lesen = 10.6MB/s lesen
    Dabei duerfte der Cache eine nicht unwesentliche Rolle gespielt haben...


    Hier mal meine mount-optionen:

    Code
    10.0.0.1:/video  /video         nfs     defaults,rsize=32768,wsize=32768,nfsvers=3


    Wie gesagt, ich habe 8 nfsds laufen, denke aber nicht, dass das den grossen unterschied machen wuerde. Waehrend des Tests habe ich immer nur 2-3 aktive nfsds gesehen.

    VDR: ASUS AT3ION-T, 2GB, Satix S2 Dual, 1TB 2.5", yavdr 0.4
    Server: Intel DH67CF, Pentium G620, 8GB, 2x1000GB 2.5" Raid1, WLAN, Ubuntu 12.04 @22W
    TV: Panasonic P50G30

  • Hi rijo,


    prüfe doch mal, ob deine Netzwerkkarte auf FullDuplex steht. Unter SuSE gibt es das Tool mii-diag (wenn ich mich nicht irre).
    Außerdem kannst du mit der Option 'async' mounten, das sollte einiges an Performanz rausholen.


    Viele Grüße
    Rolf

  • Also:


    Das Erhöhen der Anzahl ( 8 ) der nfs-Deamons hat von der Geschwindigkeit nichts gebracht. Ob sie unterschiedlich ausgelastet sind kann ich noch nicht sagen.


    Das Ändern der Mount-Optionen ...

    Code
    192.168.2.43:/media/raid01/vdr /vdrshare nfs defaults,rw,async 0 0
    bzw.
    192.168.2.43:/media/raid01/vdr /vdrshare nfs defaults,rsize=32768,wsize=32768,nfsvers=3 0 0

    ... hat auch keinen Einfluß auf die Geschwindigkeit gehabt. (Habe natürlich jedesmal neu gemountet)


    Am Server gibt mir mii-tool folgende Meldung

    Code
    ~ # mii-tool
    eth0: negotiated 100baseTx-FD, link ok

    Nehme an FD heißt hier "full duplex"


    Am VDR bekomme ich eine Fehlermeldung von mii-tool, aber von ethtool krieg ich was

    ... so wie mir scheint beide Netzwerkkarten Full Duplex.


    @Andreas
    Dumme Frage? Welchen Cache meinst du?


    rijo

    DER STILLE:
    Epia ML 6000 EAG; TT-S2300 + TT-S1102 Budget; Transcend 512; 512MB;
    Linvdr 0.7 + Dr. Seltsam Kernel - 2.6.18 + Toxics Patch vdr-1.4.7-ext28-tt-20070523, LinVDR-Updater

    DER SERVER:
    Asus K7V; Athlon 800MHz; 1024MB; FastTrak S150 SX-M 64MB Cache (Raid5); 4xMaxtor 6B200M0;
    SuSE 9.0 (nfs, samba)

    TESTSERVER:
    Asus A8N-SLI Premium; Mahlzeit 4.0beta2

  • Hi,


    ich meinen den Betriebssystem-Cache. Linux verwendet allen freien Speicher als Disk-Cache. Weil 10MB/s lesen auf einem 100MBit Netz sind schon viel :)


    Dein Netz sieht nach 100 FullDuplex aus, das waere ok. Ich habe noch Tests mit einem 600MHz Celeron gemacht, um zu sehen, ob es eventuell an der CPU des Epia liegt, aber die Werte sind identisch zu meinem 1300MHz System.


    Zitat

    Nun ja, es war schon besser. Im normalen Betrieb wirkt sich das so aus, daß ich keinen Beitrag ohne Störungen ansehen kann, wenn gleichzeitig eine Aufnahme läuft. Früher gingen das.


    Hast du eventuell zwischendurch den VDR aktualisiert? Ich hatte auch Probleme, die der cUnbufferedFile-Patch behoben hat (http://www.linuxtv.org/piperma…2006-February/007674.html).


    Ansonsten faellt mir nur noch ein, mal mit ifconfig oder netstat -i zu sehen, ob du Fehler auf den Interfaces hast (verlorene Pakete o.ae.). Wie sind die beiden PCs verbunden? Ueber einen Switch, oder direkt per Crossover-Kabel?

    VDR: ASUS AT3ION-T, 2GB, Satix S2 Dual, 1TB 2.5", yavdr 0.4
    Server: Intel DH67CF, Pentium G620, 8GB, 2x1000GB 2.5" Raid1, WLAN, Ubuntu 12.04 @22W
    TV: Panasonic P50G30

  • Hallo Andreas,


    Cache: mit 512 MB Ram [edit](VDR)[/edit]sollte er noch genug Reserven für Cache haben.


    Zitat

    Hast du eventuell zwischendurch den VDR aktualisiert?


    Oh ja, andauernd :D - Aber den habe ich in den letzten Tagen frisch aufgesetzt. Das Problem ist aber schon älter!
    Das mit dem Patch klingt eigentlich nicht ganz nach meinem Problem. Es geht dabei doch um die soeben abgespielten Daten, welche durch den Patch noch etwas länger aufgehoben werden. Ich könnte es aber trotzdem mal ausprobieren. Außer, ist der Patch für meinen Softwarestand geeignet? Ich habe MarkTwain Patch - 1.3.24 und Cody Patch - 1.3.34 eingespielt. Der cUnbufferedFile-Patch nennt eine Version vdr-1.3.41 ????


    Zitat

    Wie sind die beiden PCs verbunden?


    Das hatte ich auch schon ausprobiert, da ich seit einiger Zeit auch nen neuen Router habe. Ohne Router scheint es minimal besser zu sein. ca 3-4 Sekunden (bei 1'50'') für 256 MB. X(


    ifconfig bringt mir:

    und netstat:

    daran fällt mir nichts auf.


    Zitat

    um zu sehen, ob es eventuell an der CPU des Epia liegt


    habe mal top laufen lassen, während eines Kopiervorgangs[edit](VDR-Rechner)[/edit]:

    Der idle-Wert sprang so zwischen 99 und 60 hin und her, meist aber über 90 %.


    rijo

    DER STILLE:
    Epia ML 6000 EAG; TT-S2300 + TT-S1102 Budget; Transcend 512; 512MB;
    Linvdr 0.7 + Dr. Seltsam Kernel - 2.6.18 + Toxics Patch vdr-1.4.7-ext28-tt-20070523, LinVDR-Updater

    DER SERVER:
    Asus K7V; Athlon 800MHz; 1024MB; FastTrak S150 SX-M 64MB Cache (Raid5); 4xMaxtor 6B200M0;
    SuSE 9.0 (nfs, samba)

    TESTSERVER:
    Asus A8N-SLI Premium; Mahlzeit 4.0beta2

    Einmal editiert, zuletzt von rijo ()

  • Zitat

    Original von rijo
    Cache: mit 512 MB Ram sollte er noch genug Reserven für Cache haben.


    Mein Server hat 1GB und das reicht bei den üblichen *vdr- Dateien auch nicht. Da ist dann die reine Plattenperformanz gefragt. Und wenn dann noch mehrere Clients auf die Kiste zugreifen....
    Wie ist denn Dein Server sonst so ausgestattet und wieviele Sachen laufen gleichzeitig?

    Zitat


    Mem: 482444K total, 103872K used, 378572K free, 6120K buffers
    Swap: 0K total, 0K used, 0K free, 81900K cached


    Außerdem hast Du keinen Swap! Richte erst mal 1GB Swap (2xRAM) ein, dann sehen wir weiter.
    Laß parallel dann mal vmstat 1 240 über vier Stunden mitprotokollieren. Das sind dann Aussagen.

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

  • knebb

    Zitat

    Außerdem hast Du keinen Swap!

    ... mein Fehler - das Top-Protokoll war vom VDR, nicht vom Server. Der VDR hat kein Swap weil er ohne Festplatte läuft. (Wäre ja für die Flash-Disk nicht so gesund.) Der Server hat relativ wenig RAM (256MB)+512MB Swap, OK.


    Zitat

    Mein Server hat 1GB und das reicht bei den üblichen *vdr- Dateien auch nicht.

    Das Wäre ja schon fast ne halbe Stunde Filmmaterial? Willst du die VDR-Dateien am Stück cachen? ;)
    Die Plattenperformance sollte doch eigentlich durch den aktiven Raid 5 Controller gewährleistet sein (kein Software-Raid).
    Habe aber trotzdem ausprobiert den Server mit zusätzlichen 512MB zu bestücken. Mehr konnte ich grad nicht organisieren. Auf eine erhöhung des Swap habe ich auch verzichtet, wollte ja nicht gleich neu Partitionieren.


    Zum Vergleich habe ich auch noch das Kopieren von ner w2k-kiste probiert (dos-box). Da kam ich vorneweg schon mal auf 5,4 MB/s (bei einer 550 MB großen Datei). Nach dem Einsetzen des RAMs in den Server wurden das auf etwa 7,4 MB gesteigert.


    Jetzt nochmal vom VDR aus probiert. Aber nix wars. :( Außer vielleicht 2-3 Prozent, mehr sind nicht drinn.


    Zitat

    Wie ist denn Dein Server sonst so ausgestattet und wieviele Sachen laufen gleichzeitig?

    Asus K7V; Athlon 800MHz; 256MB; FastTrak S150 SX-M 64MB Cache (Raid5); 4xMaxtor 6B200M0; SuSE 9.0
    Außer Samba und nfs läuft eigentlich nix drauf. Kein X, keine Server. Und wenn ich nen Film laufen habe ist die w2k-kiste aus. (Lärm) Dann greift auch kein anderer Client mehr auf den Server zu.


    Zitat

    Laß parallel dann mal vmstat 1 240 über vier Stunden mitprotokollieren.

    am VDR (da hab ichs nicht drauf) oder am Server oder beiden?


    rijo


    1. Ergebnis: 1Gig Ram für den Server zum schnelleren kopieren.

    DER STILLE:
    Epia ML 6000 EAG; TT-S2300 + TT-S1102 Budget; Transcend 512; 512MB;
    Linvdr 0.7 + Dr. Seltsam Kernel - 2.6.18 + Toxics Patch vdr-1.4.7-ext28-tt-20070523, LinVDR-Updater

    DER SERVER:
    Asus K7V; Athlon 800MHz; 1024MB; FastTrak S150 SX-M 64MB Cache (Raid5); 4xMaxtor 6B200M0;
    SuSE 9.0 (nfs, samba)

    TESTSERVER:
    Asus A8N-SLI Premium; Mahlzeit 4.0beta2

  • Und was sacht vmstat?


    Hauptsächlich Server, wenn Du dort den Flaschenhalt vermutest. Aber gleichzeitig auch den VDR, wenn möglich.

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

  • Zitat

    Und was sacht vmstat?

    Ähm, ja, ;D das war noch meine Frage. Soll ichs auf dem VDR laufen lassen, da müsste ich noch sehen wie ichs drauf bekomme. Oder soll es auf dem Server laufen? Soll dabei eine Aufzeichnung laufen?


    rijo


    [edit]
    ich sollte erst lesen :lehrer2


    den Flaschenhals vermute ich aber eher am VDR. Dort hat sich ja die Speichererhöhung des Servers gar nicht ausgewirkt.


    [/edit]

    DER STILLE:
    Epia ML 6000 EAG; TT-S2300 + TT-S1102 Budget; Transcend 512; 512MB;
    Linvdr 0.7 + Dr. Seltsam Kernel - 2.6.18 + Toxics Patch vdr-1.4.7-ext28-tt-20070523, LinVDR-Updater

    DER SERVER:
    Asus K7V; Athlon 800MHz; 1024MB; FastTrak S150 SX-M 64MB Cache (Raid5); 4xMaxtor 6B200M0;
    SuSE 9.0 (nfs, samba)

    TESTSERVER:
    Asus A8N-SLI Premium; Mahlzeit 4.0beta2

    3 Mal editiert, zuletzt von rijo ()

  • Zitat

    Original von rijo
    ich sollte erst lesen :lehrer2


    :D :D


    Zitat


    den Flaschenhals vermute ich aber eher am VDR. Dort hat sich ja die Speichererhöhung des Servers gar nicht ausgewirkt.


    Eines nach dem anderen :)
    Aufnahme starten, auf dem Server vmstat laufen lassen. Ausgabe hier posten. Dann sehen wir, wieviel der Server auf I/O wartet. ist doch der 2.6er Kernel auf dem Server, oder?


    Danach die REINE NetzIO messen. Mit netio (heißt das so, weiß jetzt nicht genau...).
    Und wenn beides paßt, auf dem VDR weitersuchen. Aber schön Schritt für Schritt.


    Bei mir ist der Effekt, daß ich während des Schneidevorganges zwar Wiedergeben kann, aber nicht Schnittmarken setzen, das dauert ewig. Und der VDR ist mit 1Gigabit angeschlossen!


    Habe mir allerdings noch nicht die Mühe gemacht, das zu optimieren. Hab' derzeit sowieso keine Zeit ;(

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

  • Bevor ich jetzt 4 Stunden lang falsch protokoliere:
    Vermute ich sollte vmstat mit der Option -a starten? 1 240 : dann läuft er doch nur 240 sekunden, mit sekündlicher Messung. Du meinst vermutlich sowas wie vmstat -a 60 240 ?


    Zitat

    ist doch der 2.6er Kernel auf dem Server, oder?

    leider nein. Kernel 2.4.21-99. Damals gab's für meinen Controller nur dafür nen passendes modul.


    "netio" finde ich leider nicht (geht auch was anderes?) könnte man beide Programme gleichzeitig laufen lassen? Oder bin ich jetzt wieder zu schnell ;)


    rijo

    DER STILLE:
    Epia ML 6000 EAG; TT-S2300 + TT-S1102 Budget; Transcend 512; 512MB;
    Linvdr 0.7 + Dr. Seltsam Kernel - 2.6.18 + Toxics Patch vdr-1.4.7-ext28-tt-20070523, LinVDR-Updater

    DER SERVER:
    Asus K7V; Athlon 800MHz; 1024MB; FastTrak S150 SX-M 64MB Cache (Raid5); 4xMaxtor 6B200M0;
    SuSE 9.0 (nfs, samba)

    TESTSERVER:
    Asus A8N-SLI Premium; Mahlzeit 4.0beta2

  • Hallo,


    habe jetzt vmstat auf dem Server mitlaufen lassen.


    Fall 1: Aufzeichnung (vmstat.rec.log im Anhang), hier ein Auszug

    Fall 2: Aufzeichnung und Wiedergabe einer anderen Sendung (vmstat.recplay.log im Anhang), hier ein Auszug

    Fall 3: Aufzeichnung und Wiedergabe der gleichen Sendung (vmstat.recplay2.log im Anhang), hier ein Auszug

    Beim Fall 3 traten im Abstand von einigen sekunden regelmäßig Fehler auf. Und zwar immer dann wenn der wert Blocks out hoch war. Beim 1. und 2. Fall sind mir keine Fehler aufgefallen.


    rijo

    DER STILLE:
    Epia ML 6000 EAG; TT-S2300 + TT-S1102 Budget; Transcend 512; 512MB;
    Linvdr 0.7 + Dr. Seltsam Kernel - 2.6.18 + Toxics Patch vdr-1.4.7-ext28-tt-20070523, LinVDR-Updater

    DER SERVER:
    Asus K7V; Athlon 800MHz; 1024MB; FastTrak S150 SX-M 64MB Cache (Raid5); 4xMaxtor 6B200M0;
    SuSE 9.0 (nfs, samba)

    TESTSERVER:
    Asus A8N-SLI Premium; Mahlzeit 4.0beta2

    Einmal editiert, zuletzt von rijo ()

  • Zitat

    Original von rijo
    habe jetzt vmstat auf dem Server mitlaufen lassen.


    Schön, denn das ermöglicht ein paar Aussagen.
    Zum einen wird klar, daß CPU-I/O-Waits (Spalte wa) durchgehend auf "0" sind. D.h. der Server wartet keinen Moment auf IO. D.h. die NFS-Daemons können alle angeforderten Daten so schnell wie es ihnen möglich ist, lesen und schreiben. [EDIT] Ach ne, Du hast ja einen 2.4er Kernel, da ist der Wert immer auf 0. Also leider keine Aussagekraft.[/EDIT]


    Weiterhin in SwapIN und SwapOUT (si/so) auch stets auf "0", d.h. der Server ist nicht mit Swappen beschäftigt, hat wohl ausreichend RAM.


    Zitat

    Beim Fall 3 traten im Abstand von einigen sekunden regelmäßig Fehler auf. Und zwar immer dann wenn der wert Blocks out hoch war. Beim 1. und 2. Fall sind mir keine Fehler aufgefallen.


    Tja, in der Tat schwierig. Entweder ist da kein Fehler oder der Server ist pauschal zu schwachbrüstig vom allgemeinen Durchsatz her.


    Sagt denn das Logfile des VDRs zu diesen Zeitpunkten irgendwas?


    Ich tendiere fast dahin, einen 2.6er Kernel draufzupacken und dann mal weitergehend zu prüfen (z.B. mit dem Parameter "-d").

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

    Einmal editiert, zuletzt von knebb ()

  • Logread am VDR zeigt keine auffälligen Meldungen. Ab und zu Einträge wie

    Code
    Feb 15 18:30:45 linvdr user.debug vdr[2055]: buffer usage: 70% (tid=20492)
    Feb 15 18:30:46 linvdr user.debug vdr[2055]: buffer usage: 80% (tid=20492)
    Feb 15 18:30:46 linvdr user.debug vdr[2055]: buffer usage: 90% (tid=20492)
    Feb 15 18:30:46 linvdr user.debug vdr[2055]: buffer usage: 30% (tid=20492)

    ... Die stehen allerdings nicht im zeitlichen Zusammenhang zu den Bildstörungen.


    Wenn ich top am VDR laufen lasse scheint der Prozess "rpciod/0" immer nach oben zu springen. Der hat doch auch was mit nfs zu schaffen?

    rijo

    DER STILLE:
    Epia ML 6000 EAG; TT-S2300 + TT-S1102 Budget; Transcend 512; 512MB;
    Linvdr 0.7 + Dr. Seltsam Kernel - 2.6.18 + Toxics Patch vdr-1.4.7-ext28-tt-20070523, LinVDR-Updater

    DER SERVER:
    Asus K7V; Athlon 800MHz; 1024MB; FastTrak S150 SX-M 64MB Cache (Raid5); 4xMaxtor 6B200M0;
    SuSE 9.0 (nfs, samba)

    TESTSERVER:
    Asus A8N-SLI Premium; Mahlzeit 4.0beta2

  • Wie gesagt, inzwischen bald keine Ahnung.


    rpcio ist der Prozess, der für NFS zuständig ist, ja. Wenn auf meinem AufnahmeVDR was läuft, liegt der eigentlich immer fast bei 0% :)


    Es scheint wohl an irgendeiner Netzwerkeinstellung zu liegen. Laß doch parallel mal ein ping -f server laufen, ob es da Auffälligkeiten gibt. Das spürt Netzwerkfehler recht zuverlässig auf :P

    Glotze: yaVDR (ASRock Q1900M, 4GB RAM, DD Cine S2 V6.5, ZOTAC GT630 (Rev. 2)
    Server: HP ProLiant MicroServer G8, VMware ESXi 5.5 :P

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!