yaVDR ansible: Performancethema

  • Moin zusammen,


    seit meinem Update auf VDR 2.4 (yaVDR ansible/Ubuntu 18.04) plagen mich Performanceprobleme.

    So braucht z.B. epg2vdr geschlagene 1,5 Minuten(!) um die recoding list table zu aktualisieren:


    Code
    Sep 20 08:50:27 htpc vdr: epg2vdr: Updating recording list tableSep 20 08:52:02 htpc vdr: epg2vdr: Info: Found 484 recordings; 0 inserted; 0 updated and 30 directories

    Zu der Zeit ist der VDR nicht bedienbar und auch osd2web zeigt nichts an, weil es wohl auf aktuelle Daten wartet.


    Auch das Abspielen von Aufnahmen (NFS-Share) zeigt seltsame Aussetzer - immer wieder alsa: avail underrun error? 'Datenübergabe unterbrochen (broken pipe)'.

    Liegen die Aufnahmen lokal, habe ich diese Probleme nicht. Spiele ich die Aufnahmen unter Kodi auf der VDR-Box vom NAS ab gibt es auch keinerlei Aussetzer.


    Ich dachte schon, es läge an meinem Netzwerk bzw. am NAS, aber andere Clients funktionieren tadellos. Das Netzwerk ist reines 1 GBit und liefert auch zum und vom NAS die entsprechende Geschwindigkeit.


    Code
    root@htpc:~# pv /srv/vdr/video/Serien/Game_of_Thrones_-_Das_Lied_von_Eis_und_Feuer/06x01_-_051._Die_Rote_Frau/2017-07-15.20.13.92-0.rec/00001.ts > /tmp/test.ts
    3,54GiB 0:00:36 [ 100MiB/s] [======================================================================>] 100%


    Hat hier jemand ähnliche Probleme oder eine Idee, wie das weiter zu analysieren ist?


    Cheers,

    Ole

  • Wie genau sieht denn die NFS-Konfiguration auf dem Server aus und wie mountest du die Freigabe?


    Wie viele Clients greifen per NFS auf den Server gleichzeitig zu und darf der NFS-Server genügend Threads erzeugen?

    Nutzt du NFS Version 3 oder 4?

    Hast du mal mit den Mount-Optionen für rsize und wsize gespielt?

    Nutzt du sync oder async?


    Gibt es Auffälligkeiten in dmesg?

    Gehen Pakete im Netzwerk verloren?

    yaVDR-Dokumentation (Ceterum censeo enchiridia esse lectitanda.)

  • Hi seahawk1986, hier die Infos.


    Server (Synology, NFSv3):

    /volume1/vdr 10.205.1.0/24(rw,async,no_wdelay,all_squash,insecure_locks,sec=sys,anonuid=666,anongid=666)


    Client: 10.205.1.147:/volume1/vdr /srv/vdr/video nfs defaults,rw,hard,intr,async,tcp,rsize=32768,wsize=32768,timeo=5,retrans=5,_netdev,x-systemd.before=vdr.service 0 0


    Es greift nur ein Client (der VDR) auf das Share zu und dmesg zeigt keinerlei Auffälligkeiten. Mit rsize und wsize habe ich schon gespielt, bringt aber nichts, daher steht es wieder auf 32k.



    Ich denke aber, das Problem liegt wie so oft, ganz wo anders:

    Code
    root@htpc:/tmp# pv test.ts > test2.ts
    3,54GiB 0:00:53 [68,1MiB/s] [======================================================================>] 100%

    Für eine M.2 SSD ist die Datenübertragung unter aller Sau! Die werde ich mal tauschen.


    Cheers,

    Ole

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!