[Testing 0.5] Wenn Aufnahmen vom Server nicht mehr erreichbar stürzt Client ab

  • Ich habe von meinem Schlafzimmer VDR auf das Aufname verzeichnis zugegriffen und wollte eie Aufnahme ansehen.Leider hat mein Sohn den Wohnzimmer VDR abgeschaltet (er fuhr tatsächlich runter)was dazu führte das der VDR Client einfror und sich nichtmehr bedienen ließ.


    Code
    Oct 27 14:10:35 Schlaf-VDR avahi-mounter[1727]: media is mounted on /srv/vdr/video.00/Fernseh-PC/ for server Fernseh-PC.local and share /srv/share/vdr
    Oct 27 14:10:35 Schlaf-VDR rpc.mountd[1741]: authenticated mount request from 192.168.1.77:853 for /srv/video (/srv/video)
    Oct 27 14:10:35 Schlaf-VDR avahi-mounter[1727]: Service resolved: Fernseh-PC.local to Recordings on Fernseh-PC
    Oct 27 14:10:35 Schlaf-VDR avahi-mounter[1727]: Resolved type _nfs._tcp on Schlaf-VDR.local
    Oct 27 14:10:35  avahi-mounter[1727]: last message repeated 7 times
    Oct 27 14:10:35 Schlaf-VDR rpc.mountd[1741]: authenticated mount request from 192.168.1.77:953 for /srv/audio (/srv/audio)
    Oct 27 14:10:35 Schlaf-VDR rpc.mountd[1741]: authenticated mount request from 192.168.1.77:738 for /srv/picture (/srv/picture)
    Oct 27 14:10:35 Schlaf-VDR rpc.mountd[1741]: authenticated mount request from 192.168.1.77:678 for /srv/share/vdr (/srv/share/vdr)
    Oct 27 14:10:35 Schlaf-VDR rpc.mountd[1741]: authenticated mount request from 192.168.1.77:951 for /srv/video (/srv/video)



    Kann man das nicht blocken das der Server sich ausschalten lässt wenn von ihm eine Aufnahme abgeriffen wird


    edit:Im WIF unter"Liveguard Überwachungspunkte" lassen sich die Überwachungspunkte nicht dauerhaft speichern. Der einzigste Schalter wo bleibt ist "Aptitude" alle anderen Haken gehen nach dem speichern wieder flöten.Und das bei meinen beiden VDR mit dem heutigen update aus dem Testing.



    MfG


    dippes

    Edited once, last by dippes ().

  • ich hatte sowas ähnliches als ich auf eine über avahi gemounteten vdr zugegriffen hab der aber zwischenzeitlich heruntergefahren war - konnte den vdr nur neu starten...


    Christian

    CKone: yavdr-ansible/18.04 LTS/2.4.1/kodi18 auf Intel DH67BL, Intel Celeron G540, 2x 2GB Kingston DDR3, Zotac GT630 1GB, S2-1600, Ocz Agility 3 60GB, LG GH24NS DVD, 15.6" Selbstbau TFT, Harmony 665, CIR Selbstbau - das Ganze im Silverstone SST-SG03B
    CKtwo: yavdr-ansible/18.04 LTS/2.4.1/kodi18 auf Intel DH67BL, Intel Celeron G1610, 2x 2GB Corsair DDR3, Zotac GT630 1GB, TT S2-1600, Ocz Vertex 2 50 GB, 92 Kanal Seduatmo, Harmony 665, atric USB
    CKthree: yavdr-ansible/22.04 LTS/2.6.1/kodi19.3 auf Intel NUC, Celeron J4005, UHD Graphics 600, 4GB Crucial DDR4, Ocz Vertex2 50 GB, Harmony 350

    PowerEdge: Ubuntu Server 16.04 LTS / VDR 2.4.1 auf Dell PowerEdge T20, Xeon E3-1225 v3, 16GB ECC DDR3, 2x Cine S2 V6 mit Duoflex, Samsung 840 EVO 120GB, 3x WD White WD80EZAZ 8TB in SW Raid5



  • ich hatte sowas ähnliches als ich auf eine über avahi gemounteten vdr zugegriffen hab der aber zwischenzeitlich heruntergefahren war - konnte den vdr nur neu starten...


    Genau das selbe....liegt das am vdr oder am frondent? Ist doch ein Bug oder?

  • Genau das selbe....liegt das am vdr oder am frondent? Ist doch ein Bug oder?


    Was steht denn im Syslog des herunterfahrenden VDR und wie sah die /etc/vdr/lifeguard.conf dabei aus?

    yaVDR-Dokumentation (Ceterum censeo enchiridia esse lectitanda.)

  • Quote

    Was steht denn im Syslog des herunterfahrenden VDR und wie sah die /etc/vdr/lifeguard.conf dabei aus?



    Da war nix drinne zwecks NFS.
    Habe es im WIF eingeschaltet und jetzt fährt er nicht mehr runter wenn der Client VDR eine Aufnahme wiedergibt.


    Problem ist das der Status der Liveguard Überwachungspunkte nicht ersichtlich i, da die Häkchen nach dem Speichern eine Aktualisierung des Browsers nicht überleben.


    Kann man was dagegen das wenn der VDR eine Streamunterbrechung hat nicht gleich unbedienbar wird? (Der vdr restart mußte durch die Console erfolgen)


    MfG


    dippes

  • also bei meinem Thema mit avahi seh ich das noch einen Hauch anders: mir stellt sich daher die Frage warum der vdr als der andere vdr runtergefahren ist die Aufnahmenliste nicht refreshed und den temporären Server aus selbiger entfernt hat?


    lifeguard war selbstredend komplett deaktiviert, es war ja kein Server sondern nur ein anderer vdr über avahi...


    Christian

    CKone: yavdr-ansible/18.04 LTS/2.4.1/kodi18 auf Intel DH67BL, Intel Celeron G540, 2x 2GB Kingston DDR3, Zotac GT630 1GB, S2-1600, Ocz Agility 3 60GB, LG GH24NS DVD, 15.6" Selbstbau TFT, Harmony 665, CIR Selbstbau - das Ganze im Silverstone SST-SG03B
    CKtwo: yavdr-ansible/18.04 LTS/2.4.1/kodi18 auf Intel DH67BL, Intel Celeron G1610, 2x 2GB Corsair DDR3, Zotac GT630 1GB, TT S2-1600, Ocz Vertex 2 50 GB, 92 Kanal Seduatmo, Harmony 665, atric USB
    CKthree: yavdr-ansible/22.04 LTS/2.6.1/kodi19.3 auf Intel NUC, Celeron J4005, UHD Graphics 600, 4GB Crucial DDR4, Ocz Vertex2 50 GB, Harmony 350

    PowerEdge: Ubuntu Server 16.04 LTS / VDR 2.4.1 auf Dell PowerEdge T20, Xeon E3-1225 v3, 16GB ECC DDR3, 2x Cine S2 V6 mit Duoflex, Samsung 840 EVO 120GB, 3x WD White WD80EZAZ 8TB in SW Raid5



    Edited once, last by CKone ().

  • mir stellt sich daher die Frage warum der vdr als der andere vdr runterfehfahren ist die Aufnahmenliste nicht refreshed und den temporären Server aus selbiger entfernt hat?

    Es könnte ein Timing-Problem mit dem Stoppen des avahi-daemon und der Verfügbarkeit des Netzwerks geben. Wenn am Gegenüber die Netzwerk-Verbindung weg ist, bevor dem Avahi-Daemon gestoppt wird erkennt der lokale avahi-daemon nicht direkt durch einen Broadcast, dass das Gegenüber sich abmeldet, sondern es greift ein Timeout, wenn er eine Zeit lang nichts mehr von dem anderen hört und erst dann weiß auch der avahi-mounter, dass er den NFS-Mount aushängen und den VDR die Aufnahmeliste aktualisieren lassen soll. Wenn man in dem Zeitraum einen Zugriffsversuch über NFS macht, wird das Programm bis zum für den NFS-Mount definierten Timeout (Mount-Option timeo=n) hängen bleiben.


    Du könntest mal versuchen mit einem custom Template für https://github.com/yavdr/yavdr…ooks/S99.shutdown/10_main das SHUTDOWNCMD um einen Stop des avahi-daemon zu erweitern, z.B.:


    Edit: vermutlich ist es besser den VDR vor dem avahi-daemon zu stoppen

    yaVDR-Dokumentation (Ceterum censeo enchiridia esse lectitanda.)

  • Wenn man in dem Zeitraum einen Zugriffsversuch über NFS macht, wird das Programm bis zum für den NFS-Mount definierten Timeout (Mount-Option timeo=n) hängen bleiben.


    aber wenn wir das auf 10s stellen dann sind doch alle froh, Alex ;)


    Edit: vermutlich ist es besser den VDR vor dem avahi-daemon zu stoppen


    weiß nicht ob der das einfach so mit sich machen lässt: die Platte unmounten die der vdr unter seinen Fitticchen hat... ;)


    Christian

    CKone: yavdr-ansible/18.04 LTS/2.4.1/kodi18 auf Intel DH67BL, Intel Celeron G540, 2x 2GB Kingston DDR3, Zotac GT630 1GB, S2-1600, Ocz Agility 3 60GB, LG GH24NS DVD, 15.6" Selbstbau TFT, Harmony 665, CIR Selbstbau - das Ganze im Silverstone SST-SG03B
    CKtwo: yavdr-ansible/18.04 LTS/2.4.1/kodi18 auf Intel DH67BL, Intel Celeron G1610, 2x 2GB Corsair DDR3, Zotac GT630 1GB, TT S2-1600, Ocz Vertex 2 50 GB, 92 Kanal Seduatmo, Harmony 665, atric USB
    CKthree: yavdr-ansible/22.04 LTS/2.6.1/kodi19.3 auf Intel NUC, Celeron J4005, UHD Graphics 600, 4GB Crucial DDR4, Ocz Vertex2 50 GB, Harmony 350

    PowerEdge: Ubuntu Server 16.04 LTS / VDR 2.4.1 auf Dell PowerEdge T20, Xeon E3-1225 v3, 16GB ECC DDR3, 2x Cine S2 V6 mit Duoflex, Samsung 840 EVO 120GB, 3x WD White WD80EZAZ 8TB in SW Raid5



  • aber wenn wir das auf 10s stellen dann sind doch alle froh, Alex

    Das ist aber nicht so schön, wenn ich mir die Manpage so ansehe:


    Du kannst das ja mal versuchen: https://github.com/yavdr/vdr-a…master/avahi-mounter#L199

    Code
    try:
                mountshell = subprocess.Popen(['/bin/mount',
                         '-t', 'nfs',
                         '-o', 'soft,intr,timeo=16,retrans=2',
                         self.remote,
                         self.local])
                mountshell.wait()
            except OSError as (errno, strerror):
                    syslog("unable to mount: %s" % strerror)
                    return


    Für mich ist das ein total unerwünschtes Verhalten, wenn ich eine Aufnahme von einem anderen Rechner ansehe und der dann trotzdem plötzlich herunterfahren darf. Mein Ansatzt ist seit ein paar Monaten der avahi-linker, der autofs5 nutzt: https://github.com/seahawk1986/arch-avahi-linker
    Da autofs selbstständig eine nicht genutzte NFS-Freigabe nach einem frei wählbaren Timeout wieder aushängt kann man auch das Lifeguard-Addon für bestehende NFS-Mounts auf allen Rechnern nutzen ohne dass sich die Rechner gegenseitig blockieren. Wenn Interesse besteht suche ich mal raus, wie ich das auf meinem yaVDR eingerichtet habe (ein schönes Paket zu schnüren hat leider nicht so ganz wie gehofft geklappt, daher habe ich das erst mal zu Fuß erledigt).

    yaVDR-Dokumentation (Ceterum censeo enchiridia esse lectitanda.)

  • gib mir mal n Tag um das zu verinnerlichen ;)

    CKone: yavdr-ansible/18.04 LTS/2.4.1/kodi18 auf Intel DH67BL, Intel Celeron G540, 2x 2GB Kingston DDR3, Zotac GT630 1GB, S2-1600, Ocz Agility 3 60GB, LG GH24NS DVD, 15.6" Selbstbau TFT, Harmony 665, CIR Selbstbau - das Ganze im Silverstone SST-SG03B
    CKtwo: yavdr-ansible/18.04 LTS/2.4.1/kodi18 auf Intel DH67BL, Intel Celeron G1610, 2x 2GB Corsair DDR3, Zotac GT630 1GB, TT S2-1600, Ocz Vertex 2 50 GB, 92 Kanal Seduatmo, Harmony 665, atric USB
    CKthree: yavdr-ansible/22.04 LTS/2.6.1/kodi19.3 auf Intel NUC, Celeron J4005, UHD Graphics 600, 4GB Crucial DDR4, Ocz Vertex2 50 GB, Harmony 350

    PowerEdge: Ubuntu Server 16.04 LTS / VDR 2.4.1 auf Dell PowerEdge T20, Xeon E3-1225 v3, 16GB ECC DDR3, 2x Cine S2 V6 mit Duoflex, Samsung 840 EVO 120GB, 3x WD White WD80EZAZ 8TB in SW Raid5



Participate now!

Don’t have an account yet? Register yourself now and be a part of our community!