Posts by FJe

    Ja, mit anderer SW läuft es stabil.

    Anscheinend hab ich's gefunden. Einer unseren Firmen-Admins hat komplett privat auf Linux umgestellt und gab mit den Tipp, auf den Netzwerkchip i219-v zu schauen.

    Siehe wg. I219-v netzwerk:

    How To Fix Proxmox Detected Hardware Unit Hang On Intel NICs First2Host

    mit einer /etc/network/interfaces mit
    post-up /sbin/ethtool -K eno1 tso off gso off

    läuft es jetzt mit dem shutdown stabil, gestern dauert an und aus gemacht ...

    beobachte das weite rund berichte dann

    moin,

    ich brauch leider hilfe bei meinem nuc 10i3.

    erstmal war auch die neu-installation nicht erfolgreich, gab sogar effekte wie zerstörte dateien und erratische abstürze. hab dann mld 6.5 installiert, um zu schauen, ob andere sw-basis besser läuft, gleicher effekt, am ende fand ich, dass das papierähnliche minikabel in den nuc'S für die sata ssd geknickt war. nach dem austausch lief es wieder wie erwartet.

    also neu installiert ubu 24.04 server und yavdr mit vdr 2.7.9.

    leider kämpfe ich trotzdem immer noch mt zwei effekten bei ubuntu, die mit der mld nicht auftreten:

    1. der vdr crasht manchmal nach aufnahmen und schreibt einen core-dump als /var/crash/_usr_bin_vdr.666.crash . vdr startet dann neu, läuft aber ewig und kümmert sich anscheinend nicht um die abschaltzeitdauer. das crash-file zu analysieren überfordet mich aktuell, kann ich das jemand von euch zuleiten oder sollte ich versuchen vdr-dev und gdb zu installieren und zu schauen, wo er hängt?

    2. der nuc fährt manchmal nicht runter, er bleib stehen, auf dem bildschirm ist das yavdr-x11-logo zu sehen, die maus lässt sich bewegen, sonst geht nichts, kein ssh, keine maustaste., kein umschalten auf tty?. muss dann 12-15sec den ausknopf drücken um ihn hart auszuschalten.

    so sollte laut log der shutdown aussehen:

    nach dem absturz findet man nach dem erneuten booten im log nur meldungen bis zum "stehenbleiben":

    hier bleibt er öfter stehen, es gibt auch andere verhältnisse:

    Code
    Feb 28 22:01:15 yvmb systemd[1]: Unmounted run-user-666.mount - /run/user/666.
    Feb 28 22:01:15 yvmb vdr[1441]: [1501] SVDRP server handler thread ended (pid=1441, tid=1501)
    Feb 28 22:01:15 yvmb vdr[1441]: [1441] saving /var/cache/vdr/cam.data
    Feb 28 22:01:15 yvmb vdr[1441]: [1441] stopping plugin: vnsiserver
    Feb 28 22:01:15 yvmb vdr[1441]: [1494] VNSIStatus thread ended (pid=1441, tid=1494)
    Feb 28 22:01:15 yvmb finalrd[6003]: run-parts: executing /usr/share/finalrd/open-iscsi.finalrd setup

    habe dann nach dem x11.service gesucht, das sagt in so einem fall (bitte den unterschied zwischen den beiden -b beachten, sind zwei vorgänge, ein normaler, einer mit absturz:

    mir fällt jetzt nix mehr ein, wo ich noch suchen kann.

    ob es wieder auf ein HW problem hindeutet?

    Bin für jeden hinweis dankar, wie ich die ursache finden und abstellen kann, hab jetzt 2 wochen gesucht und gebe auf.
    wie gesagt, mit der SW basis mld passiert das nicht.

    viele grüße frank

    moin,

    nach einem autoremove meines 20.04 vdr ging der nuc nicht mehr aus. rettungsversuche mit neu-installation der pakete die gelöscht wurden (i.w. alte kernel) haben nix verbessert.
    musste immer den hardware aus knopf für 15 sec drücken.

    da 20.04 ohnehin zu alt, ein do-release-upgrade auf 22.04 versucht.
    hat mir einen firefox als snap eingebracht und die non-ubuntu ppa für den vdr deaktiviert.
    nach nacharbeit wie ppa-add der seahawk ppa und updates ging der vdr wieder, allerdings konnte er 3 pakete nicht mehr updaten, da z.B. vdr-plugin-softhddevice von libglut3.12 abhängt, die aber nicht zu finden war. runterfahren geht manchmal, nicht stabil.

    hab'S aufgegeben und würde jetzt neu installieren, ist wohl kein sinnvoller weg mit dem so-release-update ....

    dazu drei fragen:

    1. sollte man schon das ppa mit dem vdr 2.7.8 nehmen oder noch 2.7.7?

    2. den ubuntu server 24.04.03 live-iso runterladen oder ein anderes image?

    3. muss die neu-inst an einem monitor machen und das dann laufendes system später an den tv anschliessen. wenn ich die ansible rolle für die tv erkennung dann daran neu laufen lasse, überschreibt er dann (wie gewünscht) die monitor infos?

    danke und viele grüsse aus dem schneeparadies norddeutschland

    frank

    moin, ich hab in VM's mit Xubuntu Destop 22.04 einen vdr aus den standard quellen laufen gehabt, allerdings nur rudimentär, vdr selbst, xinelib output als frontend, war auch einiges an Fehlersuche dabei. Use Case war, neben Browser und email in einem Fenster TV laufen zu haben

    Jeder weitere Luxus wie Fernbedienung oder epgsearch und andere Plugins sind dann so viel Arbeit geworden, dass ich das wieder aufgegeben habe.

    Auf den Linux-pur yavdr's:
    Wenn ich Browser oder anderes brauche, mach ich das wie seahawk schrieb mit zweitem desktop über strg-alt-pfeil rechts, da hat man dann alles da was man braucht, weil auch nachinstallierte programme sich meist in das openbox menue einfügen, ich nutze dazu mini keyboards mit integriertem touchpad, die auch L/R Maustasten haben. Das TV Bild dann übers WebIF im 2. Browserfenster, so dass ich das frontend softhddevice laufen lassen kann.

    nur laut gedacht:
    wobei ich ein xfce schöner fände, also xubuntu minimal statt ubu-server als yavdr-basis, wollte ich immer mal ausprobieren, ob das yavdr-ansible da durchläuft, vielleicht mal dies jahr weihnachten.

    Ubuntu 20.04 ist schon gut abgehangen, da dafür lässt sich schon einiges nicht mehr bauen - das wäre höchstens noch etwas für alte Nvidia ION Systeme oder ähnliche alte GPUs.

    ....

    Ubuntu 24.04 sollte sowohl mit der GT630 als auch mit einer GT1030 klappen - dafür musst du ein paar Variablen für das Playbook anpassen:

    Code
    ....

    ....

    Beim kommenden Ubuntu 26.04 ist der kleinste mitgelieferte Nvidia-Treiber der 550er - also würde da nur noch eine Nvidia-Treiber GT1030 damit funktionieren. nouveau habe ich mit VDPAU leider bislang nicht zum Laufen bekommen (weder mit einer G210 noch mit einer GT630 Kepler) - falls da jemand zielführende Hinweise hat, wie man die Firmware-Blobs laden lassen kann, spricht grundsätzlich nichts dagegen das zu unterstützen - aber im Moment geht nur Software-Decoding, was die meisten älteren Systeme von der CPU her nicht schaffen.

    Lohnt sich dann überhaupt noch die Anschaffung einer nvidia für vdr als client?
    Meine beiden Intel vdr laufen eigentlich für die aktuellen per SAT und Kabel ausgestrahlten Qualitäten/Auflösungen genauso gut wie die nvidia-basierten. Und durch die Kombi von NAS-Gehäuse mit MiniPC Board/CPU sind sie kompakt und multifunktional einsetzbar.

    moin, das hab ich auch, lebe damit.

    gibt es es evt. irgendwo eine Einstellung für die timeout Länge beim Warten auf (auto) mounts damit er nicht so lange wartet?

    Ich konnte in den configs und g** nur den timeout finden, der nach Inaktivität wieder aushängt.

    Moin,

    ich hatte meinen uralten AMD PC mit GT610 dazu gebracht, mit 18.04, altem NVIDIA Treiber mit einer Sundtek USB DVB-S2 recht gut mit HD und SD zu funktionieren.

    Nach meinen Erfahrungen mit NUC und der Intel Grafik hab ich den dann entsorgt und bin auf ein N100 basiertes System umgestiegen. U 24.04 mit softhddevice und dem USB sundtek mit yavdr-ansible liefen nach 2h inkl. Übernahme einiger configs.

    Allerdings habe ich keinerlei UHD Erfahrungen. HD und OSD sind beim N100 problemlos.

    In dem Thread sind viele Tipps dazu: yavdr ansible mit ubuntu 24.04

    Ist auch ein wenig zukunftssicherer.

    Inzwischen hab ich auch das Vertrauen, dass es so stabil läuft wie die yavdr 6.1.

    Möglicherweise hast Du bei einer Ubuntu Installation mal einen Rechner(Host)namen angegeben?

    Und das mit dem Avahi-Linker funktioniert so, dass der daemon im Netz fragt, wer Ressourcen anbietet und dann wie von seahawk geschrieben darauf reagiert, wie es in der config definiert ist.

    Das Angebot ist in den entsprechenden config Dateien definiert und muss auch in der /etc/exports.

    Beispiel: ein vdr bietet sein recordings-dir an, ein anderen bekommt das durch Netzscan mit und linkt es in das eigene vdr recordings ein und sendet dem vdr die Info zum Update der Recordings-Liste.

    Damit muss eben das config Netzwerk und das ip Netzwerk konsistent sein.

    Vielleicht hilft Dir mal ein Aufräumen?

    Ich würde so vorgehen:

    Liste machen

    Name Wunsch-IP

    rechner1 nas-name 1...

    rechner2 ..... 1...

    rechner3 .... 1...

    Dann im Router eintragen mit Einstellung "immer gleiche IP vergeben" und DNS dort aktivieren

    Dann die Rechner jeweils mit dem Namen beglücken und auf DNS umstellen

    Dann die Namen in die avahi-linker configs eintragen

    Oft genug rebooten, dann ziehen die Rechner die angegebene IP und sind alle immer über die Namen erreichbar,

    dann sollte es gehen.

    PS: Kurze Namen machen das Leben auch einfacher, bekn für beamerknecht oder frbu für frittenbude und auch das nas würde ich nicht nas sondern eindeutig benennen.

    In Deinem Post mit den Avahi Services in der Ausgabe der "Hauptvdr"

    massi
    November 15, 2024 at 12:13 AM

    steht drin

    Code
    Nov 14 17:33:52 vdr systemd[1]: Started Avahi linker.
                    ####
    Nov 14 17:33:52 vdr avahi-linker[1427]: 2024-11-14 17:33:52,702 INFO   Started avahi-linker

    irgendwie scheint er doch der Meinung zu sein, dass er vdr heisst

    oder ist das eine automatische Ersetzung, wenn kein hostname gesetzt ist?

    das könnte daran liegen, dass less dazwischen sitzt:

    auszug aus "man journalctl":

    Code
    The output is paged through less by default, and long lines are
           "truncated" to screen width. The hidden part can be viewed by
           using the left-arrow and right-arrow keys. Paging can be
           disabled; see the --no-pager option and the "Environment" section
           below.

    besser funktioniert bei mir das journalctl interne grep:

    moin,

    top, danke.

    ich denke, man muss löschen:

    -rw-r--r-- 1 root root 70 Sep 9 2020 ppa_yavdr_experimental_vdr_focal.list

    -rw-r--r-- 1 root root 70 Sep 9 2020 ppa_yavdr_experimental_vdr_focal.list.save

    und

    -rw-r--r-- 1 root root 71 Sep 9 2020 ppa_yavdr_experimental_main_focal.list

    -rw-r--r-- 1 root root 71 Sep 9 2020 ppa_yavdr_experimental_main_focal.list.save

    bleibt drin?

    dann vdr-2.7.3 zufügen wie oben

    dann apt dist-upgrade

    da fehlen ihm noch folgende:

    Code
    Die folgenden Pakete werden ENTFERNT:
    vdr-plugin-streamdev-client vdr-plugin-streamdev-server
    vdr-plugin-vdrmanager vdr-plugin-vnsiserver

    Ergebnis:

    Top! Allerbesten Dank an seahawk, Bild scheint leicht besser auf dem nuc10 und alles fühlt sich flüssiger an.

    Demnächst schau ich noch mal nach den plugins oben, die fehlten, damit kann ich aber gut leben.

    beste grüße

    frank

    Moin, ich habe noch einen vdr mit focal und vdr 2.4.? den ich gern auch upgraden würde nach den guten Erfahrungen mit 2.7.3.

    Gibt es eine Chance, für focal auch irgendwann einen neueren vdr zu kriegen?

    und würde das do-release-upgrade von focal dann jammy überspringen und gleich auf noble gehen?

    Viele Grüße