Xine und xvmc/xxmc

  • Hi,


    hab mir mal den xvmc wrapper installiert und Xine neu gebaut.
    Nun bekomme ich immer folgenden Fehler:


    mit -V xxmc
    xine: error, snapshot function not implemented for format 0x434d7858
    abort: xine.c:1782: xine_get_current_frame: Aborting.


    mit -V xvmc
    xiTK received SIGSEGV signal, RIP.


    und Xine beendet sich wieder.
    Einer ne idee?
    Xine Plugin Version ist glaubich 0.7.3.


  • Hallo,


    soweit ich weiss ist die XvMC-lib doch dafür da, HW-Beschleunigung zu verwenden, oder?
    Hast Du auf Deinem Board eine HW-Beschleunigung?
    Hast Du die entsprechenden Module für die Beschleunigung (DRM/DRI) in den Kernel geladen?
    Hast Du einen X-Server der die Beschleunigung unterstützt? Wobei ich mir nicht sicher bin ob Xine bei der Beschleunigung auf X-Server Interfaces zugreift oder die XvMC-Library direkt mit dem Kernel kommuniziert.


    Bin gerade dabei bei einem Via-Board damit rum zu machen aber leider bekomm' ich's nicht zum laufen.


    Tschüss Jo

    yaVDR 0.7, ASRock Q1900M, Zotac GT630 1GB, DD Cine S2 V6.5, 2x2GB, 64 GB SSD, PicoPSU 80W, MeanWell Netzteil 90W mit eingebautem Tinnitus, HAMA MCE-Remote Control

  • in muss stehen /etc/X11/XvMCConfig muss bei mir stehen libXvMCNVIDIA_dynamic.so.1

    vdr 1.4.7 sid von Tobi mit aktuellem sidux / TT-Budget & TT1.5 mit AVBoard 1.1

  • Hier geht jetzt der xine mit debian und xfree86 ohne wrapper:


    Der nvidia-Treiber muss zunächst installiert (siehe README von NVIDIA) sein und apt-get install nvidia-glx-dev.
    Dann muss der wrapper weg, falls Du ihn geholt hast, der macht bei xfree nur Ärger. Dann habe ich die Sourcen von Tobi geholt: in /usr/src mkdir xine und darin:


    apt-get source xine-lib-vdr


    dann in /usr/src/xine//xine-lib-vdr-1.0.1


    ./autogen.sh --with-xvmc-lib=XvMCNVIDIA
    make
    make install


    dann muss in /etc/ld.so.conf der Pfad /usr/local/lib von /usr/lib hinein und dann noch ldconfig ausführen


    dann noch den xine-ui dazu:


    apt-get source xine-ui
    ./autogen.sh
    make
    make install


    Damit geht dann /usr/local/bin/xine -V xvmc /pafd/zum/film, jedenfalls solange man nicht an Fenstern zieht oder durch Änderungen an den Einstellungen den xine-Blue-Screen provoziert, welcher dann einen Neustart vom System nötig macht.


    Leider lässt sich das obige nicht debian- und vdr-konform machen:
    in /usr/src/xine//xine-lib-vdr-1.0.1
    wieder ./autogen.sh --with-xvmc-lib=XvMCNVIDIA
    und dann das debian-Paket schnüren:
    dpkg-buildpackage -tc -uc -us
    ergibt recht bald die Fehlermeldung

    Code
    dpatch  apply-all
    applying patch 01_am_maintainer_mode to ./ ... ok.
    applying patch 03_vdr-xine_patch to ./ ... ok.
    applying patch 04_log_timestamp to ./ ... ok.
    applying patch 05_fpic_asm_fix to ./ ... ok.
    applying patch 06_-fno-inline-functions to ./ ... ok.
    applying patch 07_goom_fps_fix to ./ ... ok.
    applying patch 99_autoconf to ./ ... failed.
    make: *** [patch-stamp] Fehler 1

    und Ende ist.


    Mit ./autogen.sh, dpkg-buildpackage -tc -uc -us und dpkg -i *.deb sowie das gleiche mit dem xine-ui (und natürlich wieder originaler /etc/ld.so.conf), erhält man mit /usr/bin/xine ein "normales" xine mit prima vdr-Support für nicht xvmc-Sachen.


    Aber da es prinzipiell auch mit xvmc geht, sollte das obige Problem reparierbar sein. Ich habe aber gerade noch keine Idee. Vielleicht hat ja einer von euch nun die Lösung vor Augen?


    Viele Grüße,
    Jens

    vdr 1.4.7 sid von Tobi mit aktuellem sidux / TT-Budget & TT1.5 mit AVBoard 1.1

  • Hallo,
    habs auch und versucht unter ubuntu halbwegs erfolgreich hinbekommen.
    Allerdings hab ich ca 60% CPU bei hdtv, mit Deinterlace bei xine eingeschaltet sogar 8o-85%CPU und dann ein TOP Bild.
    Mein System ist ein AMD 3000+ und nvidia 5200. Monitor Auflösung hab ich bis 1280x1024 probiert.
    Ich find die CPU Last relativ hoch, so daß ich mal frage ob ich mit
    ner anderen Grafikkarte geringere CPU Last erreichen kann.
    Hab auch schon ne Radeon 9550 probiert,da ist die Last aber noch höher.
    Muß aber ehrlich eingestehen, hab nicht so die Linux Erfahrung, wurschte mich halt so durch mit Anleitung A und B und C usw.
    Habs auch mal unter Windows getestet mit DVB_Viewer und muß sagen
    das da super geklappt hat mit der Radeon und hatte dabei nur 30% CPU, klar sind da die Treiber super unterstütz usw.
    Aber mir gefiel einiges andere nicht, zB die Bedienbarkeit, da lieb ich meinen VDR, oder die Stabiltät unter Win ist einfach sch..., und ganz zu schweigen von der Unterstützung mehrerer Karten im System.
    Danke schon mal Grüße aus Düsseldorf Rainer

  • Ich las wo dass eine 3GHz CPU bei HDTV das Minimum ist.


    Wird also schon so stimmen, das mit der CPU Last.
    Vermutlich wirst nicht viel mehr mit anderen Grafikkarten
    rausholen.


    Das mit ATI wundert mich nicht. Die ATI-eigenen X-Treiber
    sind außerdem ziemlich fehlerhaft. Machten bei mir @Work
    laufend Probleme (zum Glück brauche ich @Work 3D nur
    für die Bildschirmschoner ;) )


    Was Du machen könntest ist sicherstellen dass Dein Xine
    mit -msse2 -march=k8 übersetzt ist. Das bringt sicher noch
    was.

    Produktiv: Kubuntu Breezy, Sempron 64 2800+ im 64bit Modus, 1GB, 2x200GB+120GB Seagate, DVB-S: Nexus 2.6 und Nova
    Test: Kubuntu Breezy, AMD64 3200+ im 64bit Modus, 2GB, 250GB Seagate SATA, DVB-S: Nova Plus

  • Zitat

    Original von slime2k
    hab mir mal den xvmc wrapper installiert und Xine neu gebaut.


    xvmc ist für den Zugriff auf den Unichrome X-Server für die EPIA-Mainboards(CLE-266), um den MPEG-Decoder auf diesen Boards zu nutzen.

    VDR 1.7.15 - Debian Squeeze/Kernel 2.6.32
    Rebach-Gehäuse, Intel Atom330, Extension HD, Technisat Cablestar2

  • Zitat

    Original von SyncMaster
    Auf welchen Systemen bringt dann xvmc überhaupt was?


    Auf den VIA EPIA Mainboards. Die haben einen MPEG-Decoder eingebaut.
    D.h. nicht die CPU muß z.B. eine DVD decodieren, sondern ein spezieller Chip auf dem Mainboard übernimmt das.
    Den TV-Ausgang kann man damit auch als Ersatz für eine FF-Karte verwenden.

    VDR 1.7.15 - Debian Squeeze/Kernel 2.6.32
    Rebach-Gehäuse, Intel Atom330, Extension HD, Technisat Cablestar2

  • Hi,


    Zitat

    Original von SyncMaster
    Auf welchen Systemen bringt dann xvmc überhaupt was?


    auf windoof :D


    Aber mal im ernst, gerade wieder 'ne Erhahrung mit einem NB (Centrino 1,6GHz) mit integrierter Intel-Grafik;
    unter Linux kein xv möglich, da Overlay mit 1440x1080 zu klein, unter win2000 spielt er dat Zeug fluffig mit > 50% Idle inkl. 'gutem' DeInterlacing (PowerDVD 6).


    xine mit xvmc sieht hier (debian xfree 4.3.x ) mit der GF6600 sehr beschi**en aus (kein DeInterlacing, keine AspectRatio-Veränderung); hoffentlich funzt das mit xorg besser.

  • Hi,


    Zitat

    Original von tobi_w


    Auf den VIA EPIA Mainboards. Die haben einen MPEG-Decoder eingebaut.
    D.h. nicht die CPU muß z.B. eine DVD decodieren, sondern ein spezieller Chip auf dem Mainboard übernimmt das.
    Den TV-Ausgang kann man damit auch als Ersatz für eine FF-Karte verwenden.


    Für Epia (CLE266/CN400) ist es aber xxmc (xvmc+vld), xvmc ist doch genau für Nvidia-Karten (siehe auch Readme von Nvidia).


    Der SVideo TV-Ausgang der Epias hat nichtmal ansatzweise die Quali des FBAS-Ausgangs einer FF-Karte, von SVideo/RGB der FF nicht zu reden.

  • ich hab' das nforce2 mit integrierter Graphik (NVIDIA Gforce4 MX) und einem Barton "XP 2000", da bring xvmc was: 60% CPU bei HDTV (ohne xvmc: 100% CPUund mächtig geruckel). Bloß das Bild gefällt mir wegen Interlacing-Effekten noch nicht im Vergleich zum RGB... Vielleicht wird das ja später noch mal was.

    vdr 1.4.7 sid von Tobi mit aktuellem sidux / TT-Budget & TT1.5 mit AVBoard 1.1

  • Angeblich wird ab einer Geforce FX5200 Hardware MPEG Dekodierung unterstützt, auch mit HDTV Auflösung, was dann nahezu keine CPU Zeit mehr benötigt. Es wäre gut, wenn einer so eine Karte hätte um das mal zu testen. Ich überlege mir auch so eine Karte für 45¬ zu erwerben. Sind passiv gekühlt und haben DVI. Meine Radeon zeigt bei HDTV nur ein rosa Bild. :(

  • Zitat

    Original von Dr.Nop
    Angeblich wird ab einer Geforce FX5200 Hardware MPEG Dekodierung unterstützt, auch mit HDTV Auflösung, was dann nahezu keine CPU Zeit mehr benötigt. Es wäre gut, wenn einer so eine Karte hätte um das mal zu testen. Ich überlege mir auch so eine Karte für 45¬ zu erwerben. Sind passiv gekühlt und haben DVI. Meine Radeon zeigt bei HDTV nur ein rosa Bild. :(


    Also ich hab ne FX5600, geht das mit der auch?

  • Hm, eine FX5600 fällt wohl in die Kategorie "ab FX5200". Man muss wohl die original Nvidia Treiber nehmen, da ist dann eine libxvmc-nvidia.so oder so ähnlich dabei. Dazu noch den xvmc-wrapper und xine sollte beim kompilieren einen neuen Ausgabe Treiber erzeugen.


    Man kann dann xine mit -V xvmc starten und MPEG1/2 sollten in der Grafikkarte dekodiert werden. So meine Theorie.

  • Zitat

    Original von Dr.Nop
    Man muss wohl die original Nvidia Treiber nehmen, da ist dann eine libxvmc-nvidia.so oder so ähnlich dabei. Dazu noch den xvmc-wrapper und xine sollte beim kompilieren einen neuen Ausgabe Treiber erzeugen.

    Nee, ohne Wrapper aber mit NVIDIA-lib hineinkompiliert geht es: siehe mein Post oben. Wenn da doch noch was unklar ist, kann man ja fragen. Vielleicht geht es sogar debian-konform, da werde ich Tobis-Tipp heute abend mal ausprobieren.

    vdr 1.4.7 sid von Tobi mit aktuellem sidux / TT-Budget & TT1.5 mit AVBoard 1.1

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!