Bildprobleme mit FF-Karte

  • Hallo,


    Ich bin relativ neu auf dem Gebiet VDR. Früher habe ich im Windows Progdvb bzw. WatchTV zum Fernsehen benutzt. Jetzt habe ich mir unter Ubuntu einen VDR 1.5.12 gebaut. So weit so gut.


    Anbei liegt das Problem. Wie man erkennen kann ziegt die TV-Karte gewaltige Schlieren. Auch unter Windows hatte ich bereits dieses Problem. Dort ließ sich der Fehler jedoch mit dem Overlay der Grafikkarte vermeiden. (Sind diese Schlieren normal?)


    Eigentlich möchte ich voerst also VDR für die "normale" Live-Fernsehdarstellung missbrauchen und die weiteren Funktionen erst später erkunden. Als Player habe ich mal den einfachen Xawtv gewählt. Jedoch habe ich auch schon mit dem xineliboutput-plugin und xine herumprobiert, jedoch scheint mein Prozessor dieser Aufgabe nicht gewachsen zu sein.


    Bislang funktioniert es am besten mit den Binary Drivern von nvidia und xawtv -nodga. Da komme ich auf eine Auslastung von ca. 30-40%. Wenn man nebenbei arbeiten will beginnt das Bild jedoch zu stocken. Also auch keine Dauerlösung.


    Gibt es hier keine Möglichkeit das Bild direkt zu erhalten und trotzdem ein vernünftiges Bild zu haben? Sonst ist die FF-Karte ja umsonst...


    [edit]
    Habe gerade Windows neu aufgesetzt und dort die Karte getestet. Durch Installation des Treibers 2.19 bekam ich dieselben Schlieren wie unter Linux.
    Die Installation des mit dem Treiber mitgelieferten Programms brachte den Erfolg. Anscheinend werden dort die erforderlichen Filter (Intervideo Filter SDK for Technotrend?) bzw. DirectShow Elemente installiert.
    Gibt es so etwas auch für Linux/VDR?
    [/edit]


    Danke für eure Bemühungen.


    lg hosl


    Konfiguration:
    Intel Celeron 633 Mhz (Via Apollo Pro)
    512 MB Ram
    Hauppauge Nexus Dvb-s (Firmware 12623)
    Geforce2MX 32MB
    Ubuntu 7.10

  • Zitat

    Original von hosl
    (Sind diese Schlieren normal?)


    Könnte das deine Probleme beschreiben?


    Wie sieht es mit dem Empfang aus, was sagt femon?


    Zitat

    Bislang funktioniert es am besten mit den Binary Drivern von nvidia und xawtv -nodga. Da komme ich auf eine Auslastung von ca. 30-40%.

    Vom VDR kommt das nicht, ich denke das hängt irgendwie am an der Wiedergabe vielleicht lässt sich was mit den Einstellungen machen (ich denke an was in Richtung xv-support, falls es sowas gibt). Du könntest es mal mit tvtime versuchen.


    Zitat

    Gibt es hier keine Möglichkeit das Bild direkt zu erhalten und trotzdem ein vernünftiges Bild zu haben? Sonst ist die FF-Karte ja umsonst...

    Hinten am Stecker der FF nen Fernseher anschliessen.

    Gruss
    SHF


  • Prinzipiell könnte es am Deinterlacing liegen.
    Gibt es eine Prozessorsparende Lösung dafür?


    Wie gesagt, unter Windows wird das Problem durch installieren der Originalsoftware (inkl. Intervideo Filter SDK) behoben. Daher schließe ich Empfangsprobleme aus.


    Mit den Binary Drivern von nvidia bekomme ich keine MPEG Beschleunigung, da xawtv mit dga nicht startet. und sobald ich nodga aktiviere geht eben die Prozessorlast hoch und das Bild stockt sobald jemand anderer die CPU benötigt. Ebenso beim Xineliboutput, wobei dieses noch viel mehr CPU-Last erzeugt.
    Mit tvtime bekomme ich zwar ein relativ schönes Bild, jedoch hohe Prozessorlast. Also wie bei xineliboutput.


    Fernseher anschließen ist keine Lösung, da ich keinen überflüssigen habe, bzw. kaufen möchte. Ich möchte einfach nur ein LIVE-TV Bild mit meiner Hardware. Ist ja unter Windows möglich, also sollte es unter Linux kein Problem sein. ;)


    Brauche ich etwa irgendwelche speziellen Codecs, Treiber? Schaut denn keiner ein Live-Bild mit VDR und einem "schwachen" Rechner?


    danke hosl


    Femon: STR 69% SNR 86% BER=0 UNC=0

  • Servus,


    suche im Forum mal nach Tvtime, ich nutze das zwar nicht, aber wenn ich mich recht erinnere, könnte das was für Dich sein.



    Beste Grüße
    CafeDelMar


    PS:


    Zitat

    Schaut denn keiner ein Live-Bild mit VDR und einem "schwachen" Rechner?


    Die meisten werden wohl an einer FF-Karte einen Fernseher angeschlossen haben, da hat man ein perfektes Bild selbst mit dem schwächsten Rechner. ;)


    PPS: Oh, habe überlesen, dass du TvTime bereits probiert hast. Aber vielleicht kann man da noch was anders einstellen? So wie ich das mal gelesen habe, kann es das dekodierte Bild direkt von der FF-Karte abgreifen, das sollte dann doch eigentlich gut laufen?

  • Hallo,


    Jetzt habe ich mich nochmal mit tvtime gespielt. Alle Deinterlacer durchprobiert und auch niedrigere Auflösung. Mit den niedrigsten Einstellungen ist zwar fast annehmbar, jedoch nicht besser als mit xawtv und nvidia Treiber.
    Soweit ich das gelesen habe, kann man bei tvtime die Deinterlaceoptionen nicht komplett deaktivieren, somit ergibt sich eine gewisse Prozessorlast...


    Danke für eure Tips.


    Vielleicht fällt ja noch jemand etwas ein, sonst muss ich mich wohl nach einem stärkeren Prozessor umsehen...


    lg hosl


    PS: Dass die meisten einen Fernseher angeschlossen haben, dachte ich mir schon. Jedoch werde ich doch nicht der einzige mit einem Monitor und schwachen Rechner sein... (hoffentlich nicht ;))

  • Zitat

    Original von hosl
    Femon: STR 69% SNR 86% BER=0 UNC=0

    BER und UNC sind 0, das signal ist also in Ordnung.


    Zitat

    Mit den Binary Drivern von nvidia bekomme ich keine MPEG Beschleunigung, da xawtv mit dga nicht startet.

    xawtv bekommt das Material schon dekodiert (normalerweise über /dev/video0) von der FF, ohne deinterlacing hat der Rechner eigentlich nicht viel zu tun.


    Bist du sicher, dass der nvidia-Treiber korrekt installiert ist und die Karte vielleicht nicht nur mit dem nv-Treiber läuft?

    Gruss
    SHF


  • wenn du ein progressives Ausgangssignal guter Qualitaet benoetigst, ist in jedem Fall ein entsprechend leistungsfaehiger Prozessor erforderlich.


    Eine FF-Karte in Verbindung mit tvtime kann der CPU allenfalls das MPEG-Decoding abnehmen. Da eine FF nur interlaced Output unterstuetzt,muss die CPU das Deinterlacing auch hier selbst uebernehmen.


    Das Decoding beansprucht aber kaum Rechenleistung. Da idled bei mir selbst ein Celeron D 2GHz mit 80% vor sich hin. Deswegen bringt hier eine FF keinen nennenswerten Gewinn.


    Das Deinterlacing kann hingegen, wenn gute Qualitaet gewuenscht wird, richtig rechenintensiv werden. Folgende Einstellung benoetigt nur wenig CPU, ist aber IMHO trotzdem noch ganz brauchbar. Ich vermute, dass deine angesprochene 'Windows-Loesung' auch so was aehnliches macht:

    Code
    xineliboutput.Video.DeinterlaceOptions = method=ScalerBob,cheap_mode=0,pulldown=none,framerate_mode=full,judder_correction=0,use_progressive_frame_flag=0,chroma_filter=0,enabled=1
  • Hi hosl,


    bei mir habe ich das Problem mit fbtv gelöst. Vielleicht hilft Dir das hier weiter:http://sidux.com/PNphpBB2-view…t-228-highlight-fbtv.html.


    Gruß dsat

    vdr1 | ea35 | ASRock B250M Pro4 | Intel Celeron CPU G3900TE | Zotac GeForce GT 710 (passiv) | TT-budget S2-3200 HDTV-S2 CI

    vdr2 | ea35 | Zotac IONITX-T (NM10) | Intel Atom D525, 2x1.80GHz (onboard) | GeForce G210, 512MB DDR3 (nVIDIA NextGen ION) (onboard) | DD cineS2 V6

    vdr3 | buster | ASUSTeK PRIME A320M-C R2.0 | AMD Athlon 3000G | Zotac GeForce GT 710 (passiv) | TT-budget S2-3200 HDTV-S2 CI

  • SHF


    Anscheinend wird mit den nvidia-Treibern automatisch ein Deinterlacing gemacht, denn dort sieht das Bild eh gut aus. Nur bei Belastung gibts Aussetzer.


    Mit den nv-Treibern erhalte ich das angehängte Bild. Dieses erhalte ich eben auch unter Windows ohne diese Intervideo Filter. Wenn diese in Windows das Deinterlacing übernehmen, sind diese wohl sehr effizient, denn dort nimmt das Programm max. 15% Last in Anspruch und Gerät auch nicht ins stocken, wenn andere Aufgaben erledigt werden.
    Mit den nv-Treibern kann ich das Programm auch stoppen und das Bild läuft trotzdem weiter, daraus folgere ich, dass dieses direkt von der FF-Karte kommt. Bei allen anderen bisher probierten Möglichkeiten bleibt dass Bild stehen, dh. Deinterlacing ist aktiv.


    sparkie
    Habe deine Deinterlacing Lösung probiert. Komme hierbei jedoch trotzdem auf Prozessorlasten über 60%, und das Bild sieht nicht wirklich hochwertig aus.


    dsat
    Habe probiert den fbtv einzurichten. Jedoch hatte ich dabei keinen Erfolg. Auf der gewünschten Konsole steht zwar, dass VDR diesen belegt, jedoch erhalte ich kein Bild. Der Befehl "fbtv -q <> /dev/tty8" sagt "bash: /dev/tty8 Permission denied"


    [edit]
    beim Starten mittels vdr-fbfe erhalte ich fbfe_display_open: failed to set /dev/tty to graphics mode
    [/edit]


    danke für eure tips.


    lg hosl

  • Hi hosl,


    Du musst "fbtv -q <> /dev/tty8" als root ausführen, dann sollte es gehen.


    Gruß dsat

    vdr1 | ea35 | ASRock B250M Pro4 | Intel Celeron CPU G3900TE | Zotac GeForce GT 710 (passiv) | TT-budget S2-3200 HDTV-S2 CI

    vdr2 | ea35 | Zotac IONITX-T (NM10) | Intel Atom D525, 2x1.80GHz (onboard) | GeForce G210, 512MB DDR3 (nVIDIA NextGen ION) (onboard) | DD cineS2 V6

    vdr3 | buster | ASUSTeK PRIME A320M-C R2.0 | AMD Athlon 3000G | Zotac GeForce GT 710 (passiv) | TT-budget S2-3200 HDTV-S2 CI

  • Hi hosl,


    hier endet mein Latein, leider muss ich jetzt passen.


    Gruß dsat

    vdr1 | ea35 | ASRock B250M Pro4 | Intel Celeron CPU G3900TE | Zotac GeForce GT 710 (passiv) | TT-budget S2-3200 HDTV-S2 CI

    vdr2 | ea35 | Zotac IONITX-T (NM10) | Intel Atom D525, 2x1.80GHz (onboard) | GeForce G210, 512MB DDR3 (nVIDIA NextGen ION) (onboard) | DD cineS2 V6

    vdr3 | buster | ASUSTeK PRIME A320M-C R2.0 | AMD Athlon 3000G | Zotac GeForce GT 710 (passiv) | TT-budget S2-3200 HDTV-S2 CI

  • Warum lässt du das TV-Bild über die Graka. laufen und nutzt nicht den TV-Out deiner Nexus? Bei einem Rechner deiner Leistungsklasse hast du mit der Bildaufbereitung nur Probleme...

    yaVDR 0.6.2; H61M/U3S3 / G530 / 4GB / GT 520 (passiv) / Cine S2 (Rev. V5.5) + DuoFlex S2 / 120GB SSD (System; SATA>USB) + 3TB SATA 6Gb/s; LCD-TV Toshiba 42VL863G; AVR Yamaha RX-S600...

  • Naja wie schon gesagt habe ich keinen Fernseher, sondern möchte direkt am Monitor schauen. Bei der Nexus habe ich ja nur einen Compositeausgang, wie bekomme ich den auf den Monitor?


    lg hosl

  • Zitat

    Originally posted by habichthugo
    Warum lässt du das TV-Bild über die Graka. laufen und nutzt nicht den TV-Out deiner Nexus?.


    ich vermute das Hauptproblem ist und bleibt hier das Deinterlacing. Wenn er den TV-Out seiner Nexus verwendet, verlagert er das Deinterlacing vom PC auf das Display. Und ob das es besser kann als der PC ist die Frage...

  • Hallo,


    Habe weiter ein bisschen herumprobiert. In Windows hängen diese Probleme direkt mit dem PciLatencyTimer Wert zusammen. Diesen Wert kann ich in der Registry unter
    HKEY_LOCAL_MACHINE_SYSTEM\CurrentControlSet\Services\SAA7146n\Parameters\


    Wenn dieser auf 255 ist, habe ich ein schönes Bild. Bei kleineren Werten wird es immer schlimmer.


    Kann ich diesen LatencyTimer auch im Linux selbst setzen? lspci -v sagt, dass dieser Wert auf 64 ist...


    lg hosl

  • Wenn das Bild ein echter Screenshot ist, hat das mit dem Deinterlacer nichts zu tun. Selbst ohne sieht das bei weiterm nicht so schlimm aus.


    Also ich tippe mal auf PCI-Probleme. Genauer auf einen untauglichen Mainboard-Chipsatz (fängt mit V an...) und PCI-Probleme. Du solltest wirklich testweise einen Fernseher an die Buchse der Karte anschließen um festzustellen ob das Bild dort genau so aussieht.


    Übrigens hast Du in der Tat eine unnötig teure Karte gekauft, die FF macht nur Sinn, wenn man einen Fernseher bereiben will. Für Desktop-Fernsehen ist eine billige ausreichend.


    Grüße,
    Holger

    VDR 1-3: Zotac ZBox HD-ID42, yavdr-0.5
    VDR 4: AMD5900/Asus M3N-78, yavdr-0.5
    DVB-Empfang: Netceiver
    Storage: via NFS von separatem Fileserver

    [size=10]

    Einmal editiert, zuletzt von hsteinhaus ()

  • Hallo,


    Ich habe jetzt mal Mithilfe des setpci Befehls die Latency Werte geändert. Also das auf Setzen des Latency Wertes bringt eindeutige Besserung.


    Jedoch ist dies lediglich für geringe Auflösungen der Fall. Beim Vollbild besteht das Problem noch immer.


    [edit]
    In Progdvb gibt es eine Unterscheidung zwischen Surface und Overlay. Die Einstellung Surface entspricht dem Linuxverhalten. Overlay geht dann auch im Vollbild.
    Weiß etwa jemand wie man dieses Overlay in Linux aktivieren kann?
    [/edit]


    lg hosl


    PS: Chipsatz fängt mit V an .... und ganz umsonst wars nicht, weil ich ja schon jahrelang im Windows die Vorteile genossen habe.

  • Zitat

    Original von hosl
    Anscheinend wird mit den nvidia-Treibern automatisch ein Deinterlacing gemacht,

    Ne, das definitiv nicht (ist nicht die Aufgabe der Graftktreiber).
    Mit den nv-Treibern ist aber, was Grafik und Videofunktionen angeht eh kein Blumentopf zu gewinnen.


    Zitat

    Original von hsteinhaus
    Wenn das Bild ein echter Screenshot ist, hat das mit dem Deinterlacer nichts zu tun. Selbst ohne sieht das bei weiterm nicht so schlimm aus.

    Ich war da auch nicht so sicher, hatte es deshalb die Frage formuliert.


    Bei ruhigen Szenen ohne viel Bewegung sollte man auch ohne Deinterlacer ein ordentliches Bild bekommen. Bei Kamera-Schwenks kann aber auch sowas wie auf dem Screenshot rauskommen.


    Zitat

    Original von lola
    die Störungen erinnern mich an die bekannten Probleme mit C1, C2 (Stpgnt und Halt) bei AMD Systemen. Gab es bei Intel vergleichbare Störungen?

    Das Problem hat mit dem Stpgnt und Halt-Zeug nichts zu tun, sondern mit der Southbridge. Die ist auf diesen Intel und AMD-Chipsätzen von VIA praktisch (wenn nicht sogar vollkommen?) identisch.


    Die Probleme sind übrigens schon länger bekannt und betreffen wohl alle VIA-Chipsätze mehr oder weniger stark.
    Dass die Auswirkung auf eine FF-Karte derart sind ist mir aber auch neu.


    Mit einigen BIOS-Einstellungen kann man wohl eine gewisse Besserung erreichen aber die Chipsätze von Intel sind deutlich besser.


    Zitat

    Original von hosl
    Ich habe jetzt mal Mithilfe des setpci Befehls die Latency Werte geändert. Also das auf Setzen des Latency Wertes bringt eindeutige Besserung.


    Jedoch ist dies lediglich für geringe Auflösungen der Fall. Beim Vollbild besteht das Problem noch immer.

    Dieser eine Latency-Wert ist nur die Spitze des Eisberges, da muss man noch deutlich mehr ändern.
    Wenn man was im Bios einstellen kann kannst du es mal hiermit versuchen, wenn nicht hatte ich auch mal eine Tabelle mit den Registern, die müsste ich aber erst noch suchen.


    Eventuell währe auch ein anderer Kernel einen Versuch wert, die meisten Standard-Kernel sind für das Video-Zeug nicht wirklich optimal. Bei Ubuntu soll es einen LowLatency-Kernel geben, der könnte was bringen.


    hosl
    Ehe du zu viel Zeit rein steckst, schiess dir doch ein Mainboard mit Intel-Chipsatz mit Onboard-Grafik und einem PIII > 1GHz drauf, die gehen in der Bucht für ca. 30€ weg. Selbst wenn du es schaffst die FF gescheit ans laufen zu bekommen, dürfte das System spätestens beim Einbau einer zusätzlichen Budget kollabieren. (Ausserdem verbrät das System mit der Geforce2MX mehr Strom.)

    Gruss
    SHF


Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!