AnixeHD & AstraHD ruckelt, ARD/ZDF/ARTE HD nicht?

  • Hi VDR Gemeinde,


    am WE ist mir aufgefallen, das das Livebild von AnixeHD & AstraHD ruckelt und beide Cores der CPU auf 25-30% Auslastung gehen.


    Die Sender ARD HD, ZDF HD, ARTE HD & Eins Festival HD laufen dagegen super. Die Auslastung beider Cores liegt bei 5% +/- 2.


    Die HD Testmaschine ist mit easyVDR (Wolf) auf HD (vdpau) getrimmt:

    Hat jemand ein ähnliches oder gar das gleiche Phänomen?


    Kind regards
    hummingbird_de

    HowTo: APT pinning

    Einmal editiert, zuletzt von fnu ()

  • Das Problem kannst Du beseitigen, indem Du in der config_xineliboutput das vdpau-Deinterlacing auf bob stellst.


    Grüße


    rkp

    Intel NUC 10 NUC10i3FNH, Digital Devices Octopus NET V2 Max M4, 1000 GB Samsung 970 Evo M.2 2280 PCIe 3.0 x4 NVMe, LG OLED 77CX9LA

  • rkp


    Nicht das ich scharf auf den Sender wäre, aber wenn die Einstellung hilft. Welche Nachteile kauft man sich dann bei den anderen Sendern ein?


    Kind regards
    hummingbird_De

    HowTo: APT pinning

    Einmal editiert, zuletzt von fnu ()

  • Zitat

    Original von Razorblade
    "Schlechteres" Deinterlacing.


    Außer Du benutzt die df-Patches für xineliboutput, da wird diese Variable nur auf HD-Sender angewendet (und das brauchst Du ja anscheinend auch), für SD gilt dann weiterhin das bessere temporal_spatial


    Hi,


    die Patches von durchflieger haben nix mit dem Deinterlacing zu tun.


    Wenn auf dem System an der config_xineliboutput nix verändert wurde, dann wird da standardmäßig "temporal" als Deinterlacing für HD laufen.


    Deine 9300er ist halt für "echtes HD" = 1920x1080 zu langsam, die anderen Sender benutzen nativ 1280x720. Deshalb kommt es zu Rucklern, wenn die Deinterlacer für "echtes HD" zu hoch sind.


    NAchteile auf den anderen Sendern kenne ich keine.


    Gruß
    Wolfgang

  • Hups, da habe ich wohl das Postprocessing mit Deinterlacing verwechselt (das ist was die df Patches bei HD gezielt abschalten).


    Davon abgesehen hat es wohl kaum etwas mit der Auflösung zu tun, sondern mit der Tatsache, das bei 720p schlicht und ergreifend gar nicht erst deinterlaced werden muß, schließlich handelt es sich bereits um Vollbilder...

  • Zitat

    Original von Razorblade
    Hups, da habe ich wohl das Postprocessing mit Deinterlacing verwechselt (das ist was die df Patches bei HD gezielt abschalten).


    Davon abgesehen hat es wohl kaum etwas mit der Auflösung zu tun, sondern mit der Tatsache, das bei 720p schlicht und ergreifend gar nicht erst deinterlaced werden muß, schließlich handelt es sich bereits um Vollbilder...


    Wie kommst du darauf?


    Gruß
    Wolfgang

  • Hallo Wolfgang,


    Deiner Erläuterung entnehme ich das AnixeHD & AstraHD in 1080i senden?


    Hmm, die 9300GE (540MHz) zu langsam?


    Die habe ich mir gerade als 9300GS (567MHz) bestellt. Die ist wie die GE mit einem G98, also VC-1 fähige GPU bestückt. Wenn die also nun für 1080i zu langsam ist, wie sollte die dann in der Lage sein Blue-Ray darzustellen? Was wären die Alternativen?


    Kind regards
    Frank

    HowTo: APT pinning

  • Ich habe hier irgendwo gelesen, das eine 9500er ausreichend sollte. Ich persönlich habe eine 9400gt, kann dir aber nicht sagen, ob 1080i/p ordentlich laufen - hab nur HD bis 720p. Mehr HD bekomm ich grad nicht rein.

    Ubuntu 9.04 32bit, TerraTec Cinergy S2 PCI HD CI, vdr 1.7.8 (x64 4000+, 3GB, 250GB) per HDMI auf LT-42DV8BG, 9400gt mit VDPAU 190.x Nvidia

  • Hallo Frank,


    naja die 9300 GE ist für das erweiterte Deinterlacing mit vdpau zu langsam.
    Nicht immer alles durcheinander werfen.


    Gibt da ein schönes Testtool:


    http://www.nvnews.net/vbulletin/showthread.php?t=133465


    Ab einer 9500er GT kann man auch temporal_spatial mit echten HD-Sendern und bestem Deinterlacing nutzen.


    Die Limitter sind die vorhandenen Streamprozessoren und Shaderprozessoren.
    Da sind ab der 9500er mindestens jeweils die doppelte Anzahl (je 32 ) auf der Karte.


    Die Speichertaktraten sind hierbei "wurscht".




    Gruß
    Wolfgang

  • wbreu: Worauf?


    Das die df- patches Teile des Postprocessings für HD-Abschalten?
    -> Die Funktionen "noise reduction" und "sharpness" werden nur noch bei SD-Material angewendet. Bei HD-Material macht es meines erachtens nicht viel Sinn. Die Einschränkung muss mittels der neuen config_xineliboutput Option "video.output.vdpau_sd_only_properties" aktiviert werden.
    [patches] xine-vdpau+xineliboutput verbesserter vdpau support



    Oder das 720p kein deinterlacing benötigt?
    ARD HD, ZDF HD und Arte HD senden in 720p (nach EBU Empfehlung 720p/50). Dabei steht das "p" für progressive, es werden 50 Vollbilder pro Sekunde übertragen, somit entfällt das deinterlacing.
    http://de.wikipedia.org/wiki/720p#Formate_und_HD_ready


    @hummingbird:
    ARD HD, ZDF HD und Arte HD senden in 720p (nach EBU Empfehlung 720p/50)
    Anixe HD, AstraHD und auch alle Sky HD Kanäle senden in 1080i


    Das Deinterlacing ist je nach Methode sehr rechenlastig, mein ION (9400 onboard) schafft auch nur Bob bei HD Material. Bei BlueRay ist erneut (wie auch bei 720p) wegen 1080p (progressiv) kein Deinterlacing nötig, somit könnte es noch klappen, hängt aber sicherlich auch noch von anderen Faktoren ab.
    Die Alternative ist erstmal einen nicht ganz so hochwertigen Deinterlacer (zB den vorgeschlagenen Bob, evtl aber auch half oder half spatial) zu benutzen. Evtl tut sich da auch noch etwas in späteren Treiber-Versionen von nvidia.

  • Hi Wolfgang,


    das waren die GPU Taktraten, Speichertakt ist bei beiden 500MHz, siehe hier.


    Ich unterlag da wohl auch dem Irrtum nur PureVideo HD 3. Generation kann VC-1, aber das geht wohl seit der 2. Generation, worunter die 9500GT fallen würde. Siehe hier.


    Aber die 9500GT gibt es wohl eher nicht passiv gekühlt, oder?


    Kind regards
    hummingbird_de

    HowTo: APT pinning

  • Hi nochmal,


    ich meinte die 720p-Geschichte.


    Denn ich denke vdpau deinterlaced immer, egal welcher Kontent daher kommt.


    Ich habe letztens ne ganze Reihe 9500er GT durch die Testbank gelassen.
    Dabei ist mir immer aufgefallen, dass bei SD-Kontent die GPU-Temperatur immer auf 50 Grad lag, bei 720p bei 53 Grad und bei 1080i bei 56 Grad.
    Deinterlacer immer temporal_spatial.


    Das beduetet doch, je höher die Auflösung, desto mehr hat die GPU zu tun.


    Stellt sich jetzt die Frage, wird die GPU-Last (=höhere Temperatur) nur durchs Hochrechnen erreicht?


    oder


    eben durchs Deinterlacing?


    Ausgabemodus über X ist bei mir 1920x1080i, also ein Interlaced-Mode.


    Wenn die GPU-Last durchs Hochrechnen entsteht, müsste es eigentlich bei gleichen Temperaturen sein, da die gesamte Streammmenge (MBit) ja eine Rolle spielt. Bei SD muß mehr gerechnet werden als bei 1080i.


    Wenn man jetzt den Deinterlacer auf bob stellt, bleibt die Temp bei 1080i/720p gleich, also gleiche GPU-Auslastung.


    Zudem bin ich mir nicht sicher ob xine-vdpau das Progressive-Flag überhaupt auswertet.


    Würde mich sehr interessieren, was da abgeht ....


    Gruß
    Wolfgang

  • Zitat

    Original von wbreu
    ich meinte die 720p-Geschichte.


    Denn ich denke vdpau deinterlaced immer, egal welcher Kontent daher kommt.


    Jetzt verwechselt Du etwas:
    vdpau deinterlaced immer egal welchen output Du hast, aber nicht egal was für input. Geht ja auch gar nicht: Deinterlacing ist das Zusammensetzen von Halbbildern zu Vollbildern. Wenn schon Vollbilder vorliegen, kannst Du nicht deinterlacen (mal von speziellem postprocessing zur Vermeidung von Pulldown-Effekten abgesehen, aber das ist eine andere Geschichte)



    Zitat

    Original von wbreu
    Ausgabemodus über X ist bei mir 1920x1080i, also ein Interlaced-Mode.


    Das macht IMHO wenig Sinn, da vdpau gar kein "sauberes" 1080i Material ausgeben kann. D.h. Du hast "beide" Nachteile -> mehr CPU-Power durch vdpau-Deinterlacing (gezwungenermaßen) + erneutes Interlacing vor Ausgabe + Deinterlacing vom Fernseher (oder was auch immer Du angeschlossen hast



    Es gibt zwei Faktoren für die Belastung (und damit letztendlich die Temperatur bzw wenn keine Reserven mehr vorhanden das "Stocken"):
    Die Bandbreite des Materials und das nötige Postprocessing.
    720p50 hat eine fast identische Videodatenraten (den Vollbildern geschuldet) als 1080i. Dafür muß bei 1080i eben wegen "interlaced" noch deinterlaced werden und das "kostet".



    Gruß,
    Razor

  • Welche Funktion hat dann die Position


    vdpau: disable deinterlacing when progressive frame flag is set


    in der config_xineliboutput?

    Intel NUC 10 NUC10i3FNH, Digital Devices Octopus NET V2 Max M4, 1000 GB Samsung 970 Evo M.2 2280 PCIe 3.0 x4 NVMe, LG OLED 77CX9LA

  • Das weiß ich auch nicht genau, aber ich vermute, dass bei Auswertung des Flags die deinterlacing-Entscheidung basierend auf dem Flag getroffen (der aber leider nur von den wenigsten Sendern sauber gesetzt wird) wird und bei Nicht-Auswertung basierend auf dem tatsächlich angelieferten Datenstrom...

  • Zitat

    Original von rkp
    Welche Funktion hat dann die Position


    vdpau: disable deinterlacing when progressive frame flag is set


    in der config_xineliboutput?


    Das wäre dann auch meine nächste Frage gewesen.


    razor, es wird also Deinterlaced, egal ob einkommend oder ausgehend.


    Nach dem was ich gelesen habe, macht xine-vdpau da auch keinen Unterschied, es wird ausgehend immer deinterlaced, egel ob bob oder höher, oder i-Material oder p-Material.


    Was rauskommt ist wichtig => sauberes Bild.


    Die CPU-Last an sich bleibt ja unverändert, die GPU arbeitet fürs Deinterlacing.


    Gruß
    Wolfgang

  • nabend


    ich schätze mal das :


    vdpau: disable deinterlacing when progressive frame flag is set


    diese einstellung wenn aktiviert bei vollbildern, also p kein deinterleacing macht.


    wundere mich auch das hier viele lieber 1080i haben wollen als 720p, dabei ist 720p da doch die bessere wahl .... oder irre ich da.


    wenn dann doch 1080p was wohl vorerst nicht ausgestrahlt wird. womit 720p das momentane maß der dinge ist. was die qualität angeht.

  • Viele wollen deswegen interlaced ausgeben weil a) das deinterlacing in Software sehr aufwändig ist, was meiner Meinung nach auch der Grund für das Stocken bei Hummingbird ist und b) weil "externe" deinterlacer (sei es der LCD, ein AV-Receiver oder ein "echter" externer Deinterlacer/Scaler) oft (gerade beim TV aber nicht immer!) qualitativ ein besseres Resultat erzielen.


    Das deinterlacing läßt sich ja auch nicht verhindern, man muß nunmal auf einer Nicht-Röhre Vollbilder ausgeben, aber es sollte "derjenige" machen, der es "am besten" kann. Diese Wahl läßt einem vdpau aber nicht, deswegen ist wohl 1080p als Ausgabe die beste Wahl und dann eben den Deinterlacer von vdpau wählen, der gerade noch auf der GPU läuft (und das ist bei ION und einigen älterenen Grafikkarten "nur" Bob).


    wbreu: "vdpau" ist vielleicht etwas allgemein gewählt hier im Thread, es gibt ja einmal das eigentliche (beschleunigte) Videoprocessing und dann noch die Ausgabe via X11, beides läuft über den nvidia closed-source Treiber.
    Soweit ich weiß kann der nvidia-Treiber in Kombination mit vdpau kein interlaced-Material beschleunigt dekodieren und ohne es zu deinterlacen ausgeben. Das heißt man muß zwangsläufig einen der vdpau-Deinterlacer benutzen, wenn man eine interlaced-Quelle hat. Was es jetzt aber bringen soll, diese teuer generierten Vollbilder wieder Interlaced auszugeben (so wie Du es machst) erschließt sich mir überhaupt nicht! Ich habe bei 1080i Quellmaterial und 1080 Ausgabe bei 1080i und 1080P Ausgabe die gleiche CPU-Belastung, aber bei 1080p Ausgabe eine deutliche bessere Bildqualität bei den "üblichen Verdächtigen" (Laufschrift, Kameraschwenks).
    Was Du machst ist:
    Deinterlacing während Videodekodierung (vdpau im Nvidia-Treiber)
    Interlacing durch Nvidia-Treiber
    Deinterlacing im Endgerät
    Wobei die letzten beiden Schritte völlig unnötig sind, wenn man schonmal Vollbilder hat, kann man sie auch gleich ausgeben (einzige Ausnahme, das Endgerät kann kein 1080p verarbeiten).



    Gruß,
    Razor

  • Hi nochmal,


    schön mal qualifiziert darüber diskutieren zu können.


    Ich habe jetzt mal einen 1080p50Hz-Mode eingestellt am X-Server und das


    "vdpau: disable deinterlacing when progressive frame flag is set"


    in der config_xineliboutput gesetzt.


    Deinterlacing habe ich hochgedreht auf temporal_spatial.


    So wie es aussieht, hat das flag eine Auswirkung, denn in der Kombination laufen die 1080i-Sender auch flüssig und es sind kaum Framedrops im Log ersichtlich.


    Auch bei den 720p sieht es so aus. Temps auf der onboard-Karte sind normal.


    Hast du das schon mal so versucht auf dem ION-Board?


    Gruß
    Wolfgang

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!