Qualität der eHD gegenüber VDPAU?

  • Da hier ja einige mit beiden Sachen experimentierten, wie ist die Qualität bei beiden Varianten?
    Insbesondere bei DVD-Upscaling und SDTV Upscaling?
    Überlege mir eine eHD zu laufen, aber mit der sind ja XBMC und ähnliche Spielereien sicherlich nicht möglich,oder?

  • Hallo,


    wenn man das hier liest


    http://www.htpc-forum.de/forum/index.php?showtopic=5146


    scheint die Bildqualität der VDPAU-Lösung besser zu sein; die eHD hat wohl nur Bob-Deinterlacer (oder hat sich das mittlerweile geändert, dank neuer FW?


    Da ich auch vor der Entscheidung eHD oder VDPAU stehe würden mich hier einschlägige Erfahrungen sehr interessieren!


    Ich fasse meine Erkenntnisse nochmal zusammen


    eHD


    + PCI Slot, kleine Karte, nur 10W Verbrauch
    + Sound über HDMI
    + scheint gut zu funktionieren


    - teuer
    - Bob-Deinterlacer schlechter als VDPAU-Lösung?


    VDPAU
    + deutlich billiger
    + höhere Bildqualität


    - mehr Leistung (Sparkle-Grafikkarte, 40W)
    - noch mehr "Bastellösung" als eHD??


    Ergänzungen, Kommentare??

    Produktiv-VDR1 ASUS Pundit-AB 2.4 GHz Celeron - Suse 10.3 - vdr-1.7.7 - VDPAU - cvs-xinelibout - skinenigmang - femon - wirbelscan
    Bastel-VDR2 Athlon64 selbstgebaut - vdr-1.7.7 - VDPAU - cvs-xinelibout - skinenigmang - femon - wirbelscan

  • Zitat

    Original von orca2
    - mehr Leistung (Sparkle-Grafikkarte, 40W)


    Ich glaube nicht das meine Onboard-Grafik 40W mehr Leistung hat, als ein
    Chipsatz ohne Grafik.


    Gerald


    HP Proliant MicroServer Gen8, Xeon E3-1230, 12 GB RAM, 3xWD red 2TB im RAID 5, 2xSundtek MediaTV Home DVB-C/T, L4M TWIN-C/T, Ubuntu Server 14.04.1, Plex Media Server
    Samsung UE55H6470

  • Hi,


    Zitat

    Ergänzungen, Kommentare??


    Ja


    Zitat

    mehr Leistung (Sparkle-Grafikkarte, 40W)


    muss deutlich weniger sein!


    Hatte in meinem System vorher eine passive Nvidia FX5200 mit rel. kleinem Kühlkörper.
    Nach dem Tausch gegen die besagte Sparkle-Karte sank der Systemverbrauch um etwa 5W im idle.
    Bei HDTV-Betrieb steigt er nur um etwa 10W gegenüber idle an.


    Grüße
    Funzt

  • Wenn man ne geforce oder ne ehd an den fernseher anschließt schaltet man den deinterlacer eh ab
    da der im tv besser ist

  • Zitat

    Original von raoul
    und wie mache ich das, dass der Fernseher das deinterlacen übernimmt?


    Indem du dafür sorgst, dass das Bild interlaced ausgegeben wird. Also z.B. mit 1080i.


    Gerald


    HP Proliant MicroServer Gen8, Xeon E3-1230, 12 GB RAM, 3xWD red 2TB im RAID 5, 2xSundtek MediaTV Home DVB-C/T, L4M TWIN-C/T, Ubuntu Server 14.04.1, Plex Media Server
    Samsung UE55H6470

  • Zitat

    muss deutlich weniger sein!


    Hatte in meinem System vorher eine passive Nvidia FX5200 mit rel. kleinem Kühlkörper.
    Nach dem Tausch gegen die besagte Sparkle-Karte sank der Systemverbrauch um etwa 5W im idle.
    Bei HDTV-Betrieb steigt er nur um etwa 10W gegenüber idle an


    Das klingt ja mal nicht schlecht. Die 40W hatte ich auch nur aus den technischen Daten der GraKa entnommen, das kann schon so ein Maximalwert sein. Wie siehts aus mit der Lärmentwicklung/Lüfter; deutlich hörbar oder leise??

    Produktiv-VDR1 ASUS Pundit-AB 2.4 GHz Celeron - Suse 10.3 - vdr-1.7.7 - VDPAU - cvs-xinelibout - skinenigmang - femon - wirbelscan
    Bastel-VDR2 Athlon64 selbstgebaut - vdr-1.7.7 - VDPAU - cvs-xinelibout - skinenigmang - femon - wirbelscan

  • Zitat

    Originally posted by gda


    Indem du dafür sorgst, dass das Bild interlaced ausgegeben wird. Also z.B. mit 1080i.


    da wuerde mich aber interessieren, wie es hier mit der Synchronisation Stream - HDMI aussieht.


    wird das HDMI Timing auf den Stream synchronisiert? Ansonsten wird es unweigerlich hin und wieder ruckeln, was aufgrund der interlaced Ausgabe besonders stoerend sein duerfte => unbrauchbar.

  • Hi,


    Zitat

    Wie siehts aus mit der Lärmentwicklung/Lüfter; deutlich hörbar oder leise??


    Der Lüfter der Sparkle-Karte ist leider deutlich hörbar :(
    Das lässt sich aber ohne Garantieverlust recht einfach für ein paar Euro beheben...


    Grüße
    Funzt

  • Servus zusammen,


    - Stromverbrauchswerte gibts im VDR-Wiki zu Vdpau


    - Wer die deinterlacer mal Live gesehen hat, egal an welchem Display, ist davon mehr als überzeugt. Die Qualität kann durchaus mit vielen Kaufreceivern mithalten.


    Voraussetzung: Ausgabe an der Grafikkarte erfolgt via 1080i-Modeline


    - Die HDe hat auch ein gutes Bild, (Vergleich am Camp 2009), aber halt nicht ganz


    - Bildruckler gibt halt ab und an mal, aber das kann man auch auf PAL beobachten, wenn der Stream unterbrochen wird.


    - Noch ein wenig zur Entwicklung von vdpau, das ganze ist erst am Anfang, wenn man im NVidia-Forum mitliest, gibts noch jede Menge Potential seitens des Nvidia-Treibers und Xine-Vdpau, das halt ganz langsam rausgekitzelt wird.


    Also ich würde vdpau bevorzugen, warum?


    => Ausgabe über Grafikkarte ermöglicht viele andere Linuxanwendungen, z.b xbmc, mms, Browser usw. da muss die HDe passen.


    Gruß
    Wolfgang

  • Zitat


    Der Lüfter der Sparkle-Karte ist leider deutlich hörbar :(
    Das lässt sich aber ohne Garantieverlust recht einfach für ein paar Euro beheben...


    Kannst du da eine konkrete Empfehlung für die Sparkle geben?? Wie hast du das gemacht, und dann auch noch ohne Garantieverlust...???

    Produktiv-VDR1 ASUS Pundit-AB 2.4 GHz Celeron - Suse 10.3 - vdr-1.7.7 - VDPAU - cvs-xinelibout - skinenigmang - femon - wirbelscan
    Bastel-VDR2 Athlon64 selbstgebaut - vdr-1.7.7 - VDPAU - cvs-xinelibout - skinenigmang - femon - wirbelscan

  • Hi,

    Zitat

    Wie hast du das gemacht, und dann auch noch ohne Garantieverlust...???


    Na wie bei den meisten Grakas ist es möglich:
    ... den kleinen und lauten Lüfter abklemmen und mit einem größeren und langsamer drehenden anblasen
    oder
    den ganzen Kühlkörper abnehmen - wird nur von so Kunststoffnippeln gehalten - und einen größeren montieren...
    Im Garantiefall eben den orig. Kühler wieder anstecken.


    Grüße
    Funzt

  • gda


    ja das dachte ich mir. Ich wollte nur wissen was ich in der xorg.conf anpassen muss um das Bild interlaced auszugeben, und geht das auch über hdmi. ICh dachte bisher, dass da nur über TVout ginge.

  • Zitat

    Original von raoul
    gda


    ja das dachte ich mir. Ich wollte nur wissen was ich in der xorg.conf anpassen muss um das Bild interlaced auszugeben, und geht das auch über hdmi. ICh dachte bisher, dass da nur über TVout ginge.


    Wenn man erstmal mit den passenden Optionen dem Nvidia-Treiber abgewöhnt hat, die Auflösung mit dem Fernseher auszuhandeln, dann kann man auch eine entsprechende Modeline zu Wirkung bringen, aber Details habe ich da leider nicht.


    Gerald


    HP Proliant MicroServer Gen8, Xeon E3-1230, 12 GB RAM, 3xWD red 2TB im RAID 5, 2xSundtek MediaTV Home DVB-C/T, L4M TWIN-C/T, Ubuntu Server 14.04.1, Plex Media Server
    Samsung UE55H6470

  • Zitat

    Original von raoul
    gda


    ja das dachte ich mir. Ich wollte nur wissen was ich in der xorg.conf anpassen muss um das Bild interlaced auszugeben, und geht das auch über hdmi. ICh dachte bisher, dass da nur über TVout ginge.


    Klar geht 50 HZ interlace auch über HDMI.


    Ein paar Paramater in der xorg.conf richtig gesetzt und schon geht fast jeder Mode, gerade die 1920x1080_50 interlace findet man sehr oft.


    Ich poste mal einen Auszug aus einer alten xorg.conf, mit den wichtigsten Parametern:



    Die ersten 7 Options stellen sicher dass die Autoerkennung über edid deaktiviert wird und die letzte Modeline wird dann aktiv im Screen1.


    Code
    Section "Screen"
        Identifier     "Screen1"
        Device         "Device1"
        Monitor        "Monitor1"
        DefaultDepth    24
        SubSection     "Display"
            Depth       24
            Modes      "1920x1080_50"
    EndSubSection
    EndSection


    Das ganze kann man dann schön mit xrandr prüfen, ob es geklappt hat.


    Gruß
    Wolfgang

  • Hallo Wolfgang


    Zitat

    Originally posted by wbreu
    Klar geht 50 HZ interlace auch über HDMI.


    und hast du hierbei den Deinterlacer in xine/vdpau aktiviert oder komplett jedes Deinterlacing auf dem PC deaktiviert?


    - sparkie


  • Hi sparkie,


    jepp die Deinterlacer sind aktiviert, bei SD wirkt temporal-spatial, bei HD temporal.


    Allerdings sieht die xorg.conf mittlerweile ein bisschen aufgeräumter aus, da das Tool nvidia-settings eine saubere 50 Hz-xorg.conf zulässt.


    PS: Warum fragst du so gezielt?


    Gruß
    Wolfgang

  • Hi Wolfgang


    Zitat

    Originally posted by wbreu
    jepp die Deinterlacer sind aktiviert, bei SD wirkt temporal-spatial, bei HD temporal.


    aber das fuehrt doch die Forderung, dass das Deinterlacing auf den TV verlagert werden soll, ad absurdum.


    Bei der aktuellen Konstruktion handelt man sich in jedem Fall die Artefakte der vdpau Deinterlacer ein (auch wenn die inzwischen gering sein moegen).


    Es ist schon wie ich vermutet habe:


    Ohne FRC ist es wie bei SDTV auch bei HDTV nicht moeglich das Deinterlacing auf den TV zu verlagern. Hier besteht also noch Implementierungsbedarf :)
    Man darf gespannt sein, ob nVidia das Problem diesmal selbst angeht. Da sie keine Specs offenlegen bleibt ihnen auch gar nichts anderes uebrig


    - sparkie

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!