720x576-vdr-Ausgang an FullHD: upscaling TV vs. Grafikkarte

  • ich liebäugele mit der Anschaffung eines 80cm-LCD (Philips 32PFL7404H). Derzeit gibt mein vdr über die PVR350 ein 720x576-Signal per S-Video aus. Würde der TV das genausogut upscalen, wie er das 720x576-Bild seines eingebauten Tuners upscaled?
    Oder habe ich Vorteile, wenn ich einen Grafikkartenausgang mit höherer (zum TV passender) Auflösung verwende? Aber ist das nicht nur ein Zoom, wenn das Quellsignal weiterhin 720x576 ist? Der Grafikkartentreiber macht ja sicher kein upscaling, oder?


    Oder ist für die Qualität gar nicht das upscaling entscheidend, sondern die digitale Signalzuführung (HDMI statt S-Video)?

    VDR1: ACT-620, Asus P8B75-M LX, Intel Core i3-3240, 4 GB DDR3 RAM 1600 MHz, passive Geforce GT1030 von MSI, Sandisk 2TB SSD, 2xWinTV DualHD, Atric-IR-Einschalter. SW: Xubuntu 20.04 auf 64GB Sandisk SSD.

    VDR2: Odroid N2+ mit CoreELEC und Ubuntu in chroot, WinTV DualHD

    VDR3: Tanix TX3 mit CoreELEC und Ubuntu in chroot, WinTV DualHD

  • Dr. Seltsam


    Bin Ende 2007 von einer DXR3@YUV an einem damals 32" LCD auf einen VDR mit softdevice, ausgegeben über eine Radeon 9200 an den analogen VGA Eingang des LCDs in nativer Auflösung 1368x768, umgestiegen. Aufskaliert und De-Interlaced wurde das Bild von softdevice.


    Die DXR3@YUV war sehr gut, aber softdevice war besser und damals auch stabiler. Habe den VDR vor kurzem sogar noch an meinem Full-HD Plasma betrieben, da mußte ich aber auf den fglrx umsteigen da nur der mit Xorg@Debian Etch auf 1920x1080p skalierte.


    Den Softdevice VDR habe ich inzwischen mit einem VDPAU VDR abgelöst.


    Gruß
    Frank


    [EDIT] Ganz vergessen, meine Antwort auf Deine Frage, IMHO ganz klar Skalierung per Grafikkarte besser, heute natürlich per HDMI Anschluß ;) [/EDIT]

    HowTo: APT pinning

    5 Mal editiert, zuletzt von fnu ()

  • Meine Erfahrung:


    Ich habe einige Zeit einen 40" Samsung-FullHD per FF-RGB (via FuSi-FF) gefüttert.Bild war schon i.O. Danach kam Einspeisung per HDMI und VDPAU. Bei SD ist das noch 'nen Ticken besser als RGB. HD müssen wir aussen vor lassen, da das eine FF an ihren Ausgängen ohnehin nicht bringt.


    Bildqualität bei HD-Panels (egal ob LCD, Plasma oder TFT) ist eine Frage der Zuspielung. Wenn das Signal schon sch**sse ist, kannst Du keine Bonbons draus machen.


    Ansonsten (von schlecht nach gut):


    FBAS (Cinch) -> SVideo -> RGB -> HDMI


    BJ1

  • Da hilft nur probieren, jeder Fernseher reagiert da anders.


    An einem 37" Panasonic Plasma (1024x720 native Auflösung) liefert eine dBox2 per RGB ein sehr scharfes Bild, allerdings mit je nach Sender leicht sichtbaren Klötzchen. Die selben Sender per 1290x720p HDMI zugespielt von einem Technisat HD8-S haben weniger Klötzchen, wirken dafür aber minimal weichgezeichnet, was auf mich angenehmer wirkt. Deutliche Vorteile hat auch das höher aufgelöste OSD.


    Es kommt auch auf die persönlichen Vorlieben an.

  • Zitat

    Original von TEN
    Ein sehr vielversprechender Ansatz hierzu ist leider ins Stocken gekommen:
    DVI/HDMI-Ausgänge für FF-Karten und T-Online S100


    Was soll daran vielversprechend sein?
    Einen 576i MPEG2 Datenstrom zu dekodieren schafft jeder aktuelle x86 kompatible Prozessor mit Links. Das Problem ist Upscaling und Deinterlacing, dabei kann die FF-Karte nicht helfen. Wer einen HDTV-Fernseher hat, wird eher früh als spät den Wunsch haben auch HDTV-Sender zu empfangen, dann wäre die FF-Karte wieder mal die Bremse.


    Da die FF-Karte kein lebendes Wesen ist, gibt es keine moralische Verpflichtung an moderne Architektur extra für sie eine Behindertenrampe dran zu bauen. Man kann sie einfach in ihrer bisherigen Umwelt belassen oder sterben lassen.

  • Zitat

    Original von halbfertiger
    Wer einen HDTV-Fernseher hat, wird eher früh als spät den Wunsch haben auch HDTV-Sender zu empfangen, dann wäre die FF-Karte wieder mal die Bremse.


    oder in meinem Fall die PVR350. Daran hatte ich gar nicht gedacht. Natürlich will ich auch die öffentlich-rechtlichen HDTV-Sender sehen, die es im kabel gibt. Also brauche ich ein Ausgabedevice, das die volle Auflösung ausgibt. Aber auf Monster-Grafikkarten, die 30 Watt und mehr verbraten habe ich kein Bock. Eher warte ich auf die FF-HDTV und lasse die Sat-Tuner ungenutzt.

    VDR1: ACT-620, Asus P8B75-M LX, Intel Core i3-3240, 4 GB DDR3 RAM 1600 MHz, passive Geforce GT1030 von MSI, Sandisk 2TB SSD, 2xWinTV DualHD, Atric-IR-Einschalter. SW: Xubuntu 20.04 auf 64GB Sandisk SSD.

    VDR2: Odroid N2+ mit CoreELEC und Ubuntu in chroot, WinTV DualHD

    VDR3: Tanix TX3 mit CoreELEC und Ubuntu in chroot, WinTV DualHD

  • Zitat

    Original von Dr. Seltsam
    Natürlich will ich auch die öffentlich-rechtlichen HDTV-Sender sehen, die es im kabel gibt. Also brauche ich ein Ausgabedevice, das die volle Auflösung ausgibt. Aber auf Monster-Grafikkarten, die 30 Watt und mehr verbraten habe ich kein Bock. Eher warte ich auf die FF-HDTV und lasse die Sat-Tuner ungenutzt.


    wenn es dabei dann nur um Ard und ZDF geht ( 720p) , kannst Du das sehr gut, quasi nebenbei, auch Onboard erledigen. Bsw. der Onboard-Chipsatz 780G ( 0,95 Watt TDP) macht das mit Hardwarebeschleunigung Xvba sehr gut, praktisch kaum CPU Belastung. Deinterlacing für SD Sender müsste dann in Software laufen, aber das ist ja keine Hürde für heutige PCs.


    Gruß Fr@nk

  • Zitat

    Original von Dr. Seltsam


    oder in meinem Fall die PVR350.


    In meinen Augen ist das eine FF-Karte, allerdings eine mit analogem Empfangsteil und MPEG2-Encoder.

  • Zitat

    Originally posted by lola
    Deinterlacing für SD Sender müsste dann in Software laufen, aber das ist ja keine Hürde für heutige PCs.


    das wuerde ich so aber nicht unterschreiben. Fuer die Bildqualitaet ist hier (PAL) ein guter Deinterlacer essentiell. Und eine gewoehnliche CPU ist fuer die dazu notwendigen Algorithmen nicht designed: IMHO untauglich. Siehe Bildqualitaet von tvtime & Co.


    Fuer meine Begriffe ist nur eine Architektur wie z.B. realisiert auf nVidia Grafikarten mit entsprechender Zahl paralleler Streamprozessoren akzeptabel.


    An diesem Punkt scheitern auch die reinen Dekoder Chips wie Broadcom BCM70012. Es fehlt einfach ein vernuenftiger Deinterlacer!


    Einziger Ausweg aus dem Dilemma waere noch:
    Man schafft es, wie im FRC Patch das interlaced-Signal synchron am Videoausgang der GraKa auszugeben. Und ueberlaesst das Deinterlacing dem TV. Hier hat man aber wiederum das Problem, dass keine (mir bekannte) Grafikkarte von Haus aus dafuer ausgelegt ist. Geht also nur mit Tricks und nur fuer wenige handverlesene Produkte.


    - sparkie

  • Hallo,


    mal angenommen, alle gewünschten HD-Sender sind in 720p (Du schreibst von öff.-rechtlichen), dann muss keine megastarke Grafikkarte her.


    Berichten zufolge klappt das auch mit den leistungsschwächeren NVidia-VDPAU-Karten. Es müssen ja nur folgende Jobs erledigt werden:
    Für SD: 720x576i -> Dekodieren -> De-interlacen -> Upscaling
    Für HD: 720p -> Dekodieren -> Evtl. Upscaling


    Relativ viel Leistung benötigt 1920x1080i durch das notwendige De-Interlacen. Aber das scheint bei Dir nicht nötig zu sein.


    Viele Grüße
    HTPC-Fan

  • d.h. vdpau/nvidia-Treiber macht auch ein richtiges upscaling (nicht aufzoomen des Inhalts) ?

    VDR1: ACT-620, Asus P8B75-M LX, Intel Core i3-3240, 4 GB DDR3 RAM 1600 MHz, passive Geforce GT1030 von MSI, Sandisk 2TB SSD, 2xWinTV DualHD, Atric-IR-Einschalter. SW: Xubuntu 20.04 auf 64GB Sandisk SSD.

    VDR2: Odroid N2+ mit CoreELEC und Ubuntu in chroot, WinTV DualHD

    VDR3: Tanix TX3 mit CoreELEC und Ubuntu in chroot, WinTV DualHD

  • Zitat

    Originally posted by halbfertiger


    Was soll daran vielversprechend sein?
    Einen 576i MPEG2 Datenstrom zu dekodieren schafft jeder aktuelle x86 kompatible Prozessor mit Links. Das Problem ist Upscaling und Deinterlacing, dabei kann die FF-Karte nicht helfen.

    Letzteres sollte auch der Fernseher können.
    Vielversprechend wäre eben die Möglichkeit, mit geringem Bauteileaufwand FF-Karten (oder auch dbox2en etc.) einen HDMI-Ausgang zu verpassen.
    FullHD kommt natürlich nicht heraus, aber störungsfrei und softwareunabhängig innerhalb der HDMI-Spezifikation übertragenes SDTV in DVD-Auflösung - also das bis auf weiteres wohl noch gängigste Format.
    Die prinzipielle Machbarkeit haben die Drachen ja schon bewiesen; was nicht geklärt werden konnte, waren m.W. lediglich die Parameter zur optimalen Initialisierung der HDMI-Transceiverchips.

  • Zitat

    Original von TEN
    Vielversprechend wäre eben die Möglichkeit, mit geringem Bauteileaufwand FF-Karten (oder auch dbox2en etc.) einen HDMI-Ausgang zu verpassen.


    Möglich ist das, aber Zeit- und Geldverschwendung. Die FF-Karten haben inzwischen auch ohne Wunsch nach HDMI-Ausgang genügend Hardware-Engpässe die sie oft nur noch zur zweiten Wahl machen.


    Und bei dbox2 sieht es ähnlich aus (Probleme bei Sagem-Boxen in einigen Kabelnetzen). Außerdem gibt es seit fast 10 Jahren keine Neugeräte mehr, Hardware hält nun mal nicht ewig.

  • Zitat

    Original von sparkie
    An diesem Punkt scheitern auch die reinen Dekoder Chips wie Broadcom BCM70012. Es fehlt einfach ein vernuenftiger Deinterlacer!


    sicher, hohe Qualität braucht halt riesige Rechenleistung. Da muss man für sich dann praktisch abklären, wieviel dann sinnvoll sei.


    Gruß Fr@nk

  • Zitat

    Originally posted by halbfertiger

    Möglich ist das, aber Zeit- und Geldverschwendung. [...] Und bei dbox2 sieht es ähnlich aus

    Zeit und Geld wurden nun einmal schon investiert und haben bereits zum Erfolg geführt: http://vdr-portal.de/board/thr…?postid=908736#post908736 - so ein universelles Platinchen, das alle möglichen bislang nur internen DVOs zum TV führt, kann uns in vielerlei Hinsicht nützlich sein, ob Grafikkarte, DVB-Receiver oder Mediaplayer.
    Zudem findet mancher in der Weiterentwicklung vielleicht ein Thema für Studienarbeiten o.ä.

  • Dr. Seltsam


    Auch softdevice hat schon ein Upscaling des Materials übernommen, aber das z.B. ist IMHO heute eher kein Problem für die zu Verfügung stehenden Mitteln, z.B. VDPAU.


    Laß Dir da keinen vom Pferd erzählen, von wegen die neuen Karten Nvidia Karten beherrschen Feature Set C oder HQScaling. Das tun sie, aber die Fähigkeiten werden in reinem VDR@VDPAU Betrieb nicht genutzt. Es gibt z.B. kaum sichtbare Unterschied zw. einer 9500GT und einer G210, ich finde das Bild der 9500GT besser und die G210 problematischer, weil man sie am Rande ihrer Fähigkeiten betreiben muß.


    Aber wie sparkie schon sagt steht und fällt die Bildqualität mit dem Deinterlacing und das gut zu machen ist IMHO viel schwieriger. Man braucht nicht drum herum zu reden, interlaced Material sieht bis heute am Besten auf einem Interlace Ausgabegerät aus, bestes Beispiel ist immer Fußball. D.h. bei einem Flachbild-TV geht man immer einen Kompromiss ein.


    Das in softdevice eingebaute "lavc" hatte schon einen ganz passablen Job gemacht, oft besser als die in FlatTVs eingebauten Deinterlacer. VDPAU @ temporal/temporal spatial macht da IMHO mit den besten Job in unserem erreichbaren Rahmen, kaum einer in FlachTVs eingebauter Deinterlacer kann das besser.


    Sicherlich haben wir nie die Möglichkeiten, die z.B. eine Sendeanstalt hat, wenn sie 1080i60 Quellmaterial für die 720p50 Ausstrahlung aufbereitet, ist wohl auch nicht unsere Preisklasse.


    Lass Dich nicht kirre machen bzgl. Stromaufnahmen der Nvdidia Karten, sicherlich benötigen die Strom, aber 30 Watt benötigt max. eine GT220 mit viel Speicher bei 1080i, wenn überhaupt. Bei einer G210 reden wir m.E. über realistische 14Watt +/- 1 und bei einer 9500GT über 20Watt +/- 2. Und vergiß nicht, Du bekommst ja was dafür, ein ziemlich gutes Bild, auch bei Sport!


    Gruß
    Frank

    HowTo: APT pinning

    2 Mal editiert, zuletzt von fnu ()

  • Hallo Dr. Seltsam,


    ich habe beim Umbau meines Kinoraumes auf HD zu den Olympischen Spielen natürlich auch einige Tests gemacht.
    Dabei habe ich bei jeder Stufe eine sichtbare Bildverbesserung :


    - FF-Karte mit Composite Video
    - RGB (kann ich nur mit DVD-Player testen)
    - SD-Material mit HDMI, Upscaling im neuen VDR
    - Im Sender hochskaliertes Material auf HD-Kanal
    - Native HD


    HDMI ist sichtbar besser als Composite Video, bei den gleichen Aufnahmen. Mein Kabel vom VDR an den Projektor ist allerdings 10 m lang.


    Ich habe zwar einen Beamer (Sanyo Full-HD), bei einem großen Flachbild-Fernseher wird das aber ähnlich sein.


    Per HDMI im SD-Format an den Projektor und dann Upscaling im Projektor habe ich nicht probiert, das wird sicher keine Besserung ergeben.


    Grüße Bernd

    VDR : POV Atom 330-1 Mainboard, MSI TV@nywhere Satellite II, 2 GB RAM, natürlich mit yaVDR 0.61. Heimkino mit Onkyo AVR, Nubert-Surround-Boxen und JVC Beamer mit 4K und HDR. HD-VDR für Newbies: www.partyfotos.de/vdr

    Einmal editiert, zuletzt von Bernie7 ()

  • Moin!


    Da ich meinen VDR auch demnächst aufrüsten möchte, um ÖR-HDTV aus dem Kabelnetz aufzeichnen und sehen zu können, werde ich wohl auch eine Grafikkarte einbauen müssen. Mein VDR hat leider nur einen AGP-Slot und ich hab noch eine X1650 rumliegen. Mein Fernseher hat kein Problem mit DVI-Signalen.
    Mich interessiert, ob es eine Möglichkeit gibt das Material in seiner natürlichen Auflösung einfach an den Fernseher weiterzureichen und ihn dann alles machen zu lassen, also die Analog- und DVB-C-SD-Aufnahmen in 576i und HDTV in 720p. Gibt es ein Ausgabe-Plugin, dass anhand des Materials die Ausgabeauflösung umstellt?
    Zapping ist für mich kein Problem, der VDR wird nur zum Aufnehmen und Ansehen benutzt, zum Live-TV wird der Fernseher direkt benutzt.


    mini.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!