FF als Grundlage für DVI-Ausgang?

  • Hallo Zusammen,


    daheim habe ich jetzt mehrere VDRs stehen, welche an unterschiedlichen Ausgabedevices ihren Dienst verreichten.


    Üblicherweise gehe ich dabei über SCART/RGB an die Geräte, soweit diese das mögen :)


    Jetzt schwärmt aber Wicky immer so dermassen von der Bildqualität mittels DVI, dass ich meinen schönen LCD auch damit beglücken möchte.


    Hier die Frage: Ist es möglich, das FF-Signal (ich habe nunmal FFs) mittels fbtv o.ä. "abzugreifen" und dann dem DVI-Ausgang zuzuspielen oder würde das qualitätstechnisch nicht ausreichen. Muss das decodieren des Datenstroms zangsläufig via CPU erfolgen oder kann das nach wie vor die ja vorhandene FF-Karte erledigen??


    Hintergund: Meine Rechner sind -nahezu ausnahmslos- alte Scenics mit 400-500Mhz-CPUs, die ich in der Bucht für nen Zwanni geschossen habe... relativ leise und billig im Unterhalt. Ungern würde ich hier auf was größeres (Prozessortechnisch) ausweichen müssen.



    An Ideen interessiert,


    rael

  • Tvtime ist dein Freund!


    Läuft unter X und sollte je nach verwendetem Deinterlacer auch mit schwächeren CPUs laufen. Der Grafikkartentreiber sollte aber Xv unterstüzen.


    Tvtime nimmt das von der FF dekodierte Bild über /dev/video entgegen, führt ein Deinterlacing durch und skalieriert das Bild auf die Monitorauflösung. Die MPEG2-Dekodierung erledigt also weiterhin die FF-Karte.


    Wenn man es schafft, den LCD-TV über DVI mit seiner nativen Panelauflösung und am besten mit 50Hz anzusteuern (passende Modeline in der /etc/xorg.conf), ergibt sich das wohl bestmögliche Bild, deutlich besser als über Scart-RGB!


    Gruß
    Guido

    VDR1
    HW: Lintec Senior, Aopen MK79G, Sempron 2600+, 1GB DDR1, HDD 80 GB, FF 2300
    SW: easyvdr 06.10 + 2.6.22-15 multiproto, vdr-1.7.0, nv-96.4316


    VDR2
    HW: SilverStone LC11, TFX 300W, Biostar G41D3, PDC E6300, 2GB DDR3, 500 GB WD-AV, 2x TT S2-1600, GT240
    SW: yaVDR-0.1.1 + nv-195.36.15, vdr-1.7.14, xinelibout-cvs20100331

  • Zitat

    Original von gundi61


    Tvtime nimmt das von der FF dekodierte Bild über /dev/video entgegen, führt ein Deinterlacing durch und skalieriert das Bild auf die Monitorauflösung. Die MPEG2-Dekodierung erledigt also weiterhin die FF-Karte.


    ...kannst du einschätzen, wieviel Performance Tvtime wohl bei einem P3 mit sagen wir mal 500MHz oder 1000MHz frisst? (Oder meinetwegen auch bei einem anderen Prozessor)


    Das würde mich mal interessieren.


    Gruß
    Wicky

  • Bei mir läuft derzeit ein runtergetakteter Sempron 2600 (133 statt 166 MHz FSB) mit Radeon 9250.
    Laut top nimmt sich tvtime selber bei max. Auflösung und "Motion Adaptiv: Motion search"-Deinterlacer (der aufwendigste) rund 37% CPU (insgesamt ca. 45%).
    Bei den einfacheren "Scaler Bob" oder "Progressive:Top Field First" (=Weave)-Deinterlacern sind's ca. 10%.


    Mit dem alten Duron 850 im gleichen Board war es etwa doppelt so viel. Mit dem "Motion Adaptiv: Motion search" wurde es da schon sehr eng.

    VDR1
    HW: Lintec Senior, Aopen MK79G, Sempron 2600+, 1GB DDR1, HDD 80 GB, FF 2300
    SW: easyvdr 06.10 + 2.6.22-15 multiproto, vdr-1.7.0, nv-96.4316


    VDR2
    HW: SilverStone LC11, TFX 300W, Biostar G41D3, PDC E6300, 2GB DDR3, 500 GB WD-AV, 2x TT S2-1600, GT240
    SW: yaVDR-0.1.1 + nv-195.36.15, vdr-1.7.14, xinelibout-cvs20100331

  • Wicky


    Habe tvtime + FF auf meinem alten Server auch eingesetzt.
    Das war ein Athlon-800 + ATI Rage Pro AGP (o.ä.) mit XV-Unterstützung.
    Damals hatte ich mit dem Motion Adaptive Simple Detection-Deinterlacer ca. 50-55 % Auslastung, wenn ich mich recht erinnere.


    Und das Bild aufm TFT sah in meinen Augen Sahne aus.
    Auch besser und flüssiger als jetzt mit xineliboutput und/oder xine.


    Grüsse, Kleo

    VDR-Server: Core i3-6100, 8GB Ram, Gigabyte Board, Adata SSD, Ubuntu 16.04, Kodi 16.1 + PVR über VNSI

  • gundi61 und Kleo


    ich dank euch beiden.


    D.h. also mit einer schwachbrüstigen CPU nimmt man lieber den Deinterlacer von Xine.


    Hat man jedoch eine flotte CPU und ein größeres LCD/Beamer/Plasma Bild, dann sollte man sich um TvTime kümmern.


    Leider ist mein 40"-LCD z.Z. defekt, sonst hätte ich mich demnächst auch wieder um TvTime gekümmert, da bei mir wohl die Voraussetzungen für TvTime idealerweise erfüllt sind.


    Gruß
    Wicky

  • Hmm,


    um das mal zusammenzufassen:


    Ich vergesse meinen "altersschwachen" Scenic, bastele mir also -schon wieder- ein neues Gehäuse mit einer etwas leistungsstärkeren CPU. 1Ghz darf's dann schon sein.


    Dann kann ich ja via DVI-Out auf HDMI-IN meines LCD-TVs gehen. Konverter hierfür gibt es für Geld. Ansonsten hat mein LCD nur VGA und SCART sowie RGB in. Mein Beamer ebenfalls.


    Was mich jetzt "beunruhigt":


    1. Lautstärke. Die Scenics sind "out of the box" schön leise zu kriegen. Zwar keine echte Schlafzimmerqualität (meint meine bessere Hälfte), aber hinreichend, wenn man schaut (also keine Aufnahmen für die Nacht programmieren).


    2. graphtft Wenn ich dass dann richtig verstehe, sind dann "alle" Möglichkeiten verbaut, graphtft zu benutzen. Der FB-Device der GRaKa ist ja schließlich schon "weg".


    Ok, letzteres wäre für's Schlafzimmer zu verschmerzen. Halt ein neues Gehäuse bauen inkcl. GraKa mit DVI-Out und Prozessor der etwas besseren Leistungsklasse.


    Wicky: Also großer Exprte auf dem Gebiet: Wie würdest Du das Thema angehen? Bis jetzt gehe ich halt immer den einfachen Weg via FF-J2-Scart. Aber die von Dir oft als überragend eingestufte Bildqualität auf großen LCDs (habe "nur" nen 32er und einen Beamer) macht mich halt auf die andere Lösung neugierig.


    Empfehlungen gerne gesehen :)


    Gruß,


    rael

  • Zitat

    Original von rael
    Ich vergesse meinen "altersschwachen" Scenic, bastele mir also -schon wieder- ein neues Gehäuse mit einer etwas leistungsstärkeren CPU. 1Ghz darf's dann schon sein.


    Dann kann ich ja via DVI-Out auf HDMI-IN meines LCD-TVs gehen. Konverter hierfür gibt es für Geld. Ansonsten hat mein LCD nur VGA und SCART sowie RGB in. Mein Beamer ebenfalls.


    Also, ich würde es einfach mal mit dem Scenic probieren, evtl. erstmal mit VGA. Wenn man es schafft, den LCD über VGA nativ 1:1 anzusteuern, ist das Bild idR ähnlich gut wie über DVI.


    Die adaptiven Deinterlacer kannst du dann zwar sicherlich vergessen, aber mit den "Scaler-Bob"- (für Video/Interlaced-Material) oder den "Progressive/Weave"-Deinterlacern (für DVD/Film-Material) könnte es durchaus klappen.


    Gruß
    Guido

    VDR1
    HW: Lintec Senior, Aopen MK79G, Sempron 2600+, 1GB DDR1, HDD 80 GB, FF 2300
    SW: easyvdr 06.10 + 2.6.22-15 multiproto, vdr-1.7.0, nv-96.4316


    VDR2
    HW: SilverStone LC11, TFX 300W, Biostar G41D3, PDC E6300, 2GB DDR3, 500 GB WD-AV, 2x TT S2-1600, GT240
    SW: yaVDR-0.1.1 + nv-195.36.15, vdr-1.7.14, xinelibout-cvs20100331

  • wbreu


    Nun, wie soll graphtft über die FF laufen, wenn diese doch das Bild für /dev/video bereitstellen muss.


    gundi61


    Ich werde das mal versuchen. Hab' aktuell zwar nur so eine billige GeForce GraKa an Board (wozu auch mehr), aber X aufzusetzen und tvtime ans laufen zu bringen sollte jetzt nicht 4 Monate dauern.


    Danke für den Tip. Hatte bei einem früheren Versuch mit einem EPIA aber Probleme, den LCD 1:1 anzusprechen (1366x786), da ging nur 1024x786. Sah entsprechend "bescheiden" aus beim Surfen. Könnte aber auch am Epia gelegen haben, wer weiss das schon.


    Die Frage ist: Ist das Bild via "Scaler-Bob" oder "Progressive/Weave" besser als SCART via J2?


    Wicky??


    rael

  • rael,


    naja, wenn du z.B. noch ne zweite Karte hast!?


    Im Wiki steht:


    Zitat:


    Plugin welches über ein Framebuffer-Device oder eine zweite Fullfeature-DVB-Karte Informationen ausgibt.


    Folgende Kommandozeilenparameter gibt es
    Parameter (kurz) Parameter (lang) Beschreibung
    -d <DEV> --device=<DEV'>> Setzt das Gerät, z.B.: /dev/fb0 oder für VDR-Dev.: vdr/1


    Wobei mein Gedankengang war, als Primäres Device ne Budget und als Secundäres die FF. Wie gesagt, hab das noch nicht probiert, aber die Ausgabeprogramme wie Xine usw. setzten ja nicht umbedingt ne FF voraus.
    Is halt die Frage was TvTime als Mindestvoraussetzung hat FF oder Budget?




    Gruß
    Wolfgang

  • Zitat

    Original von rael
    Danke für den Tip. Hatte bei einem früheren Versuch mit einem EPIA aber Probleme, den LCD 1:1 anzusprechen (1366x786), da ging nur 1024x786.


    1366 Punkte horizontal können die wenigsten Grafikkarten ausgeben (Auflösung muß idR durch 8 teilbar sein). Du solltest es mit 1360x768 versuchen. Dann hängt es aber noch vom TV ab, ob er diese Auflösung 1:1 darstellt oder auf seine nativen 1366 Pixel hochskaliert.


    Zitat

    Original von rael
    Die Frage ist: Ist das Bild via "Scaler-Bob" oder "Progressive/Weave" besser als SCART via J2?


    Ja! Hängt natürlich auch vom TV (bzw. dessen eingebaute Scaler/Deinterlacer) ab, mMn macht tvtime seinen Job aber sichtbar besser als die meisten LCD-TVs.
    Bei mir ist das Bild über Scart-RGB immer etwas weichgezeichnet, über tvtime/DVI dagegen knackscharf, soweit man das von einem PAL-Signal sagen kann ;)

    VDR1
    HW: Lintec Senior, Aopen MK79G, Sempron 2600+, 1GB DDR1, HDD 80 GB, FF 2300
    SW: easyvdr 06.10 + 2.6.22-15 multiproto, vdr-1.7.0, nv-96.4316


    VDR2
    HW: SilverStone LC11, TFX 300W, Biostar G41D3, PDC E6300, 2GB DDR3, 500 GB WD-AV, 2x TT S2-1600, GT240
    SW: yaVDR-0.1.1 + nv-195.36.15, vdr-1.7.14, xinelibout-cvs20100331

  • wbreu


    Naja, ich habe mehrere VDRs mit jeweils einer FF-Karte, daher fällt das mit der zweiten FF Karte als graphTFT Grundalge wohl flach.


    gundi61


    Das Wochenende wird als Test-Zeitraum mal hergenommen... Mal sehen, ob ich X mit dieser Auflösung ans fleigen kriege. Wenn das funzt, mache ich mich mal an tvtime heran. Wer weiss :-))


    Gruß,


    rael

  • rael


    ...ich kann mich dem oben gesagtem nur anschließen.


    Ob sich VGA oder DVI lohnt hängt also von zwei Faktoren ab:


    - Wie verhält sich der LCD wenn er mit seiner nativen Auflösung angesteuert wird? Wandelt er erst in eine Zwischenauflösung runter um dann wieder hoch zu wandeln?


    - Kann die verwendete Grafikkarte die native Auflösung oder zumindest eine Auflösung, die der nativen sehr nahe kommt via VGA oder DVI ausgeben?


    Lassen sich beide Fragen positiv beantworten, dann sollte DVI/VGA ein deutlich knackigeres Bild geben als RGB/SCART.


    Ich möchte an dieser Stelle nochmal das M2NPV-VM in die Runde werfen, da es vermutlich hier etwas interessantes bieten kann.


    Das M2NPV-VM hat einen TV-Out (FBAS, S-Video, YUV) und eine kombinierte VGA/DVI Buchse. Das Board kann einmal analog und einmal digital parallel ausgeben.


    Ich habe den TV-Out schon mit laufendem X-Server testen können. Es lief noch nicht alles perfekt, aber ich bin nach ersten Tests optimistisch, dass sich der TV-out so konfigurieren lässt, dass er effektiv nutzbar ist.


    Mit diesem Board könnte man also eventuell ein großes Display via DVI ansteuern und dann noch zusätzlich ein kleines TFT via TV-out.


    Aber ich vermute, dass es nicht möglich ist, auf einem der beiden Displays einen X-Server laufen zu lassen und auf dem anderen einen Framebuffer. Zweimal Framebuffer oder zweimal X-Server sollte jedoch möglich sein.


    Leider kann ich hier momentan nicht weiter testen, da mein LCD defekt ist.


    Aber, wenn man es gescheit eingerichtet bekommt, dann benötigt man für das kleine TFT und das große LCD keine zusätzliche Hardware, weder eine FF, noch eine Grafikkarte oder gar eine dxr3.


    Das finde ich sehr interessant.


    Gruß
    Wicky

  • Hat das schon jmd. an nem großen TCD mal echt getestet oder nur an kleinen LCDs? Erst dann sieht man ja echte Unterschiede.

  • Hallo!


    Ich benutze auch schon (denke 2 Jahre) tvtime. Hab 1024x768 Auflösung gewält für den Sony Projektor (siehe Signatur). Hab auch den "besten" Deinterlacer, Bild ist sehr gut, ein wenig schlechter bei die Sender was 480x576 ausstrahlen. Z.b. ORF, ARD, ZDF, . . . haben eine hoche Bildrate, das macht sich bemerkbar auch nach dem skalieren.


    lg
    lattensepp


    P.S.
    Hab das ganze auch mal an Celeron M 1400 Mhz probiert inkl Intel 950 Grafikonboard, da war die Auslastung so um die 40%, AMD Athlon 939-3700+ hat so zwischen 21-26% geschwankt, 3200+ war am meistens so um 25-30%, jetzt der dualcore 4200+ AM2 so um die 10-15% (alle Werte von Systemmonito da ich den auf der leiste habe), sehe gerade 21% für Athlon 64 AM2 4200+, nimm an das tvtime auch nur ein core nutzt
    :)



    Ups, und das ganze auf einer Fläche von 240cm x 180cm

    VDR: Intel DH77EB, i3-2125, 8 GB RAM, Debian Wheezy, Microsoft MCE Remote, Silverstone LC20 Black
    REST: Infocus IN8601 1920x1080 Projektor, Denon AVC-A1XVA, DENON DVD-A1XVA, 2x "AUDIMAX" Selbstbau, 4x Magnat Dipol 5, 1x Magnat Center 5, 1x "the bigONE" Woofer, Leinwand Möbelplatte 240x180cm...!

    Einmal editiert, zuletzt von LattenSepp ()

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!