AMD / ATI XvBA - libva - wer nutzt es?

  • Zitat

    Original von fnu
    Schöner OffTopic Beitrag ...


    Aber weder der Broadcom Crystal noch die TT S2-6400 sind jetzt Verfügbar oder in Verbindung mit VDR nutzbar und ich glaube darum ging es.


    1. Hast Du hier nicht zu melden was off-topic ist


    2. Ist die crystal für jeden jetzt mit vdr nutzbar der programmieren kann, aber Du anscheinend nicht bei Deinem Hang zu proprietärem Mist.


    sparkie


    Ich brauch weder "deinterlacing" noch einen Fernseher, und der aktuelle Chip kanns.

    VDR1: yavdr ppa VDR 2.0.6 auf iBase Industrial Mini-ITX MB896IL +DVI- Modul +Gb Ethernet Mini-PCI Motherboard, Pentium M 740, 1GB RAM, mit 3x KNC1 C+/MK3 PCI auf LSI Logic 3x PCI-64 Rev. 2.3 Intel 21154 aktive Riser Card 2135-5V mit abgesägtem 64Bit- Steckerteil im PCI- Slot auf upriser,
    HDTV xineliboutput mit xine-plugin-crystalhd für Broadcom CrystalHD BCM970015 auf 15cm PCI-E 1x Flachbandriser im PCI-E 1x v.1.0a Slot.
    IPTV vdr-plugin-iptv und ffmpeg als rtsp/rtmp/hls "tuner frontend", stream sanitizer und mpegts wrapper.

    2 Mal editiert, zuletzt von woprr ()

  • Hanno


    Müssen wir nicht und weder "sparkie" noch ich haben das getan. Da ist wohl heute jemand auf dem falschen Fuß aufgestanden ...


    Gruß
    Frank

    HowTo: APT pinning

  • Zitat

    Originally posted by fnu
    Nein, es macht IMHO keinen Sinn z.Zt. auf die ATI Lösung zu setzen. Zuviele Dinge sind ungeklärt und nutzbar ist es eigentlich nur als Proof-of-Concept oder aus Spaß am Basteln.


    Wenn Du jetzt eine nutzbare HD-VDR Lösung willst, nutze VDPAU in Verbindung mit einer Nvidia Grafikkarte oder eine eHD.


    Wäre es denn dann gut, jetzt zu sagen man baut auf das 780G/RD3200-Board GA-MA78GM-S2H auf und steckt vorerst eine GF 210 rein (bspw. die Gainward GeForce G 210, 512MB DDR2, VGA, DVI, HDMI, PCIe 2.0) / deaktivert die onboard graka und nimmt die gf 210 wieder aus dem system, wenn die treiber für uvd ausgereift genug sind?


    oder bringt die version der uvd-engine auf dem GA-MA78GM-S2H eh nichts? (ich glaube, da ist UVD 1.0 drauf. Erst ab 785G ist UVD 2.0 im Einsatz)


    das GA-MA78GM-S2H ist nämlich momentan in meinem NAS-Server (debian-system). für den würde ich dann auch ein neues board holen, mit mehr pcie-steckplätzen für die zukünftige DVBS2-Hardware







    Dank und Gruß

  • barbonesucher


    Naja, noch ist gar nicht klar wie und was der Unterschied von UVD 1.0 zu 2.0 für uns bedeuten würde, da wie gesagt das alles eher noch "Labor-Status" hat.


    Ich habe meine ersten Schritte, siehst Du weiter oben im Faden, ebenfalls mit einer 780er OnBoard GPU gemacht, Radeon 3100, die konnte aber lt. Log UVD 2.0. Nun könnte ich mit einem Radeon 4200 weiterprobieren, aber da gibt es seit ein paar Tagen den Catalyst für Lucid, daher bin ich nicht weitergekommen. Ausserdem liegen die Prioritäten gerade ein wenig anders ...


    Soweit bekannt ist, wird AMD nur "bob" als Deinterlacer für Normalsterbliche freigeben. Das stört mich etwas und steigert nicht gerade mein Motivation hier weiterzumachen.


    IMHO ist eine Radeon-basierte HD-Lösung von allen die am weitesten entfernte. Ziemlich sicher steht in absehbarer Zeit die S2-6400 zur Verfügung und evtl. sogar vorher ein gangbarer Weg mit den Broadcom Crystal Chips.


    Wenn Du jetzt ein Lösung bauen willst, kauf Dir eine Nvidia Karte und warte ab wie sich der Rest entwickelt.


    Gruß
    Frank

    HowTo: APT pinning

  • @barbonsucher,


    Zitat

    oder bringt die version der uvd-engine auf dem GA-MA78GM-S2H eh nichts? (ich glaube, da ist UVD 1.0 drauf. Erst ab 785G ist UVD 2.0 im Einsatz)


    ich sage es mal so, es hängt von den Bedürfnissen ab.
    Ich habe den Onboard 780G Chipsatz mit HD3200 mit xvba laufen. Brauchbar damit schon mal für ARD und ZDF HD ( habe Olympia recht intensiv damit geschaut) sowie Full-HD Videos in Progressive .
    Deinterlacing sowie das ganze Steuerungs-Drum-herum ist noch Baustelle/ rudimentär. Von daher insgesamt momentan kaum richtig produktiv nutzbar, aber wenn die restlichen Sachen gelöst sind, wäre es Dank des stromsparenden Chipsatzes (siehe HIER) ein absoluter Hit.


    Gruß Fr@nk

  • zum OT:


    Ich meinte damit eher den Chipsatz hier AMD 780G 0,95 Watt (TDP) --> http://www.tomshardware.de/ath…stberichte-240084-3.html, der Rest ist stark Prozessor und Mobo-Ressourcen abhängig. Untervoltet mit k10ctl habe ich noch nicht, das kommt zum Schluss.


    Gruß Fr@nk

  • Was wesentlich näher liegt ist die Hardwarebeschleunigung auf dem Intel Ironlake Grafikkern (jeder, der in den Clarkdale Core i3 und i5 verbaut ist). Dafür existieren Patches für H264 Dekodierung mittels libva.


    Das ist meines Erachtens nach die vielversprechendste Lösung für die Zukunft. Intel ist immer sehr progressiv, was Linuxtreiber angeht. Außerdem braucht ein solches System extrem wenig Strom. Mein i5-650 auf dem Intel Q57 Board braucht zwischen 30 und 40 Watt beim SDTV Dekodieren in Software.

  • Zitat

    Originally posted by fwo
    Was wesentlich näher liegt ist die Hardwarebeschleunigung auf dem Intel Ironlake Grafikkern (jeder, der in den Clarkdale Core i3 und i5 verbaut ist). Dafür existieren Patches für H264 Dekodierung mittels libva.


    IMHO ist aber nicht die Dekodieren von H264 das eigentliche Problem. Das kann notfalls sogar noch eine CPU erledigen.


    Hauptproblem ist und bleibt wie auch bei SDTV das hochqualitative Deinterlacing:


    1. wenn es auf den TV verlagert werden soll werden hohe Anforderungen an die Synchronisation PC <-> TV gestellt.
    2. wenn es gleich der PC selbst uebernehmen soll bietet sich sinnvoll nur entsprechende Hardware (z.B. Streamprozessoren, siehe VDPAU) an.


    wuerde mich interessieren, wie das Problem von Intel geloest wird.


    - sparkie

  • Ich habe in einem Thread im XBMC Forum gelesen, dass ATI bis auf weiteres nur Bob-Deinterlacer unter Linux unterstützen will. Inwieweit das der Wahrheit entspricht, kann ich nicht beurteilen.


    Der Ironlake Kern (GMA HD) hat 12 Unified Shaders (ich glaub Intel nennt sie Execution Units). Diese takten mit 733 MHz (bzw. 900 MHz beim i5-661) deutlich höher als die der NVidia onboard Lösungen (500-550 MHz). Theoretisch sollte das für eine vektoradaptive Lösung ausreichen. Die Tests die ich bisher gelesen habe (leider alle unter Windows, weil Intel bis dato nur Windows Treiber mit diesen Features bietet) stufen die Qualität der Intel Lösung als sehr gut, mindestens vergleichbar mit den ATI und NVidia Lösungen ein.

  • Also im Hwluxx-Board schreiben sie aber noch von einigen Bugs, zumindest im Windows-Treiber, im Zusammenhang mit 23,97xx Hz, der würde immer alles als genau 24Hz ausgeben usw..


    Unter Linux kann uns das egal sein oder? XBMC gibt e immer alles als 50Hz aus oder irre ich mich da?


    mfg

  • Zitat

    Original von aelo
    Also im Hwluxx-Board schreiben sie aber noch von einigen Bugs, zumindest im Windows-Treiber, im Zusammenhang mit 23,97xx Hz, der würde immer alles als genau 24Hz ausgeben usw..


    Unter Linux kann uns das egal sein oder? XBMC gibt e immer alles als 50Hz aus oder irre ich mich da?


    mfg


    XBMC gibt auf Wunsch immer die zum Video passende Hz-Zahl aus, vorausgesetzt man hat einen dazu fähigen Monitor angeschlossen und die entsprechenden Werte in die xorg.conf gepackt.

    MLD 5.5 mit VDR 2.6.4 & Kodi 19.4 - Gigabyte GA-F2A88XM-HD3 - AMD A8-7600 - 4 Gb RAM - Ausgabe via MSI N220GT-MD1GZ mit softhddevice & vdpau - 19.2E & 28.2E Empfang via Linux4Media L4M-Twin S2 ver 6.5 - Terratec Aureon 5.1 Fun TTP8 - Crucial m4 CT064M4SSD2 - Seagate Exos 7E8 in Scythe Quiet Drive SQD-1000 - Medion X10 RF Remote Control 20016398

  • Zitat

    Original von aelo
    kann jemand XBMC mit der VAAPI testen?


    Na dann würde ich sagen, nimm mal wie alle anderen mal ein paar Euro in die Hand und besorge Dir HW, damit Du rausfinden kannst ob das läuft wie Du das gerne hättest ... :ausheck


    Zitat

    Original von villeneuve
    XBMC gibt auf Wunsch immer die zum Video passende Hz-Zahl aus, vorausgesetzt man hat einen dazu fähigen Monitor angeschlossen und die entsprechenden Werte in die xorg.conf gepackt.


    Das wird ungleich schwerer wie mit den Nvidia Karten @ VDPAU. Der Nividia Treiber stellt die Funktion mit den Metamodes zur Verfügung, die diese dynamische Umschaltung erlauben/ermöglichen. Dies gibt es bei den ATI Treibern nicht, es mir nicht klar ob die überhaupt eine dynamische Umschaltung erlauben und vorallem weiß ich nicht ob Xorg eine anwendungsgesteuerte Umschaltung zwischen den dann zu definierenden Modelines zuläßt.


    Gruß
    Frank

    HowTo: APT pinning

    2 Mal editiert, zuletzt von fnu ()

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!