HW-Beschleunigung für h.264 mit VDPAU und Linux

  • Kommt ja drauf an was fuer ne Grafikkarte du hast.
    Wenn du eine hast , die max. 20 Watt zieht , dann kann sie auch net mehr ziehen.
    Hast du eine die 300 Watt zieht , dann wird es wohl turboschnell sein aber eben
    auch verbrauchstechnisch.
    Was ATI da anpreist ist ja nix neues imho.
    Das gabs schon bei meiner AGP 1600Pro und nannte sich Avivo-Encoder oder so.
    In der Tat ging das ziemlich fix.
    Denke mal die haben das nen bisserl optimiert oder anders ausgerichtet.
    Hmm..weiss garnet ob die 1600Pro schon Shader hatte ;)


    Na jedenfalls ist das so , dass ne GPU ziemlich fix bei Fliesskommaberechnungen ist
    aber ziemlich lahm bei Gleitkommaberechnung , was wiederum ne CPU sehr gut beherrscht.
    Deswegen ruckelt dein Spiel auch , wenn da ne olle Grafikkarte im Rechner steckt.
    Da kommt Fliesskommaberechnung natuerlich massenhaft vor. Sowie beim Encodieren auch.


    Deswegen lief damals F1GP1 auch net ohne Co-Prozessor auffen 386er lol (..wer's kennt...)
    Nix anderes passiert da jetzt auch beim Encodieren..Die GPU werkelt quasi als Co-Prozessor.


    Uebrigens rockt der 180.08 richtig ab ;)

  • So, mal Klugscheissermode an...
    Fliesskomma ist Gleitkomma repräsentiert durch float,double etc. eigentlich ein Übersetzungsfehler... float = fliessen/gleiten und die GPU ist schneller.
    Die andere Sache ist das Festkomma repräsentiert durch integer, das Komma ist nicht wirklich vorhanden. Man kann Euros z.B. auch durch Cents darstellen, hier ist die CPU schneller.

  • So ich habe es auch mal getestet..


    Grey.ts (AMD 4850e) :
    Also mplayer mit VPAU : CPU ~9 %
    mplayer (XV) : CPU ~45 %


    Bringt schon was ;)


    Quote

    Fliesskomma ist Gleitkomma repräsentiert durch float,double etc. eigentlich ein Übersetzungsfehler...


    Na..PISA halt.. ;)

  • Hallo,


    Punkto Fließkomma und Gleitkomma ... Ich denke alle wissen was Morone gemeint hat.
    .. Ganzzahlen (Integer ...)


    Ich bitte daher nicht weiter darauf rumzureiten, und sachlich zu bleiben. Vielen Dank an Alle. :unsch


    Punkto Ankündigung von ATI ist dies wohl eher mit CUDA vergleichbar. Das hat nichts mit VDPAU oder der gleichen zu tun. Wie Morone zutreffend festgestellt hat handelt es sich um hauptsächlich Fießkomma-Operationen, welche beim encoden in h.264-Material benötigt werden. Daher wurde CUDA offensichlich auch nicht als Zwischenlösung zum decoden von h.264 verwendet.
    Hingegen geht es beim decoden von h.264 um hauptsächlich Integer-Operationen.


    Gruß


    Erik

    OpenSuse 11.0
    Intel Core 2 Duo E8500, GeForce 8500 GT, 4GB RAM
    Röhren TV 16:9 (Angeschlossen über S-Video)
    AV-Verstärker (Denon AVC-A1HD)
    Full-HD Beamer (Angeschlossen über HDMI)


  • Hallo Morone,


    was heißt, du hast es getestet, was hast du genau gestestet?


    Ich dachte VPAU geht nur mit NVidia Karten, hast du auch getestet ob VPAU auch den Mencoder beschleunigt?


    Mich interessiert das brennend da ich festgestellt habe, daß meine Nvidia 7900GS nebst Dual CORE leider nicht in der Lage ist HD Filme ruckelfrei abzuspielen, und meine SMT7020 fürs Archivieren komprimieren in Xvid etc. Tage braucht.


    Da würde ich mit der richtigen Graka gleich zwei Fliegen mit ....


    Nur auf welches Pferd setze man ATI oder Nvidia?



    Gruß MG1234s

    1 * SMT 7020S + SMT-WakeUp von Steve135 Gen2VDR 2.0
    1 * Dell Dimension 9200 mit Skystar HD2 (ausgebaut) und opensuse 11.1
    1 * M3N78-EM, 4 GB Ram AMD 5050e und Skystar HD2

    The post was edited 1 time, last by mg1234s ().

  • Quote

    daß meine Nvidia 7900GS nebst Dual CORE leider nicht in der Lage ist HD Filme ruckelfrei abzuspielen


    Mit ner dicken CPU sollte das aber auch gehen ;)


    Was ich gemacht habe ??
    Na brauch ich ja net wiederholen , hat hddummy oben ja schon beschrieben.
    Treiber installiert. Mplayer , Codec , etc. ueber Script bauen lassen
    und Testsample abgespielt
    (Datei: Grey.ts , ist ne Pro7 HD Aufzeichnung, 1920 x 1200 , h.264).


    Werde mal nachher meine CPU runtertakten bzw. ausbremsen. Mal
    schauen obs dann deutlicher wird.


    Ob ATI oder Nvidia bleibt dir ueberlassen aber ich bereue den Wechsel
    auf Nvidia nicht . Im Gegenteil..

  • Hat vielleicht einer der Tester hier die Möglichkeit mal zu messen wieviel denn jeweils aus der Dose gezogen wird? Mich würde das wirklich mal interessieren.


    Gruß!

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • Was hat denn das Abspielen mit Stromverbrauch zu tun ??
    Da koennen 40 W verbraten werden oder 400 Watt.
    Das liegt wohl eher an deiner verbauten Hardware.
    So 'ne Nvidia GTX 280 zieht nun mal mehr als ne 8200er Onboardchip.


    Aber mal paar Daten , damit du besser schlafen kannst ;)
    CPU 4850e , Nvida 9800GT , 2 GB Ram , Skystar HD , 1 Festplatte , Mainboard DFI 790GX


    Idle: 69 W
    Waehrend Abspielen von Sample : 74 W
    E.T. zocken : 100 W


    Gemessen mit Baumarkt Messgeraet
    Wenns jetzt nen Mainboard mit 8200er Onboard-Chip waere ohne zusaetzliche Grafikkarte ,
    dann waere es wohl so 45 W beim Abspielen.
    Wenns ne sparsamere CPU waere dann noch weniger ,
    anstatt 500 W Coba Netzteil , noch weniger..
    Nur im -Wattbereich wirst wohl net kommen ;)


    Also ne Hardware die max. 20 W verbraucht verbraucht nicht auf einmal 100 W
    NA vielleicht habe ich deine Frage auch missverstanden.

  • Das beim Encoding kurzfristig evtl. wesentlich mehr verbraucht wird als bei einem länger dauernden Ecoding per CPU ist ja klar. Aber wie sieht die Sache denn bei Wiedergabe aus?
    Also mein System kann erstellte h.264 Dateien natürlich auch locker per CPU wiedergeben. Ich frage mich nur ob ein Einsatz einer kleinen passiv gekühlten Nvidia auch bei der Wiedergabe zu einer Einsparung führen würde. Würde ja kaum Sinn ergeben wenn die GraKa nachher mehr Strom braucht als die CPU, auch wenn die sich dann langweilt.


    Hoffe mich verständlich ausgedrückt zu haben.


    Gruß!

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • Na wenn die Grafikkarte weniger verbraucht als deine CPU dann ist das doch klar.
    Weiss ja net was fuer ne CPU du drin hast.


    Z.B wenn deine CPU am Anschlag laeuft und 100 Watt verbraet , isses schlauer da ne
    sparsamme Grafikkarte reinzubauen die z.B nur 20 Watt zieht , wenn sich dadurch die CPU
    runtertakten kann und nur noch 50 W verbraucht.


    Dann kommst mit CPU alleine auf 100 W und mit entlasteter CPU ( 50 W) und extra
    Grafikkarte (20 W) auf 70 W. ;)
    Ist jetzt mal son fiktives Beispiel


    Macht natuerlich mehr Sinn da nen sparsames Mainboard mot IGP einzusetzen mit sparsamer
    CPU . 1. wegen Verbrauch und 2. Kuehlung.

  • Also irgendwie reden wir aneinander vorbei :)
    Deine Ausführungen sind mir völlig klar.


    Mich interessiert halt ein konkreter Verbrauchswert eines Systems mit (z.B.) ner 8800 gt bei Wiedergabe eines h.264-Films


    a) mittels CPU
    b) mittels GraKa


    Ich habe k.A. wieviel die verschiedenen Grafikkarten so max. Verbrauchen. Andererseits ist ja auch die Auslastung der Karte bei Wiedergabe scheinbar nicht so einfach zu erfassen. Daher auch meine vorherige Frage dazu. Aus diesem Grund wäre doch mal ein Vergleich beider Wege auf dem selben System interessant - oder bin ich zu blöd und hab nen Denkfehler?


    Gruß!

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • Quote

    Ich habe k.A. wieviel die verschiedenen Grafikkarten so max. Verbrauchen. Andererseits ist ja auch die Auslastung der Karte bei Wiedergabe scheinbar nicht so einfach zu erfassen. Daher auch meine vorherige Frage dazu. Aus diesem Grund wäre doch mal ein Vergleich beider Wege auf dem selben System interessant - oder bin ich zu blöd und hab nen Denkfehler?


    Nen Vergleich hatte ich oben noch angehaengt.
    Ansonsten kannst das nicht vergleichen.
    Gibt Grafikkarten die ziehen 20 W dabei und welche die ziehen 50 W , weil sie im
    Idle Zustand schon jeweils 10 W bzw. 40 W ziehen.


    Gehe einfach von +~10 W Leistungsaufnahme des Systems aus ;) . Das ist jetzt aber net fundiert
    ermittelt. Kann man auch garnet so behaupten , kommt ja wieder auffe Konfiguration an.
    Mein Messgeraet zeigt es aber so an.
    Aber wenns darum geht was fuer ein System du dir zusammenstellen willst , dann musst halt
    vorher die Anforderungen wissen. Manchmal ist der schnellere Prozessor mit der hoeheren TDP
    der Sparsamere. Schliesslich erledigt er die Arbeit auch in kuerzerer Zeit.
    Na irgendwie wird es OT hier ;)


    Hier mal 2 Screenshots. Einmal ohne einmal mit VDPAU.
    den 4850e hab ich auf ~1200 MHz runtergetaktet (Multi 5.5) ~1,2 V.
    Da sieht man den Unterschied schon deutlicher , wenn die CPU etwas schacher ist.


    Man moege mir die Groesse verzeihen....(Nicht nach Bildqualitaet gehen , habe es verkleinert und 8bpp) ..Schon nen Unterschied.


    xv ( 1 Kern war immer ausgelastet)
    http://www.glaserei-franz.de/V…/files/Bildschirmfoto.png


    vpau (eigentlich blieb es immer bei ~ 6 %)
    http://www.glaserei-franz.de/V…iles/Bildschirmfoto-3.png

  • Wirklich effizient und stromsparend bekommt man das doch eh nur per onBoard Grafikchip hin.
    Eine lowCost 8400GS mit G86 benötigt im idle 11Watt und 20Watt im 3D-Modus. Die Leistungsaufnahme bei der Wiedergabe von H264 material dürfte ungefähr in der mitte der beiden Werte liegen, also bei ca. 15Watt.
    Eine mittelklasse 9600GT mit G94 benötigt knapp 30Watt im idle und über 60Watt im 3D-Modus. Hier dürfte die Last wie Morone schon sagte bei Wiedergabe ca. 10 Watt überm idle sein, also bei fast 40 Watt.


    Eine kleine Übersicht der Leistungsaufnahme aktueller Karten findet sich in der ct Ausgabe 23, vom 27.10.08 auf Seite 144.

  • OK. Danke für Eure Antworten!


    Gruß!

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • Hört sich alles sehr interessant an. Wenn es jetzt noch mehr als zwei HDTV-Sender gäbe, könnte man das auch vernünftig nutzen. Dieser ganze FullHD-Wahn ist schon irgendwie komisch. Überall gibts Displays, aber nirgendwo Inhalte :wand. Oder kauft sich etwa tatsächlich wer blue-ray Scheiben für 20 Öcken ?
    :nichtdoof


    Naja, wenn 2010 die Öffentlich-Rechtlichen loslegen, sollte diese VDPAU-Geschichte auf jeden Fall stabil sein und VDR bestens gerüstet sein.

  • Erklärt mir mal bitte: Hieß es nicht, es gäbe Patches für ffmpeg? Wenn man xine mit der Option, ein externes ffmpeg zu verwenden, kompiliert, geht das nicht? Anscheinend ja nicht, sonst hätte es ja jemand gemacht...

    yaVDR 0.5.0a
    Intel Core2Duo E6750, Asus P5Q,
    Gainward GT 240 512MB GDDR5, Hauppauge HVR-4000 & Nova-S2-HD, 4 GByte RAM
    an Panasonic TX-P42GW10 und Onkyo TX-SR508

  • Genau das meine ich, aber ich verstehe nicht: Lässt sich dieser jetzt schon in eine aktuelle xine-Version integrieren? Wenn ja, hätten wir doch schon den Graka-hardwarebeschleunigten VDR 1.7.x - zumindest wenn es keine Darstellungsfehler gibt...

    yaVDR 0.5.0a
    Intel Core2Duo E6750, Asus P5Q,
    Gainward GT 240 512MB GDDR5, Hauppauge HVR-4000 & Nova-S2-HD, 4 GByte RAM
    an Panasonic TX-P42GW10 und Onkyo TX-SR508