Wie kann man Geforce 6/7 und G80 für die HD-Wiedergabe unter Linux Nutzen ?

  • Hallo,


    mal wieder eine neuer Thread.
    Mit diesem Thread würde ich gerne erreich, dass Erfahrungen bzgl. der Wiedergabe verschiedensten HD-Materials gesammelt werden. Vielleicht hat Jemand bereits Erfahrungen mit diversen Playern oder sogar dem VDR gemacht. Hierzu sind natürlich auch Windows Nutzer eingeladen.
    Wichtig fände ich die Info, mit welcher HW diese Erfahrungen gesammelt wurden.


    Anlass für diesen Thread halte ich eine hier begonnene Diskussion


    http://www.vdrportal.de/board/…?postid=772583#post772583


    Hier noch die Zitate:


    Hallo,


    ...


    Bzgl. Geforce 6,7 und G80 gibt es schlechte Nachrichten.


    http://www.nvnews.net/vbulletin/showpost.php?p=1853112&postcount=14


    Die beworbene HW-Beschleunigung bzgl. h264 ist wohl sehr gering und wurde mittlels Shaders realisiert.
    Der Rest wird unter Windows wohl mittels DirectX erledigt. Es handelt sich wohl vielmehr um eine Marketing Darstellung ...


    http://www.nvnews.net/vbulletin/showpost.php?p=1853242&postcount=16


    Mittels VDPAU wird es da wohl auch nichts geben. Für mich hört sich das so an, als fast nicht andere übrig bleibt als DirectX zu analysieren... :angryfire[/quote]


    -----------


    Zitat

    Originally posted by jerily

    Oder eben eine neue Karte, die vollwertige Videoprozessoren hat. Eine G80 ist doch sowieso so ein Stromschlucker, sie in einem VDR einzusetzen paßt doch nicht gut zusammen. Die ganzen aktuellen 30/40/50€ LowEnd Chip und aktuellen IGPs scheinen alle vollwertige Videochips zu haben und können auch VC1.


    -----------------



    ---------------


    Zitat

    Originally posted by JK1974
    hddummy:
    Schlimmer noch - habe auch was, was ich in noch keinem Forum gelesen habe: Ich habe mit einer GeForce 7600 mal einen Full-HD-Film auf einem Full-HD-Screen wiedergeben wollen. Ergebnis: Seltsam "kantiges" Bild, als handle es sich um eine Skalierung über Pixelwiederholung. Gleicher Rechner, gleiches System, GeForce 8600: Alles ok.
    Seitdem behaupte ich: Alle Karten < GeForce 8 können kein Full-HD.
    P.S.: Bezieht sich natürlich auf Windoof...


    ------------



    So, dann viel Spaß.


    Gruß


    Erik :unsch

    OpenSuse 11.0
    Intel Core 2 Duo E8500, GeForce 8500 GT, 4GB RAM
    Röhren TV 16:9 (Angeschlossen über S-Video)
    AV-Verstärker (Denon AVC-A1HD)
    Full-HD Beamer (Angeschlossen über HDMI)

  • Der G80 hatte nie besondere Videofähigkeiten und war ja eigentlich nur für 3D Leistung gebaut. Der moderne Videoprozessor war ja erst bei den Low/Mid-range Abkömmlingen des G80 verbaut, die HighEnd Karte selber hatte das nie drin. Und mit der GeForce 6/7er (was ja auch die G80 drin hat) Generation war NVIDIA ja auch nie für ihre Videoleistung bekannt (auch unter Windows nicht), da war ATi sehr deutlich vorn (in den ersten 6er GF war diese Schaltung sogar völlig defekt). Erst mit den VP2/VP3 hat man eigentlich ein adäquates Konkurrenzprodukt.


    Ich kann NVIDIA da schon verstehen, daß sie bei einem Neubeginn jetzt nicht diese Bastellösung mitschleppen wollen, die es nur gab weil sie damals nichts Vernünftiges hatten und bin eher froh, daß es da nun überhaupt etwas gibt.

  • Hallo,


    Die Boards mit 8200/8300 Chipsets sind schon HD tauglich.
    Dadurch daß der Speichercontroller bei AMD Boards in der CPU ist, hat die GPU keinen schnell genügenden Zugriff auf den Speicher, um ein vernünftiges Deinterlacing und Postprocessing zu ermöglichen, muß die GPU eigenen Speicher haben, oder es muß zumindestens ein separater Memory Controller auf dem Board sein, und dies ist ja bei AMD Boards normal nicht der Fall.
    Aus diesem Grund gibt es dann auch AM2 Boards die Speicher auf dem Board selbst haben z.B. die 790G Boards mit Sideport Memory.
    Aber ich habe bisher nirgends lesen können, ob es bei diesen Boards möglich ist sie so zu schalten, dass sie nur den Sideport Memory nutzen. Und ob dann das vector adaptive Deinterlacing auch funktioniert, wenn man nur einen A64 x2 und keinen Phenom nutzt
    Aufgrund der problemloseren Nutzung von 24p, und der 8 Kanal PCM Übertragung per HDMI ist NVIDIA sowieso im Moment die bessere Wahl, nur eben leider deutlich teurer oder - Verzicht auf die OnBoard GPU und eine Grafikkarte aufs Board stecken, so erspart man sich den AMD Engpass.

    VDR-Server: Ubuntu 16.04 mit TVH
    als SAT>IP, PLEX Media, und Asterisk Server - ASRock J1900M, DD Cine S2 V6.5 + 3 * DuoFlex S2, 8GB Ram, 8x6 TB HDDs + 8x6 TB Backup Server alle 24 Stunden via rsync, kein Raid
    VDR Clients: yaVDR 0.6.0, ASRock Q1900B, 2GB Ram, 16 GB USB-Stick, Zotac GeForce GT 730, keine Lüfter - alles mit Heatpipes gegen Starngkühlkörper

  • Zitat

    Originally posted by jerily
    ...


    Ich kann NVIDIA da schon verstehen, daß sie bei einem Neubeginn jetzt nicht diese Bastellösung mitschleppen wollen, die es nur gab weil sie damals nichts Vernünftiges hatten und bin eher froh, daß es da nun überhaupt etwas gibt.


    Nachdem die Hintergründe bekannt sind, macht es wirklich keinen Sinn dies mit biegen und brechen mit VDPAU zu Lösen. Deswegen habe ich diese Thematik auch von VDPAU abgelöst und sehe eher eine mögliche Lösungserarbeitung bei der Comunity.


    Nach der Aussage im NVIDIA-Forum wage ich sogar zu bezweifeln, ob NVIDIA überhaupt Hand bei dem Software-Part der gepriesenen HW-Beschleunigung anzulegen wird.
    Vielmehr gehe ich davon aus, dass dies mittels diverser Applikationen wie Mplayer und Co oder einem Zwischenlayer, wie es bei Windows DirectX ist, mit den vorhandenen Treibern gelöst werden kann.


    Ich habe überhaupt keine Ahnung von Shader-Programmierung, jedoch erscheint mir dies als ein möglicher Ansatz.


    Kann hier vielleicht Jemand eine Aufklärung geben, was Shaders bzgl. h264 leisten könnten, oder schon leisten ?

    Gruß


    Erik

    OpenSuse 11.0
    Intel Core 2 Duo E8500, GeForce 8500 GT, 4GB RAM
    Röhren TV 16:9 (Angeschlossen über S-Video)
    AV-Verstärker (Denon AVC-A1HD)
    Full-HD Beamer (Angeschlossen über HDMI)

  • Hallo,


    Nach meiner Meinung sind die 82/8300 Chipsets von Nvidia jetzt schon total veraltet - ich poste hier mal einen Link wo die verschiedenen IGP Chipsets verglichen werden.
    Da kann man sich recht einfach selbst ein Bild davon machen wer die Gewinner und wer die Verlierer sind.
    Nach meiner Meinung bildet der GF 93/9400 zusammen mit dem Intel E5200 heute, und auch noch für die nächsten Jahre, die ideale VDR/HTPC Basis, selbst ohne VDPAU steht in dieser Kombination dem HDTV Vergnügen nichts im Weg.
    Ich habe zur Zeit einen Test VDR in dieser Kombination aufgebaut und bin immer noch über den doch sehr geringen Stromverbrauch überrascht, von den Videoleistungen ganz zu schweigen.


    Unter http://www.anandtech.com/mb/showdoc.aspx?i=3432&p=1 findest Du den ausgibigen Test.

    VDR-Server: Ubuntu 16.04 mit TVH
    als SAT>IP, PLEX Media, und Asterisk Server - ASRock J1900M, DD Cine S2 V6.5 + 3 * DuoFlex S2, 8GB Ram, 8x6 TB HDDs + 8x6 TB Backup Server alle 24 Stunden via rsync, kein Raid
    VDR Clients: yaVDR 0.6.0, ASRock Q1900B, 2GB Ram, 16 GB USB-Stick, Zotac GeForce GT 730, keine Lüfter - alles mit Heatpipes gegen Starngkühlkörper

    Einmal editiert, zuletzt von SED9 ()

  • Hallo zusammen,
    ich habe mal kurz :google bemüht und siehe da, am Ende der folgenden Seite steht die Antwort auf die Frage ob Mainboards mit 8300er GPUs dafür geeignet sind:
    http://www.nvnews.net/vbulletin/showthread.php?t=123091


    So wie es aussieht sollte es kein Problem sein...


    Schöne Grüße.
    Jarod

    Gehäuse: Intertech 4U 4416, Board: Supermicro X11SAE; Kathrein EXIP418; OS: Ubuntu 18.04; Plugins: xineliboutput, satip, burn, femon, live, streamdev-server, text2skin:anthra-1920

    2x RPI2/3; Plugins: rpihddevice; videodir via NFS


  • hi


    danke für deine mühe-den eintrag kannte ich bereits-aber es steht auch überall dass nicht genau bekannt ist mit welchen karten es wie gut funktioniert. hatte daher auf reale ergebnisse oder einfach einige einschätzungen derer die sich schon länger/intensiver damit befassen als ich gehofft.


    die e5200+9400 konfiguration habe ich mir jetzt mal angesehn. scheint aber doch deutlich teurer als ein amd system zu sein. wie sieht es denn genau mit dem stromverbrauch aus? so viel unterschied?


    mfg
    MacGyver

  • moin,


    was SED9 in seinem letzten Beitrag schreibt ist Mist (sorry).


    Weder sind die 8200/8300er Boards veraltet , noch sind sie inkl. 9300/9400er das Mass
    fuer die naechsten Jahre. Die CPU E5200 schon garnet.
    Dasses mit dicken Prozessor auch ohne VDPAU geht ist nix neues und dass der Rechner
    nur durch CPU-Leistung (bei 2,5 GHz wahrscheinlich auch noch overclocked, sonst wirds
    eng ) sparsam sein soll , bezweifele ich doch stark. Na kommt drauf an was man darunter
    versteht. ;) Denke mal das liegt so bei ~>80 W mit vernuenftigen Inhalt.
    Hier gehts aber um ~40 W ;) was selbst mit 8200er "und" VDPAU moeglich ist.



    Aber irgendwie OT , geht hier um was anderes....

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!