You are not logged in.

Dear visitor, welcome to VDR Portal. If this is your first visit here, please read the Help. It explains in detail how this page works. To use all features of this page, you should consider registering. Please use the registration form, to register here or read more information about the registration process. If you are already registered, please login here.

1

Thursday, December 4th 2008, 9:14am

Wie kann man Geforce 6/7 und G80 für die HD-Wiedergabe unter Linux Nutzen ?

Hallo,

mal wieder eine neuer Thread.
Mit diesem Thread würde ich gerne erreich, dass Erfahrungen bzgl. der Wiedergabe verschiedensten HD-Materials gesammelt werden. Vielleicht hat Jemand bereits Erfahrungen mit diversen Playern oder sogar dem VDR gemacht. Hierzu sind natürlich auch Windows Nutzer eingeladen.
Wichtig fände ich die Info, mit welcher HW diese Erfahrungen gesammelt wurden.

Anlass für diesen Thread halte ich eine hier begonnene Diskussion

http://www.vdrportal.de/board/thread.php…2583#post772583

Hier noch die Zitate:

Hallo,

...

Bzgl. Geforce 6,7 und G80 gibt es schlechte Nachrichten.

http://www.nvnews.net/vbulletin/showpost…12&postcount=14

Die beworbene HW-Beschleunigung bzgl. h264 ist wohl sehr gering und wurde mittlels Shaders realisiert.
Der Rest wird unter Windows wohl mittels DirectX erledigt. Es handelt sich wohl vielmehr um eine Marketing Darstellung ...

http://www.nvnews.net/vbulletin/showpost…42&postcount=16

Mittels VDPAU wird es da wohl auch nichts geben. Für mich hört sich das so an, als fast nicht andere übrig bleibt als DirectX zu analysieren... :angryfire[/quote]

-----------

Quoted

Originally posted by jerily

Quoted

Bzgl. Geforce 6,7 und G80 gibt es schlechte Nachrichten.

http://www.nvnews.net/vbulletin/showpost…12&postcount=14

Die beworbene HW-Beschleunigung bzgl. h264 ist wohl sehr gering und wurde mittlels Shaders realisiert.
Der Rest wird unter Windows wohl mittels DirectX erledigt. Es handelt sich wohl vielmehr um eine Marketing Darstellung ...

http://www.nvnews.net/vbulletin/showpost…42&postcount=16

Mittels VDPAU wird es da wohl auch nichts geben. Für mich hört sich das so an, als fast nicht andere übrig bleibt als DirectX zu analysieren... :angryfire
Oder eben eine neue Karte, die vollwertige Videoprozessoren hat. Eine G80 ist doch sowieso so ein Stromschlucker, sie in einem VDR einzusetzen paßt doch nicht gut zusammen. Die ganzen aktuellen 30/40/50€ LowEnd Chip und aktuellen IGPs scheinen alle vollwertige Videochips zu haben und können auch VC1.


-----------------

Quoted

Originally posted by hddummy

Quoted

Originally posted by jerily
Oder eben eine neue Karte, die vollwertige Videoprozessoren hat. Eine G80 ist doch sowieso so ein Stromschlucker, sie in einem VDR einzusetzen paßt doch nicht gut zusammen. Die ganzen aktuellen 30/40/50€ LowEnd Chip und aktuellen IGPs scheinen alle vollwertige Videochips zu haben und können auch VC1.


Sofern Du einen Media PC meinst, der die meiste Zeit läuft gebe ich Dir grundsätzlich Recht,
Aber nicht für diejenigen, die sowieso eine Geforce 6/7 bzw. G80 Karte haben bzw. genau wegen der Hoffnung auf HD gekauft haben und dies nur hin und wieder nutzten wollen. Soviel HD-Material gibt es schließlich z.Zt. auch nicht.

Sorry, es kann doch nicht sein, dass man mit HW-Beschleunigung wirbt, und dafür sich einen Großen Namen einfallen lässt, für etwas was so nicht existiert.
In keinen einzigen Forum habe ich bis lang gelesen, dass sich das Jemand unter dem so beworbenen PureVideoHD vorgestellt hat.

Dies mag man gerne an Nvidia, ATI und wahrscheinlich auch Andere adressieren...

Aber bitte zurück zum Thema. Ich finde es nach wie vor Interessant, wenn auch ein Weg gefunden würde, der die ältere Genaration für HD vernünftig nutzbar macht.


---------------

Quoted

Originally posted by JK1974
@hddummy:
Schlimmer noch - habe auch was, was ich in noch keinem Forum gelesen habe: Ich habe mit einer GeForce 7600 mal einen Full-HD-Film auf einem Full-HD-Screen wiedergeben wollen. Ergebnis: Seltsam "kantiges" Bild, als handle es sich um eine Skalierung über Pixelwiederholung. Gleicher Rechner, gleiches System, GeForce 8600: Alles ok.
Seitdem behaupte ich: Alle Karten < GeForce 8 können kein Full-HD.
P.S.: Bezieht sich natürlich auf Windoof...


------------


So, dann viel Spaß.

Gruß

Erik :unsch
OpenSuse 11.0
Intel Core 2 Duo E8500, GeForce 8500 GT, 4GB RAM
Röhren TV 16:9 (Angeschlossen über S-Video)
AV-Verstärker (Denon AVC-A1HD)
Full-HD Beamer (Angeschlossen über HDMI)

2

Thursday, December 4th 2008, 9:44am

Der G80 hatte nie besondere Videofähigkeiten und war ja eigentlich nur für 3D Leistung gebaut. Der moderne Videoprozessor war ja erst bei den Low/Mid-range Abkömmlingen des G80 verbaut, die HighEnd Karte selber hatte das nie drin. Und mit der GeForce 6/7er (was ja auch die G80 drin hat) Generation war NVIDIA ja auch nie für ihre Videoleistung bekannt (auch unter Windows nicht), da war ATi sehr deutlich vorn (in den ersten 6er GF war diese Schaltung sogar völlig defekt). Erst mit den VP2/VP3 hat man eigentlich ein adäquates Konkurrenzprodukt.

Ich kann NVIDIA da schon verstehen, daß sie bei einem Neubeginn jetzt nicht diese Bastellösung mitschleppen wollen, die es nur gab weil sie damals nichts Vernünftiges hatten und bin eher froh, daß es da nun überhaupt etwas gibt.

This post has been edited 1 times, last edit by "jerily" (Dec 4th 2008, 9:45am)


3

Thursday, December 4th 2008, 2:00pm

Hi

Weis zufälligerweise jemand zu welcher Generation die 8300 gehört? Damit gibts nämlich recht günstige boards.

Mfg

4

Thursday, December 4th 2008, 2:36pm

Hallo,

Die Boards mit 8200/8300 Chipsets sind schon HD tauglich.
Dadurch daß der Speichercontroller bei AMD Boards in der CPU ist, hat die GPU keinen schnell genügenden Zugriff auf den Speicher, um ein vernünftiges Deinterlacing und Postprocessing zu ermöglichen, muß die GPU eigenen Speicher haben, oder es muß zumindestens ein separater Memory Controller auf dem Board sein, und dies ist ja bei AMD Boards normal nicht der Fall.
Aus diesem Grund gibt es dann auch AM2 Boards die Speicher auf dem Board selbst haben z.B. die 790G Boards mit Sideport Memory.
Aber ich habe bisher nirgends lesen können, ob es bei diesen Boards möglich ist sie so zu schalten, dass sie nur den Sideport Memory nutzen. Und ob dann das vector adaptive Deinterlacing auch funktioniert, wenn man nur einen A64 x2 und keinen Phenom nutzt
Aufgrund der problemloseren Nutzung von 24p, und der 8 Kanal PCM Übertragung per HDMI ist NVIDIA sowieso im Moment die bessere Wahl, nur eben leider deutlich teurer oder - Verzicht auf die OnBoard GPU und eine Grafikkarte aufs Board stecken, so erspart man sich den AMD Engpass.
VDR-Server: Ubuntu 16.04 mit TVH
als SAT>IP, PLEX Media, und Asterisk Server - ASRock J1900M, DD Cine S2 V6.5 + 3 * DuoFlex S2, 8GB Ram, 8x4 TB HDDs + 8x4 TB Backup Server alle 24 Stunden via rsync, kein Raid
VDR Clients: yaVDR 0.6.0, ASRock Q1900B, 2GB Ram, 16 GB USB-Stick, Zotac GeForce GT 730, keine Lüfter - alles mit Heatpipes gegen Starngkühlkörper

5

Thursday, December 4th 2008, 3:17pm

Quoted

Originally posted by jerily
...

Ich kann NVIDIA da schon verstehen, daß sie bei einem Neubeginn jetzt nicht diese Bastellösung mitschleppen wollen, die es nur gab weil sie damals nichts Vernünftiges hatten und bin eher froh, daß es da nun überhaupt etwas gibt.


Nachdem die Hintergründe bekannt sind, macht es wirklich keinen Sinn dies mit biegen und brechen mit VDPAU zu Lösen. Deswegen habe ich diese Thematik auch von VDPAU abgelöst und sehe eher eine mögliche Lösungserarbeitung bei der Comunity.

Nach der Aussage im NVIDIA-Forum wage ich sogar zu bezweifeln, ob NVIDIA überhaupt Hand bei dem Software-Part der gepriesenen HW-Beschleunigung anzulegen wird.
Vielmehr gehe ich davon aus, dass dies mittels diverser Applikationen wie Mplayer und Co oder einem Zwischenlayer, wie es bei Windows DirectX ist, mit den vorhandenen Treibern gelöst werden kann.

Ich habe überhaupt keine Ahnung von Shader-Programmierung, jedoch erscheint mir dies als ein möglicher Ansatz.

Kann hier vielleicht Jemand eine Aufklärung geben, was Shaders bzgl. h264 leisten könnten, oder schon leisten ?

Gruß

Erik
OpenSuse 11.0
Intel Core 2 Duo E8500, GeForce 8500 GT, 4GB RAM
Röhren TV 16:9 (Angeschlossen über S-Video)
AV-Verstärker (Denon AVC-A1HD)
Full-HD Beamer (Angeschlossen über HDMI)

6

Thursday, December 4th 2008, 4:11pm

@sed9
Meinst du boards mit amd chipset sind bei hd problematisch oder boards für amd cpus(auch mit nvidia chipset)? Hatte eigentlich vor ohne extra graka aus zu kommen. Von daher währe der 8300 eine große Hoffnung gewesen.

Mfg
MacGyver

7

Thursday, December 4th 2008, 4:55pm

Hallo,

Nach meiner Meinung sind die 82/8300 Chipsets von Nvidia jetzt schon total veraltet - ich poste hier mal einen Link wo die verschiedenen IGP Chipsets verglichen werden.
Da kann man sich recht einfach selbst ein Bild davon machen wer die Gewinner und wer die Verlierer sind.
Nach meiner Meinung bildet der GF 93/9400 zusammen mit dem Intel E5200 heute, und auch noch für die nächsten Jahre, die ideale VDR/HTPC Basis, selbst ohne VDPAU steht in dieser Kombination dem HDTV Vergnügen nichts im Weg.
Ich habe zur Zeit einen Test VDR in dieser Kombination aufgebaut und bin immer noch über den doch sehr geringen Stromverbrauch überrascht, von den Videoleistungen ganz zu schweigen.

Unter http://www.anandtech.com/mb/showdoc.aspx?i=3432&p=1 findest Du den ausgibigen Test.
VDR-Server: Ubuntu 16.04 mit TVH
als SAT>IP, PLEX Media, und Asterisk Server - ASRock J1900M, DD Cine S2 V6.5 + 3 * DuoFlex S2, 8GB Ram, 8x4 TB HDDs + 8x4 TB Backup Server alle 24 Stunden via rsync, kein Raid
VDR Clients: yaVDR 0.6.0, ASRock Q1900B, 2GB Ram, 16 GB USB-Stick, Zotac GeForce GT 730, keine Lüfter - alles mit Heatpipes gegen Starngkühlkörper

This post has been edited 1 times, last edit by "SED9" (Dec 4th 2008, 4:56pm)


8

Thursday, December 4th 2008, 5:18pm

Hallo zusammen,
ich habe mal kurz :google bemüht und siehe da, am Ende der folgenden Seite steht die Antwort auf die Frage ob Mainboards mit 8300er GPUs dafür geeignet sind:
http://www.nvnews.net/vbulletin/showthread.php?t=123091

So wie es aussieht sollte es kein Problem sein...

Schöne Grüße.
Jarod
Gehäuse: Origen æ X15e; Board: Intel DX58-SO; Karten: TT S2-6400, Cine S2 V6; OS: Ubuntu Trusty; Video-Dir via NFS; Plugins: dvbhddevice, music, burn, epgsearch, femon, live, streamdev-server, text2skin:anthra-1920, vnsiserver

9

Thursday, December 4th 2008, 9:54pm

hi

danke für deine mühe-den eintrag kannte ich bereits-aber es steht auch überall dass nicht genau bekannt ist mit welchen karten es wie gut funktioniert. hatte daher auf reale ergebnisse oder einfach einige einschätzungen derer die sich schon länger/intensiver damit befassen als ich gehofft.

die e5200+9400 konfiguration habe ich mir jetzt mal angesehn. scheint aber doch deutlich teurer als ein amd system zu sein. wie sieht es denn genau mit dem stromverbrauch aus? so viel unterschied?

mfg
MacGyver

10

Thursday, December 4th 2008, 10:27pm

moin,

was SED9 in seinem letzten Beitrag schreibt ist Mist (sorry).

Weder sind die 8200/8300er Boards veraltet , noch sind sie inkl. 9300/9400er das Mass
fuer die naechsten Jahre. Die CPU E5200 schon garnet.
Dasses mit dicken Prozessor auch ohne VDPAU geht ist nix neues und dass der Rechner
nur durch CPU-Leistung (bei 2,5 GHz wahrscheinlich auch noch overclocked, sonst wirds
eng ) sparsam sein soll , bezweifele ich doch stark. Na kommt drauf an was man darunter
versteht. ;) Denke mal das liegt so bei ~>80 W mit vernuenftigen Inhalt.
Hier gehts aber um ~40 W ;) was selbst mit 8200er "und" VDPAU moeglich ist.


Aber irgendwie OT , geht hier um was anderes....

11

Sunday, December 7th 2008, 11:46am

Ja... vor allem weil die Grafiklösung 8200/8300er-Chipsätze dieselbe ist wie die der 9300/9400er.

Immortal Romance Spielautomat