Vergleich G210 & 9500GT

  • Hi,


    so, bezogen auf diesen Thread habe ich mir nun eine GeForce 210 (512MB, passiv) besorgt und ohne Änderung in meinem HD VDR gegen die die 9500GT ausgetauscht. Erwartungsgemäß starte das Gerät problemlos und funktioniert.


    Ein erster Blick auf den Strommesser zeigt 10W weniger Stromaufnahme, umschalten auf eine 1080i Sender zeigen deutlich sichtbare Miniruckler und irgendwann mault "xine-ui" das der Rechner zu langsam ist ...


    Ein bischen mit den Einstellungen in config gespielt, aber nur die Umstellung von "temporal_spatial" auf "temporal" zeigt den erwünschten Erfolg mit ruckelfreiem 1080i Material. Alle anderen Einstellung habe ich wie bei der 9500GT belassen. In der Bildqualität sehe ich auf die normale Guck-Entfernung von 3,5-4m keinen Unterschied zur 9500GT mit "temporal_spatial".


    Beobachtungen der Stromaufnahmen:

    • HD VDR mit 9500GT: 78-86W, 576i niedrige Datenrate bis 1080i Sender.
    • HD VDR mit G210: 69-79W, 576i niedrige Datenrate bis 1080i Sender.
    • Wenn ein 1080i Sender etwas länger läuft und die GPU wärmer wird, habe ich den Eindruck, das die Stromaufnahme bei beiden Varianten sich noch 1-2 Watt nach oben erhöht.

    Um den letzten Punkt zu verfizieren, müßte man einen wirklichen Langzeittest machen. Wäre aber nicht überraschend, da Prozessoren bei höheren Temperaturen durch den dann niederigen Innenwiderstand immer eine höhere Stromaufnahme haben.


    Beobachtung Temperaturverlauf:

    • 9500GT: 46°C bei 576i/720p; 52°C bei 1080i
    • G210: 44°C bei 576i; 46°C bei 720p; 54°C bei 1080i

    Zur Erinnerung die 9500GT wurde mit "temporal_spatial" und die G210 mit "temporal" betrieben, der Rechner jeweils das HD System aus meiner Signatur.


    Fazit: Auch wenn die die bekannten "qvdpautest"-Daten etwas anderes suggerierten, hat die G210 nicht die Leistungsfähigkeit einer 9500GT. Sie verhält sich ziemlich genau wie eine 9300GE ("temporal"), die ich letzten Sommer mal im Testbetrieb hatte. Auch glaube ich inzwischen noch weniger das eine GT220 sparsamer ist und kühler bleibt als meine 9500GT. Natürlich stelle ich mir die Frage was bringt mir das mehr an Leistungsfähigkeit und der erweiterte Featureset dann bei unserer VDPAU Lösung? Ich weiß es nicht, habe jetzt allerdings die schwierige Entscheidung zu treffen, welche Karte im HD VDR verbleibt.


    Gruß
    Frank

    HowTo: APT pinning

    4 Mal editiert, zuletzt von fnu ()

  • Hallo Frank,


    ist Deine 9500GT denn auch passiv gekühlt?
    Bei einer passiv gekühlten Karte wundert mich die etwas höhere GPU-Temperatur nicht.


    Grüße joker

    HW VDR: Thermaltake DH102 | Gigabyte GA-M720-US3 | AMD 270u | 8GB RAM | 120GB SSD System + 3TB HDD Daten | L4M Cine CT V6 + Flex S2 | Zotac GT630 | Futaba MDM166A | Atric IR-Einschalter Rev. 5 | NEC P553 | SEDU + 96 PIX | Pioneer SC-LX85 | Jamo S606
    SW VDR: Debian Wheezy | Kernel 3.2.0-4-amd64 | Mate 1.6 | VDR 2.2.0 | nVidia 331.79 | LIRC 0.9.0 | media_build_experimental | Plugins: permashift 1.0.3, softhddevice 0.6.1rc1-git, menuorg 0.5.1, skinnopacity 0.1.3, tvscraper 0.2.0-git, seduatmo 0.0.2-git, mplayer 0.10.2-hg, fritzbox 1.5.3, vdradmin-am 3.6.9, femon 1.7.19, targavfd 0.3.0, span 0.0.7, dvd 0.3.6-cvs, graphtftng 0.4.10-git, extrecmenu 1.2.4-git, epgsearch 1.0.1-git, block 0.1.2-git, cpumon 0.0.6a, ac3mode 0.1, HD-- 1.0.0-hg, u. v. a. ...

  • @joker


    Jepp, die 9500GT ist ebenfalls passiv gekühlt. Speziell dieses Modell läßt sich für mich ausgesprochen gut kühlen, da man einen Kanal für den Luftfluß konfigurieren kann.


    Ich habe nochmals einen zweiten Test mit der G210 gemacht, die gerade so eben "temporal_spatial" nicht 100% flüssig schafft. Nicht nur das die GPU bei 1080i deutlich wärmer wird, der weniger zielgerichtete Kühlkörper heizt mein Gehäuseinneres stärker auf als mir recht ist. Da nutzt es mir auch nichts, wenn die Karte keine 2 Slots belegt. Das kann in anderen Gehäusen ganz anders sein, aber ich bleibe bei der 9500GT.


    Jemand Interesse an der G210?


    Gruß
    Frank

    HowTo: APT pinning

    Einmal editiert, zuletzt von fnu ()

  • Vielen Dank für den Erfahrungsbericht.


    Ich denke mal, der Hund liegt im Treiber begraben. Denn die (HW-technisch) deutlich leistungsfähigere GT240 ist noch langsamer.


    Wie gibst du eigentlich den Sound aus, bei der 9500GT über die Karte mit SPDIF-in? Die G210 hat ja ein integriertes Sound-Device, welches sich mittlerweile auch verwenden lässt.


    Ich hätte interesse an der G210, aber um sie low-profile-tauglich zu machen muss man wohl den KK modifizieren oder?

    VDR-Server: AMD Athlon X2 5200+ ,ASUS M3N78 (Geforce8200), 2x 2GB RAM, 2xTT DVB-C 1501, 3x WD AV-GP 2000GB in RAID5, yaVDR 0.5
    Client 1: Desktop PC, Win7

  • Sehr interessant. Du hast mich vor einem Fehlkauf bewahrt. Hatte eigentlich vor mit einer G210 noch bisserl was an Strom zu sparen, aber so behalt ich mal lieber meine 9500GT.


    Thx
    iNOB

  • @m.keller


    GT240 noch langsamer? Das ist doch so'n riesen 3D Prügel, oder?


    Den Sound gebe ich nicht über HDMI aus und werde das auch vermutlich bis auf weiteres nicht. Ich füttere meinen AV Receiver per S/P-DIF direkt vom Mainboard und geniese jede Art von Ton-Spur in wirklich gutem Klang. Wer gibt sich denn die Mühe mit HD und akzeptiert dann den lausigen Klang der Flat-TV Lautsprecher ... ;)


    Das PCB der G210 ist Low-Profile, der Kühlkörper leider nicht, der müßte richtigerweise modifiziert werden. Der darf dann aber auch nicht zu klein sein, da die Karte wie o.a. relativ warm wird. Ich weiß nicht ob das lohnt, evtl. wäre es geschickert wenn Du Dir die MSI G210 anschaust? Kostet in etwa das Gleiche, hat einen niedrigen aber "dicken" Kühlkörper, belegt daher 2 Slots. Und das muß so sein, sonst ist der Kühlkörper IMHO zu klein für die Wärmeentwicklung.


    iNOB


    Nun, wenn "temporal" als De-Interlacer für Dich akzeptabel ist, kannst Du IMHO etwa 8-10W einsparen. Ich habe wirklich ernsthaft drüber nachgedacht, das Bild ist sehr gut, aber aufgrund der Wärme-Entwicklung und der besseren Kühlmöglichkeiten (der 9500GT) dann doch davon abgesehen. Wie oben schonmal gesagt kann das in anderen HTPC Gehäusen anders lösbar sein, in den Desktops, die ich verwende IMHO nicht.


    Gruß
    Frank

    HowTo: APT pinning

    Einmal editiert, zuletzt von fnu ()

  • Ja die GT240 ist die "nächst größere" nach der GT220 was die Performance angeht. Der GT240 hat doppelt soviele Shadereinheiten und ist in VDPAU trotzdem nicht schneller:
    http://www.vdrportal.de/board/…?postid=867778#post867778


    Deswegen tippe ich auf unausgereifte Treiber. Auch hat ein Treiberupdate allen schwachen Karten zum "temporal" Deinterlacer bei 1080i geholfen, anfangs ging nur bob.


    Ja die Karte ist dann doch eher nichts für mich, sorry.

    VDR-Server: AMD Athlon X2 5200+ ,ASUS M3N78 (Geforce8200), 2x 2GB RAM, 2xTT DVB-C 1501, 3x WD AV-GP 2000GB in RAID5, yaVDR 0.5
    Client 1: Desktop PC, Win7

  • Hi,


    fnu
    Sehr informativ > Danke für deine Erkenntnisse
    Hab ja auch überlegt die 9500 GT wegen des Stromverbrauchs gegen ne GT 210
    auszuwechseln, aber habe mir dann Goitt sei Dank ne GT 220 zugelegt.
    Ich denke die ist Im Gebrauch gleich gut wie ne GT 9500 und hat halt noch das erweiterte Featureset.


    Gruss, Bert

    Hardware: Intel Core i9-9900K, ASUS ROG Maximus XI Hero, MSI GeForce GTX 1050 Ti (vdpau), Dvbsky S952 V3 mit 2X DVB-S2 Tuner
    Multibootsystem (yavdr-ansible auf Ubuntu-20.04, Kubuntu-20.04 Focal Fossa, Win10)
    yavdr-ansible, Ausgabe über Nvidia vdpau

    Einmal editiert, zuletzt von Bert ()

  • Der Vergleich gt210 und 9500gt ist auch nicht fair.


    Eher wäre die 220 der passende 'Sparrings Partner'. Grafikleistung bekommt man (heute noch) nicht für Null-Ouvert. Und die würde was den Verbrauch betrifft etwas besser abschneiden als die 9500.

  • Zitat

    Original von wirbel
    Der Vergleich gt210 und 9500gt ist auch nicht fair.


    Es ging drum, herauszufinden ob man mit einer weiterentwickelten "kleineren" und vermeintlich sparsameren Karte zum gleichen Ziel kommt. Wenn Du Dir die bis jetzt veröffentlichten Benchmark Werte mit "qvdpautest" anschaust, war der Test nicht unfähr. Im Gegenteil, die Werte gleichen sich, leider nicht das praktische Ergebnis.


    Zitat

    Original von wirbel
    Eher wäre die 220 der passende 'Sparrings Partner'. Grafikleistung bekommt man (heute noch) nicht für Null-Ouvert.


    Genau das wollte ich vermitteln, bitte genau lesen.


    Zitat

    Original von wirbel
    Und die würde was den Verbrauch betrifft etwas besser abschneiden als die 9500.


    Mit Verlaub bis mir jemand Daten aus der Praxis liefert, ist das eine Behauptung. Bis dahin verweise ich gerne auf die Nvidia Daten aus diesen Post.


    Gruß
    Frank

    HowTo: APT pinning

  • Meine Ergebnisse beim googeln


    - die 210 kann beim 1080i deinterlacing nicht mithalten mit der 9500
    - die 9500 nimmt ca. 10..15Watt mehr auf als die 220
    - die 220 nimmt etwa 15W mehr aquf als die 210
    - die 9500 kann nur FeatureSet B, d.h. h.264 ist limitiert auf bestimmte Bildgrößen und keine Unterstützung für MPEG-4 part2



    Die genannten Daten sind aber immer von der Test-Umgebung abhängig. Aber ich denk mal, das weißt du.

  • wirbel


    Hmm, schade das Du Deine Suchergebnisse nicht mit uns teilst. Meine sehr unterschiedlichen Suchergebnisse hatte ich in dem o.a. Thread schonmal gepostet und diskutiert:

    Das war der Grund warum ich an so einem Vergleich interessiert war. Der Unterschied in der Stromaufnahme im meinem Gesamtsystem betrug im Ganzen 10W, wie passt da Deine Theorie rein?


    Ich habe mir die Werte nicht wie sonst alle hier aus Datenblättern zusammengeschustert, zumal Du augenscheinlich die Angaben von Nvidia selbst ignorierst. Ohne Frage scheint eine GT220 leistungsfähiger, zumindest laut Datenblatt ...


    Aber welcher Sender sendet in "MPEG-4 part2" und welche anderen Auflösungen als 1920x1080 bzw. 1280x720 benötigt man im VDR?


    Bevor Du nochmal mit vagen und nicht genannten Google-Suchergebnissen um die Ecke kommst, würde ich Dich bitten mit konkreten, evtl. eigenen (?), Meßwerten aufzuwarten?


    Gruß
    Frank

    HowTo: APT pinning

    Einmal editiert, zuletzt von fnu ()

  • 1440x1080 :) Ich glaube Anixe HD und Astra HD verwenden das im Moment.

    HW1: Tyan S2915|2x AMD Opteron 2216 HE|pcie 8400GS|TeVii S470 |LSI 8888ELP|SAS Expander|15x2TB mit mhddfs|32" SONY 32EX705
    HW2: Zotac ION|Tevii S650|Samsung 60GB 2,5"|HDMI an 52" Toshiba
    SW 1-2: Xubuntu 10.4, VDR 1.7.14, xine-vdpau, xbmc

  • Geforce G210 GT218 30,5W MGCP*)
    Geforce GT220 GT216 58W MGCP*)
    Geforce 9500GT G96/G96b 72W MGCP*)


    *) „MGCP“ steht kurz für „Maximum Graphics Card Power“ und bezeichnet die offiziell von nVidia angegebene, unter Normalbetrieb zu erwartende maximale Leistungsaufnahme einer Grafikkarte. Unter speziellen Bedingungen lässt sich unter Umständen aber eine noch höhere Leistungsaufnahme erreichen. Daher ist die Maximum Graphics Card Power nicht mit der TDP gleichzusetzen



    Und da du gleich wieder diskutieren wirst, hier die Quellen dazu:
    http://de.wikipedia.org/wiki/Nvidia-Geforce-9-Serie
    http://de.wikipedia.org/wiki/Nvidia-Geforce-200-Serie



    Die TDP und MGCP wiederspiegeln nicht den realen Verbrauch einer Grafikkarte. Die TDP ist eine virtuelle Größe zur Bemessung von Kühlkörpern, zur MGP steht etwas hier.
    Der reale Verbrauch wird sich von diesen Werten in der Praxis deutlich unterscheiden - nach oben und unten.

  • Chello


    Das siehst Du IMHO falsch, da wir bei einem VDPAU VDR den Xorg Desktop entweder mit 720p oder 1080p darstellen. Auf diesem Desktop wird dann das TV-Bild von xine oder xineliboutput passend skaliert dargestellt. Kann sein das XBMC das anders macht, aber der VDPAU-VDR schaltet die Auflösung nicht dynamisch um.


    Für die (1440)x1080i Sender heißt das dann bei 720p kleiner und bei 1080p größer skaliert. Und natürlich werden die Zeilensprünge entfernt ...


    ===


    wirbel


    Selbstverständlich wird diskutiert, es handelt sich hier um ein Diskussionsforum, es ist mein Thread und niemand kann sich das Anrecht auf gottgleiche, absolute Aussagen nehmen, ohne diese zu auch belegen.


    Schön das Du Dir diesmal die Mühe gemacht hast und eine paar Links angeführt hast. Auch die Erklärung des Unterschieds zw. TDP und MGCP ist nett.


    Ich frage mich allerdings schon, warum Nvidia diese Daten nicht selbst angibt und warum die MGCP Werte der GeForce-200-Serie exakt den TDP Werten entsprechen, wo doch so ein riesen Unterschied darin besteht.


    Aber vmtl. landen wir wieder bei der unsäglichen Diskussion, wer wie Wiki-Einträge pflegt und ob hier nicht Halb- bzw. Unwahrheiten oder gar nur Gerüchte verbreitet werden.


    Ich kann die Aufnahme einer einzelnen Grafikkarte nicht messen, dazu habe ich gar nicht die technischen Möglichkeiten. Aber die IMHO für uns wichtige Gesamtaufnahme des Systems kann ich messen und den Unterschied einer G210 und einer 9500GT darstellen. Der Unterschied betrug auf meinem Testsystem ~ 10W. Wenn Deine Behauptung richtig ist, würde eine GT220 weniger Strom aufnehmen als die G210. Bleibst Du bei dieser Aussage?


    Eine GT220 ist ohne Frage wesentlich leistungsfähiger, aber ist sie wirklich sparsamer? 1-2Watt auf das Gesamtsystem ist nicht signifikant, eher irrelevant. Quasi Meßungenauigkeit bei einem System das 60-80 Watt benötigt und da sind wir uns einig von nix kommt nix.


    Die zusätzlichen Features sind bestimmt auch toll, aber können die beim VDPAU-VDR überhaupt genutzt werden? Nur mal als Beispiel, die 200-Serie beherrscht "DeepColor" aka "x.v.Color" am HDMI Ausgang. Nur leider nutzt uns das überhaupt nichts, da weder Xorg, noch Xine(liboutput) in der Lage ist bis zu 48bit Farbtiefe darzustellen.


    Und um es abzurunden, wenn z.B. "lola" ein solche Aussage über Stromaufnahmen trifft, vetraue ich Fr@nk. In dem Fall weiß ich, er hat das dann selbst nachgemessen.


    Gruß
    Frank

    HowTo: APT pinning

    3 Mal editiert, zuletzt von fnu ()

  • @all


    Hatte mir heute die Info's zu 195.36 durchgelesen und bin dabei über die Beschreibung der verschiedenen oft angesprochenene Featuresets gestossen, siehe VDPAU Support:

    Lt. Nvidia es gibt quasi keinen Unterschied bei der h.264 Beschleunigung zw. Set A, B und C. Beim Set B gibt es eine Abweichung bzgl. der maximalen Anzeigebreite und die Einschränkung aufgrund der "VDPAU Features Note 1", also bei welchen Anzeigebreiten keine h.264 Beschleunigung zur Verfügung steht, gilt auch fast nur für Karten mit Featureset B (z.B. 9300GE/GS u.a.). Ausnahme ist hier eine 8400GS mit dem Buscode: 0x06E4.


    Die Unterschiede liegen primär in der Beschleunigung von MPEG1/2 und VC1, beim Featureset A (z.B. 9500GT) ist hier die Rede von partieller Beschleunigung. Beim Set C kommen neue Features bzgl. MPEG4 & DIVX dazu, mal sehen ob man die irgendwann mit xine/xineliboutput@VDR nutzen kann.


    Die Nvidia-Treiber beherrschen ebenfalls seit geraumer Zeit 30-bit Farbtiefe mit Xorg 7.3 oder höher, aber offensichtlich nur für die Quadro-GPUs:


    Code
    (EE) Feb 21 18:48:43 NVIDIA(0): Color depth 30 requires a Quadro G80 or better GPU.
    (EE) NVIDIA(0):  *** Aborting ***

    Gruß
    Frank

    HowTo: APT pinning

    2 Mal editiert, zuletzt von fnu ()

  • Der maximale Verbrauch der Geforce Karten ist nicht gleichzusetzen mit dem Verbrauch bei der Ausgabe von HD Material. Ich glaube nicht das eine Geforce Karte durch die Wiedergabe von HDTV ihre maximale Leistungsaufnahme erreicht da hier ja nur ein kleiner Teil der GPU zur Decodierung herangezogen wird. Insofern sind die von fnu durch Messung ermittelten Werte aussagekräftiger als alle Angaben die in Datenblättern stehen.

    Gruß
    Frodo

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!