Das mit dem Flashen schmeckt mir irgendwie nicht.
Das verstehe ich, ist ja dann auch Deine Karte die "über'n Jordan geht" und aus der Garantie fällt, nur um vllt. 2W einzusparen ...
Regards
fnu
Das mit dem Flashen schmeckt mir irgendwie nicht.
Das verstehe ich, ist ja dann auch Deine Karte die "über'n Jordan geht" und aus der Garantie fällt, nur um vllt. 2W einzusparen ...
Regards
fnu
Eigentlich kann da nicht viel passieren, denn man kann auch mit einer zu niedrigen Spannung auf der GPU immer noch auf das alte VBios zurückflashen. Es haben auch schon viele Leute ihre GTX 780(ti) auf diese Art und Weise modifiziert und sind mit der Spannung sogar auf 825mV runtergegangen. Klar, wenn man einen schlechten Chip erwischt hat, dann macht er dann u.U. Zicken, aber es gibt idF. immer ein Zurück.
Ich werde es auf jeden Fall mal ausprobieren sobald ich eine GT630 mit GK208 hier habe. Meine GT640 hat eine Reduktion von 950mV auf 875mV im P0-State jedenfalls ohne Weiteres verkraftet
Ich reiche mal qvdpautest mit verlinktem Xorg.0.log nach. Das erste Teil ist normal, das zweite mit gebremste Karte (PowerMizerHardLevel=0x3; PowerMizerHardLevelAC=0x3). Es ist gut zu erkennen, dass der Tweak greift.
qvdpautest 0.5.2
Intel(R) Core(TM) i3-2100 CPU @ 3.10GHz
NVIDIA GPU GeForce GT 630 (GK208) at PCI:1:0:0 (GPU-0)
VDPAU API version : 1
VDPAU implementation : NVIDIA VDPAU Driver Shared Library 331.20 Wed Oct 30 17:39:35 PDT 2013
SURFACE GET BITS: 1070.82 M/s
SURFACE PUT BITS: 1625.54 M/s
MPEG DECODING (1920x1080): 158 frames/s
MPEG DECODING (1280x720): 409 frames/s
H264 DECODING (1920x1080): 113 frames/s
H264 DECODING (1280x720): 266 frames/s
VC1 DECODING (1440x1080): 83 frames/s
MPEG4 DECODING (1920x1080): 116 frames/s
MIXER WEAVE (1920x1080): 710 frames/s
MIXER BOB (1920x1080): 1240 fields/s
MIXER TEMPORAL (1920x1080): 384 fields/s
MIXER TEMPORAL + IVTC (1920x1080): 292 fields/s
MIXER TEMPORAL + SKIP_CHROMA (1920x1080): 491 fields/s
MIXER TEMPORAL_SPATIAL (1920x1080): 234 fields/s
MIXER TEMPORAL_SPATIAL + IVTC (1920x1080): 198 fields/s
MIXER TEMPORAL_SPATIAL + SKIP_CHROMA (1920x1080): 269 fields/s
MIXER TEMPORAL_SPATIAL (720x576 video to 1920x1080 display): 704 fields/s
MIXER TEMPORAL_SPATIAL + HQSCALING (720x576 video to 1920x1080 display): 537 fields/s
MULTITHREADED MPEG DECODING (1920x1080): 157 frames/s
MULTITHREADED MIXER TEMPORAL (1920x1080): 274 fields/s
qvdpautest 0.5.2
Intel(R) Core(TM) i3-2100 CPU @ 3.10GHz
NVIDIA GPU GeForce GT 630 (GK208) at PCI:1:0:0 (GPU-0)
VDPAU API version : 1
VDPAU implementation : NVIDIA VDPAU Driver Shared Library 331.20 Wed Oct 30 17:39:35 PDT 2013
SURFACE GET BITS: 1099.29 M/s
SURFACE PUT BITS: 1467.33 M/s
MPEG DECODING (1920x1080): 138 frames/s
MPEG DECODING (1280x720): 302 frames/s
H264 DECODING (1920x1080): 92 frames/s
H264 DECODING (1280x720): 190 frames/s
VC1 DECODING (1440x1080): 62 frames/s
MPEG4 DECODING (1920x1080): 97 frames/s
MIXER WEAVE (1920x1080): 292 frames/s
MIXER BOB (1920x1080): 519 fields/s
MIXER TEMPORAL (1920x1080): 154 fields/s
MIXER TEMPORAL + IVTC (1920x1080): 122 fields/s
MIXER TEMPORAL + SKIP_CHROMA (1920x1080): 202 fields/s
MIXER TEMPORAL_SPATIAL (1920x1080): 100 fields/s
MIXER TEMPORAL_SPATIAL + IVTC (1920x1080): 82 fields/s
MIXER TEMPORAL_SPATIAL + SKIP_CHROMA (1920x1080): 116 fields/s
MIXER TEMPORAL_SPATIAL (720x576 video to 1920x1080 display): 301 fields/s
MIXER TEMPORAL_SPATIAL + HQSCALING (720x576 video to 1920x1080 display): 233 fields/s
MULTITHREADED MPEG DECODING (1920x1080): 67 frames/s
MULTITHREADED MIXER TEMPORAL (1920x1080): 113 fields/s
Alles anzeigen
Mein Schätzeisen zeigt bei 1080i 2 Watt weniger an, 720p und 576i bleiben gleich.
fnu, wie genau hast Du die Frequenzen abgefragt? Bei mir greift
nicht,
ERROR: The control display is undefined; please run `nvidia-settings --help` for usage information.
und
liefert:
Was mache ich falsch?
Albert
Was mache ich falsch?
Bei yaVDR 0.5 läuft der X-Server auf dem Display :1, mit der Standard-Konfiguration von Ubuntu nutzt er :0.
Danke Alex. Der Xorg.0.log Link dient wiederum dafür, dass qvdpautest sich bezüglich der GPU Typ bedienen kann, es kennt keinen Xorg.1.log, richtig?
Albert
Danke für die Messungen.
Wie vermutet sind es also ~2W. Denke wenn man sich mit dem VBIOS noch etwas beschäftigt, dann wären evtl. noch weitere 2W drin bei max. 825-850mV und evtl. einem etwas abgesenkten Takt (~350MHz). Dann können Nvidias Maxwell und Intels QuickSync einpacken
Bei 720p ohne aktiven Deinterlacer sollte die GPU irgendwo unterhalb der 405MHz takten. Mit PowerMizerLevel=0x3 zwingt man die Karte in den P0-State. Dieser ist bei der GT630 aber variabel so dass je nach Last Frequenzen zwischen 135 und 405 MHz möglich sind.
Wie schauts denn im Leerlauf aus, also ohne aktives Frontend? Richtig Rechenpower wird eigentlich nur bei 1080i mit tempral/temporal_spatial abgerufen. Bei SD interlaced und progressive Material sollte die Karte wie bei fnu eigentlich mit dem Takt runtergehen.
Bei meiner GT640 gibt es im P0-State dagegen nur eine feste Frequenz und eine Spannung so dass der Takt immer gleich bleibt. Wenn mit Tweak die Karte bei geringerer Last nicht runtertaktet, dann schau mal ob das ohne Tweak auch der Fall ist. Die identische Leistungsaufnahme deutet aber eher weniger auf einen Unterschied bei der Taktung hin.
Gruss
tec
Bei 720p ohne aktiven Deinterlacer sollte die GPU irgendwo unterhalb der 405MHz takten.
Ich habe gerade in die setup.conf geschaut. Selbst 720p steht bei mir mit Deinterlace = 3 drin. Bevor ich Hand anlege, hätte ich eine Bitte. Würdest Du oder fnu Deine / euere softhddevice Sektion aus der setup.conf für mich posten. THX.
Albert
Das könnte natürlich der Grund sein wieso die GPU bei dir nicht runtertaktet.
softhddevice.1080i.CutLeftRight = 0
softhddevice.1080i.CutTopBottom = 0
softhddevice.1080i.Deinterlace = 3
softhddevice.1080i.Denoise = 200
softhddevice.1080i.InverseTelecine = 0
softhddevice.1080i.Scaling = 2
softhddevice.1080i.Sharpen = 150
softhddevice.1080i.SkipChromaDeinterlace = 0
softhddevice.1080i_fake.CutLeftRight = 0
softhddevice.1080i_fake.CutTopBottom = 0
softhddevice.1080i_fake.Deinterlace = 3
softhddevice.1080i_fake.Denoise = 200
softhddevice.1080i_fake.InverseTelecine = 0
softhddevice.1080i_fake.Scaling = 2
softhddevice.1080i_fake.Sharpen = 150
softhddevice.1080i_fake.SkipChromaDeinterlace = 0
softhddevice.576i.CutLeftRight = 0
softhddevice.576i.CutTopBottom = 0
softhddevice.576i.Deinterlace = 3
softhddevice.576i.Denoise = 550
softhddevice.576i.InverseTelecine = 0
softhddevice.576i.Scaling = 2
softhddevice.576i.Sharpen = 250
softhddevice.576i.SkipChromaDeinterlace = 0
softhddevice.60HzMode = 0
softhddevice.720p.CutLeftRight = 0
softhddevice.720p.CutTopBottom = 0
softhddevice.720p.Deinterlace = 1
softhddevice.720p.Denoise = 200
softhddevice.720p.InverseTelecine = 0
softhddevice.720p.Scaling = 2
softhddevice.720p.Sharpen = 150
softhddevice.720p.SkipChromaDeinterlace = 0
Alles anzeigen
In meiner config ist auch denoise+sharpen aktiv. Vor allem bei SD ist das Bild dadurch um einiges besser. Scaling ist auch auf "HQ" eingestellt.
Habe übrigens die VCore bei mir jetzt im P8-State nochmals von 875 auf 825mV gesenkt. Default waren es anfangs 950mV und trotzdem läuft alles soweit ohne Probleme. Die letzte Senkung hat aber gerade mal 0.2-0.3W gebracht. Die Ersparnis bei der VCore Senkung dürfte bei ~3W liegen. Werde ich bei Gelegenheite nochmal genau nachmessen und im Startpost ergänzen.
Gruss
tec
Danke Dir für's config.
Die Ersparnis bei der VCore Senkung dürfte bei ~3W liegen.
Wenn Du es dann verifiziert hast, könnte ich mich dazu verleiten lassen.
Albert
Hab es gerade geprüft. Der Unterschied zwischen 950 und 825mV VCore beträgt 2.1W. Bei deiner GT630 dürften es bei 915->825mV 1.5-2W werden.
Fazit zum Undervolting: kann man machen, muss man aber nicht da sich die Ersparnis idF. in Grenzen hält wenn man den Aufwand und das (eigentlich kaum vorhandene) Risiko berücksichtigt. Zusammen mit der Taktbremse sind aber auch bei der GT630 insgesamt dann ~4W drin. Wenn man bedenkt, dass die Karte OOTB schon wenig verbraucht, dann ist das schon ordentlich mMn was da noch herauszuholen ist.
Übrigens habe ich bei mir jetzt die RAM Spannung von 1.5 auf 1.35V gesenkt was nochmal weitere 2W Ersparnis bringt. Somit komme ich bei meinem System (Client-1 in der Sig.) auf 38.3W bei 1080i @temporal_spatial.
Taktet die GPU bei dir bei 720p jetzt mit den neuen Settings runter?
Gruss
tec
Taktet die GPU bei dir bei 720p jetzt mit den neuen Settings runter?
Davon gehe ich aus, bin aber gerade heimgekommen. Es wird sich zeigen.
Albert
Fazit zum Undervolting: kann man machen, muss man aber nicht da sich die Ersparnis idF. in Grenzen hält wenn man den Aufwand und das (eigentlich kaum vorhandene) Risiko berücksichtigt.
Wenn die FW der Karte geändert wird besteht immer latent ein Risiko, Software-Schalter sind i.d.R. keines.
Aber mit dem Festsetzen der Frequenzen, Spannungen nimmt man der Karte auch immer die Fähigkeit ihre voll Leistung bringen zu können, sollte diese benötigt werden. Diese Änderungen muss man eben nun auch erstmal einen längerem Zeitraum testen, über einen breiten Bereich an Content mit VDR, XBMC/Kodi ...
Ich glaube ja fast das die neuen GT720 (Kepler) nun das Wahl der Mittel sind, die werden IMHO richtig preiswert sobald die als Volumenmodell breit am Markt verfügbar sind.
Regards
fnu
Taktet die GPU bei dir bei 720p jetzt mit den neuen Settings runter?
Negativ.
Bei yaVDR 0.5 läuft der X-Server auf dem Display :1, mit der Standard-Konfiguration von Ubuntu nutzt er :0.
Wenn wir mal das berücksichtigen, sollte der Tweak nicht etwas modifiziert werden!?
Albert
albert
Sehr seltsam. Eigentlich müsste sich die Karte genauso wie fnu's seine verhalten.
Der Tweak muss in deinem Fall nicht angepasst werden da er in der Device Section definiert wird. Man sieht ja auch an der um 2W geminderten Leistungsaufnahme bei 1080i dass der Tweak greift.
Ich habe jetzt bei mir auf nvidia 343.22 aktualisiert und seit dem taktet die Karte bei mir auch ohne Tweak bei 1080i auf 324MHz runter. Nun ist das Verhalten wieder so wie ich es noch von älteren Treiber-Versionen kenne (<=304.xx ?). Vermute aber, dass das nur bei meiner GT640 der Fall sein wird da diese etwas overpowered ist im Vergleich zur GT630/730.
Gruss
tec
Eigentlich müsste sich die Karte genauso wie fnu's seine verhalten.
Das tut sie auch, aber nur OHNE Tweak. Ich gehe davon aus, dass fnu die Werte ohne Tweak gepostet hat.
Der Tweak muss in deinem Fall nicht angepasst werden da er in der Device Section definiert wird.
Ja, ich habe mich inzwischen auch etwas informiert.
Man sieht ja auch an der um 2W geminderten Leistungsaufnahme bei 1080i dass der Tweak greift.
Korrekt und der Tweak ist auch richtig. Wenn ich es mit
Option "RegistryDwords" "PowerMizerEnable=0x1; PerfLevelSrc=0x2222; PowerMizerLevel=0x3; PowerMizerDefault=0x3; PowerMizerDefaultAC=0x3"
versuche, passiert das gleiche.
Die Modes:
root@Patty:~# DISPLAY=:1 nvidia-settings -q GPUPerfModes -t
perf=0, nvclock=135, nvclockmin=135, nvclockmax=405, memclock=405, memclockmin=405, memclockmax=405, memTransferRate=810, memTransferRatemin=810, memTransferRatemax=810 ; perf=1, nvclock=135, nvclockmin=135, nvclockmax=901,
memclock=900, memclockmin=900, memclockmax=900, memTransferRate=1800, memTransferRatemin=1800, memTransferRatemax=1800
perf=0, nvclock=135, nvclockmin=135, nvclockmax=405, memclock=405, memclockmin=405, memclockmax=405, memTransferRate=810, memTransferRatemin=810, memTransferRatemax=810 ; perf=1, nvclock=135, nvclockmin=135, nvclockmax=901,
memclock=900, memclockmin=900, memclockmax=900, memTransferRate=1800, memTransferRatemin=1800, memTransferRatemax=1800
Ist die Ausgabe so zu Verstehen: nvclock=405, memclock=405?
Albert
Ich habe jetzt genauer nachgeschaut, aber so viel Müll von nVidia habe ich gar nicht drin.
Albert
Zeigt Core,Mem Takt und Core-Temp
...oder unabhängig von der Nummerierung
DISPLAY=`w -hs | awk '{print $3}' | head -n 1` nvidia-settings -t -q [gpu:0]/GPUCurrentClockFreqs -q [gpu:0]/GPUCoreTemp
Schau am besten ob du mit und ohne Tweak bei 1080i, 720p und 576i einen Unterschied feststellst. Wäre nämlich blöd wenn der Tweak bei 1080i zwar verhindet dass die Karte unnötig hochtaktet, bei 720p und 576i aber auch verhindert, dass niedriger getaktet wird als das max. von 405 MHz im P-08 State (perf. 0). Die identische Leistungsaufnahme deutet aber eher weniger auf einen Unterschied beim Taktverhalten hin.
Bei mir läuft übrigens 14.04 mit linux 3.13 und nvidia 343.22 und davor 331.38. fnu testet glaube ich mit einer ähnlichen Konstellation.
tecfreak, sorry, das hier habe ich übersehen. Der zweite Befehl bringt den gewohnten Fehler:
root@Patty:~# DISPLAY=`w -hs | awk '{print $3}' | head -n 1` nvidia-settings -t -q [gpu:0]/GPUCurrentClockFreqs -q [gpu:0]/GPUCoreTemp
ERROR: The control display is undefined; please run `nvidia-settings --help` for usage information.
Der erste Befehl funktioniert, aber ich kann gerade die nächsten zwei-drei Stunden von 1080i nicht wegschalten.
Albert
So wie es ausschaut, bekomme ich mit dem Tweak immer 405,405 unabhängig davon ob 576i, 720p oder 1080i läuft. Die 2 Watt bei 1080i werden mit dem Tweak eingespart, bei 576i, 720p bleibt es immer gleich, selbst wenn dort nicht heruntertaktet wird. Die Temperatur sinkt um 4 °C bei 1080i und liegt bei dem anderen zwischen 40-41 °C.
Die erste Zeile ohne, die zweite mit Tweak (bei 1080i).
root@Patty:~# DISPLAY=:1 nvidia-settings -t -q [gpu:0]/GPUCurrentClockFreqs -q [gpu:0]/GPUCoreTemp
719,900
55
root@Patty:~# DISPLAY=:1 nvidia-settings -t -q [gpu:0]/GPUCurrentClockFreqs -q [gpu:0]/GPUCoreTemp
405,405
51
Albert
Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!