Stromverbrauch vdr zu windows ca. 20watt unterschied

  • Moin,
    kurze Frage ist es immer noch so, dass es das Stromproblem unter linux bei Intel Ivy Core Systemen noch gibt? Chipsatz H77.


    Ich habe gestern beim System mal gemessen und musste feststellen, dass z.B. bei der TV Wiedergabe beim gleichem Sender ARD HD der Stromverbrauch um ca. 15-20 watt hunriger ist,
    als unter Windows. Strotz Nvidia GT520. Liegt was vielleicht am Kernel ?


    Gibt es Lösungsansätze?

    MB: Asrock H77 Pro4-M ||CPU: Celeron G540 || GPU: Zotac GT520 Synergy || Tuner: DuoFlex S2, Octupus CI PCie Treiber: || HDD: Crucial M4 128GB || PSU: picoPSX 160XT, Leicke 12V-10A-120Watt 5,5x2,5mm || Case: MS-Tech LC-01Remote: Logitech Harmony 900 + IR Blaster ||extensions: 8 Kanal Karatelight

  • Hallo Dr. n00b


    Ich hab mir ein DH77EB mit einem Xeon 1220LV2 gegönnt. Ich kann's nicht im Vergleich zu Windows nicht sagen,
    haben nur noch meine Kinder !!!
    Vebrauch liegt zwischen 45-45W mit jeweils 1 3,5'' und 2,5'' HDD, GF210 und 1 Mystique SaTiX-S2 V3 CI Dual.
    Ich hatte dann mal Powertop installiert und danach das neueste Powertop compiliert und in beiden die selbe
    Auffälligkeit, daß die Stromsparzustände C1, C2 und C3 scheinbar nicht genutzt werden, 0,0% und 0,0ms bei allen CPU's!
    Poll bei ca. bei 98% und ca. 5ms steht.
    Bei meinen Laptop Intel Dualcore sieht es ganz anders aus, C3 mit 95% und 15ms und Poll 0,0% mit 0,0ms!
    Ich denke mal ein Ja auf Deine Frage.


    Gruß
    Ein Ehefrauennerver

    VDR aktuell: MSI C847MS-E33 Mystique SaTiX-S2 V3, 2Gb DDR3, PicoPsu 120, SNT 5000 12V von Reichelt, yavdr0.5

  • Dr. n00b


    Da beist die Maus kein Faden ab, mit Windows hält Linux bei niedrigen Leistungsaufnahmen aktuell nicht mit, mußte ich selbst mehrfach feststellen. Obwohl SandyBridge ab Kernel 3.0 gut unterstützt und auch sparsam ist, hat keine Linux Installation die niedrigen Werte einer Windows Installation hier geschafft. Würde mich stark wundern, wenn das bei Ivy-Bridge anders wäre. Sieht bei den Nvidia Grafikkarten btw. ähnlich aus.


    Heißt nicht das Linux hier richtig schlecht ist, sagen wir gut, aber Windows ist hier aktuell einfach überragend ...


    Regards
    fnu

    HowTo: APT pinning

    Einmal editiert, zuletzt von fnu ()

  • Naja ist jedoch schon heftig einfach mal ca. 20 Watt in unnötige Hitze zu verwandeln. Ich dachte da ist Linux gerade wegen der offenen Entwicklung besser.
    Habe mir schon überlegt mal Testweise ubuntu zu installieren mit reinem aktuellen kernel in der Hoffnung das sich hier was tut.


    Grüße

    MB: Asrock H77 Pro4-M ||CPU: Celeron G540 || GPU: Zotac GT520 Synergy || Tuner: DuoFlex S2, Octupus CI PCie Treiber: || HDD: Crucial M4 128GB || PSU: picoPSX 160XT, Leicke 12V-10A-120Watt 5,5x2,5mm || Case: MS-Tech LC-01Remote: Logitech Harmony 900 + IR Blaster ||extensions: 8 Kanal Karatelight

  • Das dumme ist leider, das viele Hersteller der "offenen Entwicklung" nicht alle Infos zukommen lassen. z.B. Nvidia ist in der Richtung extrem unwillig
    EDIT sagt: http://www.youtube.com/watch?v=MShbP3OpASA <- ab ca. 48:30


    KA ob das inzwischen gelöst ist, aber bei Intel-CPUs gab es mal eine lange Zeit Probleme mit den Tiefschlaf-Zuständen, weshalb die per default abgeschaltet warn.
    (hab ich mal irgendwo gelesen)

    Dirk

  • Naja ist jedoch schon heftig einfach mal ca. 20 Watt in unnötige Hitze zu verwandeln.


    Ja schon, wobei "Hitze" ja einen Unterschied von 30°C zu 70°C suggerieren würde, was ja so nicht korrekt ist ... ;)


    Hab's in einem anderen Post schon mal geschrieben, aber weil es ein doch ein ziemlich großer Unterschied ist:

    • Intel DB65AL
    • Celeron G460
    • 2x2GB DDR3-1333
    • Nvidia Quadro FX 380 LP
    • 2,5" 500GB WD5000BEVT
    • 1x DVD/RW
    • Intel boxed Lüfter
    • 80mm Noiseblocker Gehäuselüfter
    • Fortron/Source FSP200-50GSV 200W

    Das Gerät bekam ich als Linux Desktop (Ubuntu 12.04 mit Kernel 3.2 & Nvidia Treibern) grad so unter 40W, schwebt nun hier mit Win7 im Idle bei 26W und übersteigt im Desktop Betrieb selten die 30W Marke, noch nichtmal bei FullHD Movies ...


    Inzwischen habe ich die 500er Platte gegen eine 64GB SSD plus 2,5" 160GB als Datengrab ausgetauscht, das Ding ist jetzt pfeilschnell bei den gleichen niedrigen Verbrauchswerten. Diese einfachen SanDisk SSDs sind eher langsame Geräte ihrer Gattung, ziemlich flimmsig gefertigt, aber preiswert und fantastisch sparsam, quasi nicht meßbar mit meinen Mitteln, lt. c't 0,4W bis max. 1W ... :tup


    Das Problem sind in der Tat die HW Hersteller, sehr schade, weil z.B. das Nvidia Paket für Linux IMHO "sehr hochwertig" ist ... aber wer weiß evtl. fehlen ja Xorg & Co. auch einige Features, um hier mehr einsparen zu können ...


    Regards
    fnu

    HowTo: APT pinning

    Einmal editiert, zuletzt von fnu ()

  • Liegt was vielleicht am Kernel ?

    Der Kernel sollte 3.2 oder neuer sein.
    Die folgenden Optionen haben bei mir etwa 6W gebracht:

    Code
    pcie_aspm=force i915.i915_enable_rc6=1 i915.i915_enable_fbc=1


    Besteht der starke Unterschied auch ohne Video-Wiedergabe?
    Wenn nicht, könnte es an unterschiedlichen Einstellungen bei Nachbearbeitung liegen (deinterlacing und so), damit kann kann die Grafikkarte ganz schön belasten.

    Gruss
    SHF


  • Hallo


    Hab gestern etwas experimentiert. Ein Ubuntu 12.10 auf USB-Stick mit "Nvidia-Treibern" brachte den gewünschten Erfolg.
    Es werden die tieferen Schlafzustände der CPU's erreicht, also könnte es am aktuelleren Kernel liegen..., dachte ich mir!
    Nach etwas suchen habe ich das hier gefunden:
    http://packages.qa.dev.stgrabe…23/builds/16265/downloads
    Wenn ich das richtig verstanden habe, mein Englisch ist schlecht, sollte/könnte dieser Kernel in Ubuntu 12.04.2 mit aufgenommen
    werden, vielleicht als Alternative.
    Also installiert ... und kein Unterschied. In Powertop werden die tieferen Schlafzustände C1,... nicht genutzt.
    Gegenüber meinen Befürchtungen hab ich mein System nicht zerschossen. Beim deinstallieren will er nur zu viel löschen, wird
    aber abgefragt! Das linux-media-dkms Paket wird zum Kernel auch mit aktualisiert. Ging letzten mit einer ähnlichen
    Installationsanleitung, nur anderen Paketquellen, nicht.
    Ach so, mit dist-upgrade hab ich die anderen Pakete aus dieser Quelle mit aktualisiert, wer es nicht will muß aufpassen!


    Gruß
    Ein Ehefrauennerver

    VDR aktuell: MSI C847MS-E33 Mystique SaTiX-S2 V3, 2Gb DDR3, PicoPsu 120, SNT 5000 12V von Reichelt, yavdr0.5

  • Es besteht keinen großen Unterschied zur Video Wiedergabe. Windows IDLE = 29-30 Watt, yavdr0.5 = 40-45Watt.

    MB: Asrock H77 Pro4-M ||CPU: Celeron G540 || GPU: Zotac GT520 Synergy || Tuner: DuoFlex S2, Octupus CI PCie Treiber: || HDD: Crucial M4 128GB || PSU: picoPSX 160XT, Leicke 12V-10A-120Watt 5,5x2,5mm || Case: MS-Tech LC-01Remote: Logitech Harmony 900 + IR Blaster ||extensions: 8 Kanal Karatelight

  • n Powertop werden die tieferen Schlafzustände C1,... nicht genutzt.

    Bei mir im Bios (DH77KC) muss man C3 erst aktivieren, das ist standardmässig aus.
    Unter Power - "Report c3" oder so ähnlich (kann nicht gleichzeitig schreiben und nachschauen ;) ).
    Um da ran zu kommen muss - auch im Power-Menü - noch was von "energy efficient performance"(oder so ähnlich) auf "custom" umschalten.


    Es besteht keinen großen Unterschied zur Video Wiedergabe. Windows IDLE = 29-30 Watt, yavdr0.5 = 40-45Watt.

    Habt ihr mal die vorgeschlagenen Optionen versucht?

    Gruss
    SHF


  • Habt ihr mal die vorgeschlagenen Optionen versucht?


    Bei meinem oben skizzierten Desktop hatte ich die gesetzt, erst damit kam die Maschine überhaupt unter 40W, so um 38W. Ohne die Schalter war sie auch eher im Bereich von 40-43W ...


    Wobei dieser Parameter bei keiner meiner Maschinen jemals auch nur irgendwas bewirkte, auch nicht bei meiner Xen-Testinstallation die den GP des Core i3 nutzt:


    Code
    i915.i915_enable_fbc=1


    Die anderen Schalter bewirken etwas, aber nur wenig, eben soviel das die Linux Installation nicht als völliger Versager da steht.


    IMHO sind die Parameter sowieso ein Witz, "pcie_aspm=force" ist ganz klar ein Linux Fehler, "i915.i915_enable_rc6=1" sorgt nur dafür das der nicht genutzte GP eben statt mit 3-4W, auch quasi 0-Komma Watt benötigt, also auch ganz klar ein Workaround um ein Designfehler. So was muß OOTP fluppen, das es geht zeigen andere.


    Regards
    fnu

    HowTo: APT pinning

  • Hi ja ich habe sogar den aktuellen kernel 3.5 installiert. Bis auf ein paar Watt unterschied, ca, 5-7 Watt stimmen jetzt die Einstellungen.
    Ich werde die nächsten Tage jetzt weiter Testen.

    MB: Asrock H77 Pro4-M ||CPU: Celeron G540 || GPU: Zotac GT520 Synergy || Tuner: DuoFlex S2, Octupus CI PCie Treiber: || HDD: Crucial M4 128GB || PSU: picoPSX 160XT, Leicke 12V-10A-120Watt 5,5x2,5mm || Case: MS-Tech LC-01Remote: Logitech Harmony 900 + IR Blaster ||extensions: 8 Kanal Karatelight

  • fnu: OOTP = Out of the Pochs ? Pöser Pursche.


    ""pcie_aspm=force" ist ganz klar ein Linux Fehler," ... ähm .. jain.


    Solange Hardwarehersteller Hardware bauen die "Designed for Windows" sind und workaround und Erkennung nur in diese Treiber einfliessen sehe ich hier keinen Designfehler.
    Die letzten Verbrauchsverbesserungen haben sich dadurch ergeben, das Linux jetzt versucht weitestgehend Windows zu imitieren anstatt es sauber und nach Spec zu machen.
    Designfehler ? Ja! In Linux ? Ich weiss nicht.


    Ich will niemanden bekehren - aber man sollte die Sachlage nicht zu sehr vereinfachen.

    VDR User: 87 - LaScala LC14B - LG/Phillipps 6,4" VGA Display | Asrock H61/U3S3 | G630T | 1x 16GB Mobi Mtron 3035 1x WD 750GB 2,5" |1x L4m DVB-S2 Version 5.4

  • fnu: OOTP = Out of the Pochs ? Pöser Pursche.


    Lass ich mir als Geschmacksmuster schützen und marodiere dann durch die Gerichtssäle, von den Gewinnen kaufe ich mich dann in einen private equity fond ein u.s.w. :arme


    ""pcie_aspm=force" ist ganz klar ein Linux Fehler," ... ähm .. jain.


    Doch ist ein Linux-Fehler, weil irgendein Entwickler mit irgendeinem schummrigen Mainboard da Probleme hatte, wird das Feature eher ab- als eingeschaltet, super Sache, Open Source ... :rolleyes:


    Das die HW "Designed for Windows" ist, ist schon immer so gewesen, was soll also die Argumentation? Die Regeln sind damit klar, also muss für diese HW entwickelt werden. Linux setzt eben kein Industriedesign, dazu ist die Open Source viel zu unverbindlich und strategisch uneinig. Würde ich als Hersteller genauso machen, man benötigt verlässliche Partner und keine nebulöse Community, die quasi täglich ihre Meinung ändert. Das Konstrukt Canonical/Ubuntu könnte hier Besserung bringen und ich hoffe es tut es. Aber das scheitert vmtl. wieder am Rest der bornierten Open Source Welt, dieses Portal ausdrücklich nicht ausgenommen.


    Es gibt keine Beweise dafür das Open Source besser als Closed Source ist, die Qualität hängt immer von den Entwicklern ab. Mir als Endnutzer ist es scheiß egal ob die HW mit Open oder Closed Source gut läuft, Hauptsache sie tut es.


    Das ist kein Fanal gegen Open Source oder deren Entwickler, im Gegenteil. Aber der auch bei uns gebräuchliche Spruch "es ist fertig wenn es fertig ist", zeigt sehr schön, warum es keine HW "Designed for Linux" gibt.


    Und das war jetzt Mega-OffTopic, sorry ...


    Regards
    fnu

    HowTo: APT pinning

    5 Mal editiert, zuletzt von fnu ()

  • Und das war jetzt Mega-OffTopic, sorry ...


    Mag sein, aber was Du geschrieben hast, das sehe ich genauso.


    Albert

  • Bei meinem oben skizzierten Desktop hatte ich die gesetzt,

    Ich hatte da eher die anderen gemeint, bei dir dachte ich mir das du das schon probiert hast ;).

    erst damit kam die Maschine überhaupt unter 40W, so um 38W.

    Mit meinem i5 liege ich derzeit auch genau da.
    Die C't hatte das Board mit vergleichbarer Ausstattung, aber anderem Netzteil mit 21W Idle gemessen.
    Ich bin sicher, dass bei mir noch viel am Netzteil liegt. Das ist zwar ein hochwertiges Teil gewesen, aber schon älter und auch überdimensioniert.
    Nach dem wie warm die Luft da raus kommt, schätze ich, da gehen mindestens 15W drauf. Das wollte ich bei Gelegenheit aber noch mal messen.


    Wobei dieser Parameter bei keiner meiner Maschinen jemals auch nur irgendwas bewirkte

    Ich hab die nicht einzeln ausprobiert.
    Mein System läuft mit stabil und braucht weniger Strom, das reicht mir.


    Solange Hardwarehersteller Hardware bauen die "Designed for Windows" sind und workaround und Erkennung nur in diese Treiber einfliessen sehe ich hier keinen Designfehler.

    Wenn man sich die Workarounds bei einigen Notebooks ansieht könnte man fast vermuten, dass das Design eher per Zufallsgenerator erstellt wurde.
    Auf so einer Kiste kommt man auch nur mit einer speziell angepassten Windows-Version oder zumindestens den Treibern des Notebook-Herstellers weiter.
    Wenn man da eine Standard-Version installieren will, für die der Notebook-Hersteller nichts anbietet, fangen auch unter Windows die Probleme an...


    Doch ist ein Linux-Fehler, weil irgendein Entwickler mit irgendeinem schummrigen Mainboard da Probleme hatte, wird das Feature eher ab- als eingeschaltet, super Sache, Open Source ... :rolleyes:

    Es schreien halt immer nur die, bei denen es nicht geht, das ist überall so.


    Das ist kein Fanal gegen Open Source oder deren Entwickler, im Gegenteil. Aber der auch bei uns gebräuchliche Spruch "es ist fertig wenn es fertig ist", zeigt sehr schön, warum es keine HW "Designed for Linux" gibt.

    Neue Kernel kommen jedenfalls derzeit sehr regelmässig raus und eine problematische Änderung erstmal wieder zu deaktivieren ist eigentlich auch konsequent.
    In diesem Fall finde ich das zwar auch etwas übervorsichtig, da die überwältigende Mehrheit wohl keine Probleme hat.
    Aber da das mit einem Texteditor in einer Minute zurecht gebogen war, kann ich gut damit leben.



    ... aber nun zurück zum Thema:


    Mir ist noch nicht ganz klar, wo der Mehrverbrauch liegen soll.
    Wenn einer der Chips ohne Kühlkörper nennenswert Strom verbraten würde müsste man das über die Temperatur merken.
    Eigentlich kommen also nur Prozessor oder PCH in Frage.


    Beim Prozessor hatte ich schon mal versucht einen Celeron G440 zu simulieren. Also 3 der 4 Kerne deaktiviert und den Multiplikator auf 16 gestellt.
    Änderung im Stromverbrauch unter Linux (Idle) war gleich Null.


    PCH: Der wird bei mir recht warm. Und es macht überhaupt keinen Unterschied ob das System nun unter Last läuft oder nicht.
    Da währe es mal interessant, ob sich die Temperaturen unter Linux und Windows unterscheiden.


    Dann noch die Prozessor-Grafik:
    Da verhält sich noch einiges etwas merkwürdig: Bei meinen Tests braucht die Wiedergabe mit VAAPI mehr Strom (3..5W) als per Software-Decoder.
    Besitzer einer Grafikkarte könnten ja mal versuchen, was passiert, wenn man die Prozessor-Grafik im BIOS an bzw. Ausschaltet.


    Mit so Gingen wie Scheduler Governor ... hab eich auch schon rum gespielt, aber keine Ersparnis feststellen können.

    Gruss
    SHF


  • Hallo


    Hab mal mit versch. Bootparamtern in Grub rumgespielt, wie oben beschrieben.
    Es passiert nichts. Die DVB S2 und/oder G210 laut Signatur ausgebaut, VDR gestoppt, als headless konfiguriert...
    Verbrauch wird schon jeweils geringer, CPUs benutzen aber die Stromsparzustände C1, C2,... nicht, gar nicht!
    Normale 12.04 Installation schon!!!


    @ SHF C3 hatte ich wie oben beschrieben schon im Bios aktiviert, Grafik ist auch deaktiviert.
    Mein Xeon hat sowieso keine "on Chip"!
    Wenn ich heute abend/morgen Zeit habe, poste ich mal die Powertop-Bilder


    Gruß
    Ein Ehefrauennerver

    VDR aktuell: MSI C847MS-E33 Mystique SaTiX-S2 V3, 2Gb DDR3, PicoPsu 120, SNT 5000 12V von Reichelt, yavdr0.5

  • Einige der Standardoptionen die wir setzen sind nicht gut für jeden.


    vmalloc=256m - wird nicht von jedem benötigt, schadet aber auch nicht.
    quiet splash vga=792 - "sauberer Boot", Bootsplash, plymouth
    noresume - nicht nach resume Images (S4) suchen
    nohz=off - auf bestimmten System friert der Kernel ohne dies ein, für einen geringen Verbrauch ist dies aber nicht gut, also im Zweifel testweise raus damit.
    acpi_enforce_resources=lax - kann für viele Systeme inzwischen auch entfernt werden - hat was mit lm-sensors zu tun

    VDR User: 87 - LaScala LC14B - LG/Phillipps 6,4" VGA Display | Asrock H61/U3S3 | G630T | 1x 16GB Mobi Mtron 3035 1x WD 750GB 2,5" |1x L4m DVB-S2 Version 5.4

  • Die C't hatte das Board mit vergleichbarer Ausstattung, aber anderem Netzteil mit 21W Idle gemessen.


    Vmtl. mit Windows Server drauf :rofl


    Aber ernsthaft, ohne Nvidia Grafik, nur mit dem GT, ist der Unterschied nicht so groß, so in der Gegend von 5W. Bei den Nividia Karten zeichnet sich bei mir ein ähnliches Bild im Unterschied Win zu Lin ab,wie bei Intel CPU & Chipsatz ...


    Einige der Standardoptionen die wir setzen sind nicht gut für jeden.


    FullAck!


    Das mit den Parametern finde ich irgendwie auch nicht so toll, mal einen oder so für Ausnahmen, aber inzwischen muß das ja schon die Regel sein ...


    Regards
    fnu

    HowTo: APT pinning

    Einmal editiert, zuletzt von fnu ()

  • Danke steffen_b


    Hab mal nohz=off aus grub entfernt und siehe da CPUs legen sich laut Powertop schlafen.
    Mit etwas Augenzwinkern hat das knapp 5W gebracht, hätte etwas mehr erwartet, paßt erst mal.
    Hier mal die Änderung:




    Gruß


    Ein Ehefrauennerver

    VDR aktuell: MSI C847MS-E33 Mystique SaTiX-S2 V3, 2Gb DDR3, PicoPsu 120, SNT 5000 12V von Reichelt, yavdr0.5

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!