Grafikkarten 2015 - Nvidia/VDPAU noch sinnvoll bei Haswell CPU/GPU ?

  • Vielleicht liest du deinen Beitrag noch mal selber, du hast mich direkt angesprochen und nur darauf habe ich geantwortet. Woher sollte ich denn wissen, dass du zwar mich ansprichst, aber auf speefak eingehst? Geht es noch komplizierter?


    Klar geht es noch komplizierter ;)


    - macht der Deinterlacer bei den heutigen Fernsehern noch Sinn - ist der vdr Deinterlacer besser als der eines aktuellen Standard TV ?



    Noch mal mit Zitat (am Tablet ein wenig blöd zu machen, jetzt am PC besser)
    Ich bin auf diese Frage von Speefak eingegangen, habe mich aber an dich gewendet, weil du ja auch auf diese Frage geantwortet hast, ihm unterstellt hast, dass er nichts kapiert hat und du gar nicht auf seine Frage eingegangen bist.
    Denn er hat nach dem Deinterlacer gefragt und du hast nur von OSD und Scaler geredet. Da musste ich annehmen, dass DU seine Frage nicht verstanden hast oder den Unterschied zwischen Scaler und Deinterlacer nicht kennst.

    Also noch mal ganz einfach für alle: Ein Scaler rechnet die Auflösung eines Bildes um und ein Deinterlacer berechnet aus Halbbildern Vollbilder. Das Softhdevice gibt maximal 1080i aus, also muss der Fernseher gutes Deinterlacing beherrschen, sonst hat man die typischen Fehler im Bild(Streifen und so). Wenn der VDR 720p ausgibt, muss der Fernseher das Bild im Allgemeinen auf 1080p hochskalieren (Scaler).

    Für den Benutzer stellen sich nun folgende Fragen:
    1. Wie gut ist der Deinterlacer meines Fernsehers, wenn er vom VDR 1080i Bildmaterial bekommt und wie gut ist dabei der VDR beim interlacen und hochskalieren von 720p. Denn man muss dabei bedenken, dass durch das interlacen Informationen verloren gehen, die der Fernseher wieder umständlich rekonstruieren muss.


    2. Wie gut ist der Scaler im Fernseher, wenn er vom VDR 720p Bildmaterial bekommt und er es nur auf 1080p hochrechnen muss und wie gut ist dabei der Scaler und Deinterlacer im VDR, der sowohl 576i hochskalieren und deinterlacen, wie auch 1080i runterskalieren und deinterlacen muss.


    Für mich persönlich hat sich die Sache ganz einfach geregelt da ich nur einen 720p Projektor habe -> VDR gibt 720p aus 1080i wird herunterskaliert, die Qualität ist echt gut. Macht ja auch Sinn, da es einfacher ist Pixel wegzunehmen als nicht existierende zu berechnen.


    Für alle anderen gilt: Probieren geht über studieren, was die beste Bildqualität betrifft.


    Und zum Schluss noch einen oder zwei Sätze speziell an gda:


    Man muss niemandem irgendwo reinkriechen, nur weil man einen gewissen Umgangston wahrt. Dein Ton ist recht schroff und kann viele Neulinge abschrecken oder anderen auf den Sack gehen. Ich kann damit leben und wenn du mit dem Echo auch umgehen kannst, ist das für mich in Ordnung und sollte mich nicht weiter stören. Bei euch Fischköpfen ist der Umgangston halt wie das raue Wetter, aber ihr habt das Herz schon am rechten Fleck. Also nix für ungut. :)


    Mist, doch mehr als 2 Sätze gelabert. ;)

    VDR: Silverstone LC16M, 2x DVBSky S952, Asrock B85 Pro4, Core i3-4170, 8GB Ram, 525GB SSD + 4TB HD, DVD, System: gentoo amd64, Softhddevice

  • Das Softhdevice gibt maximal 1080i aus, also muss der Fernseher gutes Deinterlacing beherrschen, sonst hat man die typischen Fehler im Bild(Streifen und so). Wenn der VDR 720p ausgibt, muss der Fernseher das Bild im Allgemeinen auf 1080p hochskalieren (Scaler).


    Hm...mein Fernseher bekommt vom VDR immer 1080p.


    Ciao Louis

  • Benutzt du das Softhddevice oder ein anderes Ausgabeplugin? Ich hab vorhin nochmal ins Softhddevice geschaut und das kann -wenn ich mich nicht täusche - nur 1080i. Ich habe nur von dem geredet. Aber bei anderen Ausgabeplugins ist die Situation ähnlich, nur verschieben sich die Aufgaben vom Fernseher ins Plugin bei 1080p. Da stellt sich dann die Frage, welcher Deinterlacer ist besser, der im Plugin oder der im Fernseher. Man kann ja den VDR mal testweise auf 1080i stellen und schauen, was der TV draus macht.

    VDR: Silverstone LC16M, 2x DVBSky S952, Asrock B85 Pro4, Core i3-4170, 8GB Ram, 525GB SSD + 4TB HD, DVD, System: gentoo amd64, Softhddevice

  • Also ganz so einfach ist das mit VDPAU nimmer, zbl/Antti's Arbeit an der Intel-Ausgabe für softhddevice ist ganz hervorragend.


    Die Bildqualität überzeugt in Motion Adaptive Deinterlacing als auch Motion Compensated Deinterlacing und ist auf Nvidia Niveau. Ich teste das ja nun seit Monaten mit einer kleiner BayTrail GPU (J1800), bisher MADI, aber inzwischen geht auch MCDI.

    Hast Du den dritten Player, also AMD, auch getestet?


    Ich möchte in den nächsten Wochen unbedingt updaten, und die nVidia soll aus thermischen Gründen raus.


    Zur Wahl stehen:
    - AsRock AM1H-ITX + Athlon
    - AsRock B85M-ITX + Haswell



    Ich würde natürlich ungern auf's falsche Pferd setzen und würde mich über Empfehlungen, speziell von denjenigen, die vielleicht schon beides getestet haben, freuen.

  • Hm...mein Fernseher bekommt vom VDR immer 1080p.


    Ciao Louis


    Eben, das Ausgabebild wird schon im VDR skaliert, auf 1920x1080 gerechnet, deinterlaced (sofern nötig) und ausgegeben, also 1080p, oder? Ansonsten bräuchte man vermutlich auch keine Nvidia Grafikkarte. Deswegen kann an auch sämtliche Bildoptimierer am TV ausschalten.


    EDIT: Wenn es anders wäre, sähe das OSD auf 576i auch nicht sonderlich toll aus ;)

    - Client1: Thermaltake DH 102 mit 7" TouchTFT * Debian Stretch/vdr-2.4.0/graphtft/MainMenuHooks-Patch * Zotac H55-ITX WiFi * Core i3 540 * 4GB RAM ** Zotac GT630 * 1 TB System HDD * 4 GB RAM * Harmony 900 * satip-Plugin

    - Client2: Alfawise H96 Pro Plus * KODI
    - Server: Intel Pentium G3220 * DH87RL * 16GB RAM * 4x4TB 3.5" WD RED + 1x500GB 2.5" * satip-Plugin
    - SAT>IP: Inverto iLNB

  • Benutzt du das Softhddevice oder ein anderes Ausgabeplugin?


    Ja klar. Wobei das Ausgabeplugin eigentlich egal ist, der X Server sendet das Signal an den TV.


    Ciao Louis

  • Wobei das Ausgabeplugin eigentlich egal ist, der X Server sendet das Signal an den TV.


    Nein, ich denke eher andersrum. Der X-Server ist egal und bekommt nur die aufbereiteten Daten von der Grafikkarte/Plugin, die er ausgibt.


    Wenn der VDR 1080p ausgibt kann ich natürlich den Deinterlacer im Fernseher ausschalten, ABER es ist nicht gesagt, dass die Bildqualität dann besser ist, als wenn ich 1080i ausgebe und der Fernseher das Deinterlacing macht. Das muss man testen und dann entscheiden.

    VDR: Silverstone LC16M, 2x DVBSky S952, Asrock B85 Pro4, Core i3-4170, 8GB Ram, 525GB SSD + 4TB HD, DVD, System: gentoo amd64, Softhddevice

  • Wie stellst du denn "am VDR" die 1080i Ausgabe ein?


    Die Setup Optionen im Softhddevice Plugin beziehen sich übrigens auf die verschiedenen Empfangsformate und wie das Plugin diese Formate handhaben soll. Dass da kein 1080p vorkommt liegt daran, dass es keinen (zumindest mir bekannten) Sender gibt, der 1080p sendet ;)


    Ciao Louis

  • Letzten Endes ist doch der Grafikkartentreiber, der die Spezifikationen des Ausgangssignals festlegt. Ich bin jetzt für meine Hardware ziemlich sicher das der VDR bzw der GK Treiber für meine GT520 in 1080i sendet, denn ich habe eine HDMI Switch zwischen VDR/AVR und TV und dieser kann max. 1080i übertragen. Ich hatte mich damals über Bildfehler, Farbveschiebungen, Haker gewundert als ich den Desktoprechner zum Zocken an den HDMI Switch gehängt habe. Desktop Rechner Direkt am TV war alles wunderbar - wobei - Aktuell läuft eigentlich alles über den Denon 1912 AVR auch der Desktoprechner, vom AVR in Switch und vom Switch in die TVs; d.h. Der AVR würde dann auch 1080p 1080i machen - sonst würde der Switch bei 1080p das Bild wieder verzerren ?(


    Ich nutze kein SoftHDdevice sonder XBMC und das läufts über den GK Treiber und die XBMC ausgaben, btw softHDdevice nutzt doch auch den GK Treiter ? Irgendwie bin ich da grad verwirrt :rolleyes: Wie kann ich denn herausfinden welches Signal aus meinen DVI/DP/HDMI VDR/Desktop Anschlüssen ausgegeben wird ? Ich bin mir zwar sicher das am TV 1080i ankommt nur würde ich das ganze auch gerne mal empirisch prüfen.


    GDA : damit hast du leider nicht ganz recht, bei 1080i am HDMI Eingang des TV kommt der TV Deinterlacer doch zum tragen. Es geht mir auch nicht um die Auflösungen, denn die sind beim VDR/XBMC/GK Ausgabe immer gleich, im Gegensatz zu machen Sat Receivern. Dort kommt das von dir geschilderte Problem mit dem OSB zum tragen.


    Aber 2 Dinge würd ich doch gern noch wissen ;) :


    1 Was verbraucht mehr WATT : CPU/GPU oder CPU + dedizierte GPU ( die TPD von 35 Watt entspricht nicht so ganz der Leistungsaufnahme des CPU und effektive Leistungsaufnahme wird nirgendwo angeben, sind die 35 Watt auf CPU und GPU Maximalleistung bezogen ) ?


    2 Entlastet die Intel HD4XXX Grafikeinheit die CPU so wie eine Geforce GK ? Sprich bleiben beim Schauen von HD Filmen noch genug Leistungsreserven für die VMs was die CPU angeht übrig ( mein VDR I3 2100T + GF GT520 ruckelt nicht mal wenn alle 4 VMs die CPU auf Vollast bringen ) ?


    Server : Debian 10 + VDR 2.4.0 on | HP Gen8 Microserver X1265L | 16 GB EEC DDR 1600 | 1 x EVO 860 Pro 500 GB, 2x6TB HGST, 1x10 TB HGST | TBS 6981
    Client : Debian 11 + Kodi 19 (deb.multimedia Quellen) on | Intel DH77EB | i3 2100T | 16 GB 1600 DDR3 | GF GT 520 | 1 x 850 EVO 500 GB | BQ 300W L7 | X10 Remote | in Zalman HD 160 | Sedu Ambilight |
    Client : Debian 10 + Kodi 19 (deb.multimedia Quellen) on | Asus Z87 Pro | I5 4660 | 16 GB 1600 DDR3 | GF GTX770 | 1 x 850 EVO 500 GB | BQ 450 W L8 | in Chieftech CS 601 |
    Client : Debian 10 + Kodi 19 (deb.multimedia Quellen) on | Lenovo T430 |


    Websites | speefak.spdns.de | www.itoss.org | cc-trade.info | www.bike2change.de | www.x-woodart.de |

  • Wie stellst du denn "am VDR" die 1080i Ausgabe ein?


    Müsste über den Treiber der GK eingestellt werden. Da sind wir wieder beim X-Server. :P


    Um die beste Bildqualität bei allen Sendern (576i, 720p und 1080i) zu erhalten, müsste der VDR (also das Ausgabegerät, Graka) nur einen Passthrough des Videosignals ohne jegliche Bearbeitung machen und dieses an einen (Highend)-Videoprozessoer senden, der die ganze Arbeit macht und das Eingangssignal auf das gewünschte Ausgangssignal skaliert und deinterlaced. Aber ich glaube nicht, dass das mit dem VDR geht (geht das überhaupt mit einem Gerät?). Selbst wenn es funktionieren würde, wäre da noch das OSD-Problem.

    VDR: Silverstone LC16M, 2x DVBSky S952, Asrock B85 Pro4, Core i3-4170, 8GB Ram, 525GB SSD + 4TB HD, DVD, System: gentoo amd64, Softhddevice

  • Wie kann ich denn herausfinden welches Signal aus meinen DVI/DP/HDMI VDR/Desktop Anschlüssen ausgegeben wird ?


    Kann dein Denon nicht anzeigen, was an welchem Eingang anliegt?

    VDR: Silverstone LC16M, 2x DVBSky S952, Asrock B85 Pro4, Core i3-4170, 8GB Ram, 525GB SSD + 4TB HD, DVD, System: gentoo amd64, Softhddevice

  • Hm...mein Fernseher bekommt vom VDR immer 1080p.

    Genau, das ist Standard und das Softwareausgabeplugin (xineliboutput, xine-ui, softhddevice) rechnet alle Formate entsprechend um bzw. hoch.


    Hast Du den dritten Player, also AMD, auch getestet?

    Nein, keine Hardware, muss nicht alles testen, kann auch mal jemand anderes machen und nicht immer nur aufs gesattelte Pferd sitzen ...


    und die nVidia soll aus thermischen Gründen raus.

    Ich weiß nicht was Du für ein altes Schätzchen hast, aber meine passiven GT630 (Rev.2) sind kaum ein Faktor im Wärmehaushalt und die OnChip GPUs von Intel bzw. AMD produzieren auch extra Wärme, unterschätze das nicht ...


    Ich würde natürlich ungern auf's falsche Pferd

    Wieso, kannst doch jederzeit eine GT630/730 zustecken. Wenn Du nur reinstecken und soll laufen willst, bist Du nach wie vor mit Nvidia auf der richtigen Seite ...


    Nein, ich denke eher andersrum.

    Da solltest Du nochmals an Deinem Verständnis arbeiten, louis hat das absolut korrekt beschrieben wie es läuft. Und wirklich wenig Deinterlacer von TVs können mit denen von Nvidia und ja, inzwischen auch Intel mithalten.


    Regards
    fnu

    HowTo: APT pinning

  • Da solltest Du nochmals an Deinem Verständnis arbeiten, louis hat das absolut korrekt beschrieben wie es läuft. Und wirklich wenig Deinterlacer von TVs können mit denen von Nvidia und ja, inzwischen auch Intel mithalten.


    Ach ja, sollte ich das?
    Vielleicht war mein Gedankengang nicht deutlich genug oder wir gehen die Sache gedanklich unterschiedlich an.
    Also ich sage, der X-Server ist egal, ist er ja auch, da ich den X-Server wechseln kann und das Plugin trotzdem funktioniert (sofern das Plugin und die GK-Treiber mitspielen)


    Louis sagt, dass man das Plugin tauschen kann, da sie ja alle (mehr oder weniger) genau das selbe machen. Stimmt auch.


    Der X-Server ist für mich aus dem Grund austauschbar, weil die Arbeit (deinterlacing, scaling) nicht X-Server abhängig ist, sondern durch die Grafikkarte gemacht wird, die wiederum vom Plugin gesagt bekommt, was sie machen soll (ganz simpel ausgedrückt). Der X-Server ist für mich einfach nur das Schaltbrett oder Kleber, der die einzelnen Komponenten miteinander verbindet und die Ausgabe macht. Die eigentliche Arbeit machen die Clients (Fenstermanager etc.)


    Falls hier in dieser sehr vereinfachten Beschreibung Fehler sind, bitte ich diese zu entschuldigen und wäre für eine Korrektur dankbar.


    Fernseher, die mehr als 300€ kosten haben schon sehr gute Deinterlacer drin und wenn es noch ein wenig kostspieliger wird, sind sie denen von NVidia mindestens gleichwertig. Mein Videoprozessor macht aus dem Komponentensignal einer FF bessere Bilder als VDPAU mit SD-Kanälen. Das sind Erfahrungswerte, hast du die auch oder beruht deine Aussage nur auf Hörensagen?

    VDR: Silverstone LC16M, 2x DVBSky S952, Asrock B85 Pro4, Core i3-4170, 8GB Ram, 525GB SSD + 4TB HD, DVD, System: gentoo amd64, Softhddevice

  • Das sind Erfahrungswerte, hast du die auch ...

    Nein gar nicht, woher auch, ich benutze VDR oder sonstige Receiver, Mediaplayer etc. nur theoretisch wie jeder andere hier im Portal auch ... :thumbdown:

    HowTo: APT pinning

  • Um die beste Bildqualität bei allen Sendern (576i, 720p und 1080i) zu erhalten, müsste der VDR (also das Ausgabegerät, Graka) nur einen Passthrough des Videosignals ohne jegliche Bearbeitung machen und dieses an einen (Highend)-Videoprozessoer senden, der die ganze Arbeit macht und das Eingangssignal auf das gewünschte Ausgangssignal skaliert und deinterlaced. Aber ich glaube nicht, dass das mit dem VDR geht (geht das überhaupt mit einem Gerät?). Selbst wenn es funktionieren würde, wäre da noch das OSD-Problem.


    Das ging/geht mit der Reel-eHD-Karte!
    Da kann man einstellen, ob man das Signal durchreicht, wie es vom Sender kommt (Paththrough) oder von der Reel-eHD-Karte auf ein bestimmtes Ausgangssignal umrechnen lässt und dann erst zum TV schickt.


    Das einzige Manko der Reel-eHD-Karte war (solange ich diese Karte hatte), dass eben das OSD maximal in 720p ausgegeben werden konnte. Das war für mich u. a. auch einer der Gründe die Reel-eHD-Karte aus dem VDR zu werfen, da ich gerne ein besseres OSD wollte. Ich habe damals übrigens immer Paththrough verwendet, da mein Philips-TV einen sehr guten Deintelacer/Squaler hat. Selbst bei der Paththrough-Ausgabe, war das OSD immer gleich groß, es war also nicht vom verwendeten Sendesignal (576i, 720p, 1080i) abhängig!


    Leider wurde ja die Entwicklung der Firmware für die Reel-eHD nicht weiter fortgeführt und somit hat sich auch keiner darum gekümmert, dass das OSD besser dargestellt werden konnte, falls das bei dem eingebauten Chip überhaupt möglich war. Ob das heute noch so ist, kann ich nicht sagen, da ich die Karte vor ca. 5 Jahren aus den o. g. Grund verkauft habe.


    Paulaner

  • ich hol schon mal das popcorn raus, vllt steigt gda gleich auch noch mit ein :mua


    Leute jeder hat so seine Macken, akzeptiert das doch, kurzer Hinweis aber nicht ewige Diskussionen, sind hier doch nicht bei den BWLern oder Psychologen :wand


    Ich Liege immer noch mit der Seuche im Bett und wollte jetzt nicht im Wohnzimmer am AVR rumkriechen oder umstecken, das werd ich machen wenn der VDR fürn Kollegen fertig ist, und gleich mal messen ob die CPU/GK Lösung ( Haswellbasis ) mehr Strom verbraucht als mit ner separaten GK.


    ich hab grad mal geschaut wie ich herausfinde was meine GK jetzt genau für ein Signal ausgibt und bin auf xrander gestoßen - allerdings habe ich Gefühl das xrander nicht per ssh shell läuft, denn ein xrander --query gibt mir die Infos aus die zu meinem Desktoprechner passen aber nicht zum vdr Server


    Server : Debian 10 + VDR 2.4.0 on | HP Gen8 Microserver X1265L | 16 GB EEC DDR 1600 | 1 x EVO 860 Pro 500 GB, 2x6TB HGST, 1x10 TB HGST | TBS 6981
    Client : Debian 11 + Kodi 19 (deb.multimedia Quellen) on | Intel DH77EB | i3 2100T | 16 GB 1600 DDR3 | GF GT 520 | 1 x 850 EVO 500 GB | BQ 300W L7 | X10 Remote | in Zalman HD 160 | Sedu Ambilight |
    Client : Debian 10 + Kodi 19 (deb.multimedia Quellen) on | Asus Z87 Pro | I5 4660 | 16 GB 1600 DDR3 | GF GTX770 | 1 x 850 EVO 500 GB | BQ 450 W L8 | in Chieftech CS 601 |
    Client : Debian 10 + Kodi 19 (deb.multimedia Quellen) on | Lenovo T430 |


    Websites | speefak.spdns.de | www.itoss.org | cc-trade.info | www.bike2change.de | www.x-woodart.de |

  • Es geht um die Darstellung des OSDs, dass sich bei diesen drastischen Änderungen der Auflösung doch anpassen muss. Als FF-Benutzer kannst du das ja auch gar beurteilen, weil du ja eben gar nicht beim Wechseln der Kanäle zwischen den Auflösungen 702×576, 1280x720 und 1920x1080 wechseln kannst.

    Das Zitat bezog sich auf eine SD-FF (denke ich). Aber um keine Missverstaendnisse aufkommen zu lassen, mit einer HD-FF geht es sehrwohl, zwischen den Aufloesungen zu wechseln.


    Um die beste Bildqualität bei allen Sendern (576i, 720p und 1080i) zu erhalten, müsste der VDR (also das Ausgabegerät, Graka) nur einen Passthrough des Videosignals ohne jegliche Bearbeitung machen und dieses an einen (Highend)-Videoprozessoer senden, der die ganze Arbeit macht und das Eingangssignal auf das gewünschte Ausgangssignal skaliert und deinterlaced. Aber ich glaube nicht, dass das mit dem VDR geht (geht das überhaupt mit einem Gerät?). Selbst wenn es funktionieren würde, wäre da noch das OSD-Problem.

    Mit meiner HD-FF habe ich das so eingestellt, dass die Ausgabeaufloesung bei HD-Material immer der Aufloesung (720p, 1080i) des Quellmaterials entspricht, Skalierung und Deinterlacing macht der Fernseher (der es fuer meinen Geschmack am besten kann, doppelte Signalbearbeitung wird vermieden). Skinnopacity sieht mit diesen beiden Aufloesungen auch perfekt aus. Ein kleiner Nachteil ist, dass der Fernseher beim Wechsel zwischen 720p und 1080i vielleicht eine Sekunde extra zum Umschalten braucht (stoert mich nicht, kommt bei mir als HD+Verweigerer ohnehin kaum vor).
    Bei Wiedergabe von SD-Material habe ich es so eingestellt, dass die zuletzt vorhandene HD-Aufloesung einfach bestehen bleibt. Damit sieht das OSD gut aus, die doppelte Bearbeitung (Deinterlacing und Skalierung in der HD-FF und ggf. nochmal im Fernseher) faellt mir bei SD-Material nicht auf.


    Mir ist auch klar, dass das mit einer Grafikkarte eine komplett andere Story ist, Grakas moegen ja eher keine Interlaced-Ausgabe.


    Gruss,
    S:oren

  • Nein, keine Hardware, muss nicht alles testen, kann auch mal jemand anderes machen und nicht immer nur aufs gesattelte Pferd sitzen ...


    Ich weiß nicht was Du für ein altes Schätzchen hast, aber meine passiven GT630 (Rev.2) sind kaum ein Faktor im Wärmehaushalt und die OnChip GPUs von Intel bzw. AMD produzieren auch extra Wärme, unterschätze das nicht ...


    Wieso, kannst doch jederzeit eine GT630/730 zustecken. Wenn Du nur reinstecken und soll laufen willst, bist Du nach wie vor mit Nvidia auf der richtigen Seite ...

    Du musst ja auch nicht alles testen. Ist schon richtig. War ja auch nur eine Frage.


    Ich habe noch eine onBoard 8200. Die wird ja semi-passiv vom CPU-Lüfter mitgekühlt. Da ich den aber im Streacom FC5 nicht habe, wird der Chip zu heiß. Daher thermische Probleme.


    Mit einer passiven Geforce gäbe es wahrscheinlich die gleichen Probleme, mit einer aktiven hätte ich wieder einen Lüfter im System...


    Die APUs hätten halt den Vorteil, dass ihre Wärme mittels der Heatpipes mit an das Gehäuse bzw. den Kühlkörper übertragen würde.


    Es wäre zwar schön, wenn man möglichst wenig machen muss, es muss aber keine Plug'n'play Lösung sein.


    Meine letzten Erfahrungen mit VAAPI rühren vom H55 Sandy Bridge. Da war es mit den Deinterlacern vor allem beim Fussball noch nicht so überzeugend.

  • hmmmm - auch wenn ihr mich steinigt, aber den VDR den ich grad für Kollegen zusammenbaue soll als zentraler Server fungieren, incl 2-3 VMs ( Tor Tateway, Windows VM, ) auf Virtualbox Basis mit phpvirtualbox als Frontend ( Windows VM fürs Geschäft Kundendatenbanken, Rechnungen etc ). Das DH87RL hatte ich auch ins Auge gefasst; gibt es es allerdings kaum noch zu kaufen und recht teuer im Vergleich zum DB85FL ( das wirds wohl werden ). Aufgrund der o.g. Anforderungen soll ein Intel i3 mit 35 TDP ( 4XXXT ) als Rechenkern verbaut werden. Jetzt stellt sich die frage HD4400 oder HD 4600 Grafik.

    Das DH87RL gibt es manchmal im Alternate Outlet, dann sogar zu interessanten Preisen. Ansonsten gibt es ja auch noch genug andere HSW Boards, teils sogar mit CIR
    bei Asrock.
    Warum eine T CPU? Die Unterschiede beim Verbrauch sind eher gering, dafür ist man für immer in der Geschwindigkeit limitiert, anders als bei nonT CPUs die man
    oft im BIOS selber drosseln kann, sofern man das überhaupt braucht.
    HD4600 hätte mehr EUs, die Frage ist ob man diese jetzt oder später irgendwann noch braucht.

    1 Was verbraucht mehr WATT : CPU/GPU oder CPU + dedizierte GPU ( die TPD von 35 Watt entspricht nicht so ganz der Leistungsaufnahme des CPU und effektive Leistungsaufnahme wird nirgendwo angeben, sind die 35 Watt auf CPU und GPU Maximalleistung bezogen ) ?

    Kann man so pauschal denke ich schlecht beantworten. Da gibt es viele Faktoren die einiges ausmachen können, z.B. wird der C6 Status im Prozessor oft nicht mehr
    erreicht wenn eine externe GPU verbaut ist.

    2 Entlastet die Intel HD4XXX Grafikeinheit die CPU so wie eine Geforce GK ? Sprich bleiben beim Schauen von HD Filmen noch genug Leistungsreserven für die VMs was die CPU angeht übrig ( mein VDR I3 2100T + GF GT520 ruckelt nicht mal wenn alle 4 VMs die CPU auf Vollast bringen ) ?

    Ein einfacher HD Film belastet einen i3 Haswell sicherlich nicht wirklich, wie das aussieht wenn man mit 4 VMs die ganze CPU runter zieht weiß ich allerdings nicht.
    Hier wäre sicherlich auch eine gute Software wichtig die die VMs ein wenig ausbremst damit der Film immer einwandfrei wiedergegeben werden kann.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!