und Intel hat doch eine schlechtere Bildqualität als Nvidia!

  • Ich habe mir jetzt ein Asrock J4105B-ITX mit Intel UHD Graphics 600 gekauft. Inzwischen habe ich sowohl 1080p-Filme mit vlc abgespielt als auch HD und SD mit vaapidevice getestet. Gewohnt bin ich bisher eine Wiedergabe über eine betagte Nvidia GT-520.


    Also Leute, wer ernsthaft behauptet, zwischen Intel und Nvidia gäbe es keinen sichtbaren Unterschied mehr, der sollte mal zum Augenarzt gehen!

    Das Bild hat erkennbar weniger Details und wirkt matschiger :(. Selbst der kleine Raspberry Pi kann das besser - zwischen dem und der Nvidia konnte ich nie Unterschiede ausmachen.

    VDR1: ACT-620, Asus P8B75-M LX, Intel Core i3-3240, 4 GB DDR3 RAM 1600 MHz, passive Geforce GT1030 von MSI, Sandisk 2TB SSD, 2xWinTV DualHD, Atric-IR-Einschalter. SW: Xubuntu 20.04 auf 64GB Sandisk SSD.

    VDR2: Odroid N2+ mit CoreELEC und Ubuntu in chroot, WinTV DualHD

    VDR3: Tanix TX3 mit CoreELEC und Ubuntu in chroot, WinTV DualHD

  • Also bei SD gibt es klare Unterschiede, das hält nichtmal annähernd mit Nvidia's VDPAU Aufbereitung mit, wenn man es denn überhaupt vernünftig zum Laufen bekommt. Ich glaube aber das war nie ein Geheimnis ...


    Die Qualität von 1080i bzw. 720p skaliert ist wirklich gut mit Intel Graphics, steht Nvidia wenn überhaupt marginal nach. Und da lasse ich mir auch nichts von Augenarzt erzählen! Ich nutze Intel Core i3 CPUs als VDR (Haswell & Kaby Lake) mit MADI für 1080, nicht MCDI, das ist mir zu verrauscht und HQ Scaling für 720p.


    Und offengestanden hatte ich noch nie bessere VDRs als die Intel NUC Geräte, klein, leise, leistungsstark, zuverlässig, gutes Bild.


    Regards

    fnu

    HowTo: APT pinning

  • Also bei SD gibt es klare Unterschiede, das hält nichtmal annähernd mit Nvidia's VDPAU Aufbereitung mit, wenn man es denn überhaupt vernünftig zum Laufen bekommt. Ich glaube aber das war nie ein Geheimnis ...

    ich hatte durch einige Aussagen hier im Forum den Eindruck bekommen, als wenn Intel da mittlerweile gleichgezogen hätte.


    Interessanterweise finde ich SD auf den ersten Blick gar nicht so schlecht - was ich halt sofort sehe ist, dass bei HD die feinen Details wie Poren und Barthaare im Gesicht matschiger sind.


    Ich muss dazu sagen, dass der xserver natürlich auf 1920x1080 läuft, weil ich noch keinen UHD-TV habe. Kann mir aber irgendwie nicht vorstellen, dass das auf UHD mit upscaling besser aussehen soll.

    VDR1: ACT-620, Asus P8B75-M LX, Intel Core i3-3240, 4 GB DDR3 RAM 1600 MHz, passive Geforce GT1030 von MSI, Sandisk 2TB SSD, 2xWinTV DualHD, Atric-IR-Einschalter. SW: Xubuntu 20.04 auf 64GB Sandisk SSD.

    VDR2: Odroid N2+ mit CoreELEC und Ubuntu in chroot, WinTV DualHD

    VDR3: Tanix TX3 mit CoreELEC und Ubuntu in chroot, WinTV DualHD

  • ich hatte durch einige Aussagen hier im Forum den Eindruck bekommen, als wenn Intel da mittlerweile gleichgezogen hätte.

    Den Eindruck hatte ich auch bekommen, aber im ersten direkten Vergleich mit der S2-6400 war ich auch sehr enttäuscht, da die Farben recht flau und alles recht matschig aussieht. Da der VDR (mit i3-8300) aber noch im Aufbau ist, kann ich aber noch nichts endgültiges sagen. Das MADI werde ich mal ausprobieren, aber den X-Server will ich auf 1080p stellen (oder habt ihr den auf 1080i ?) 2160p wollte ich auch ausprobieren, da hakt aber noch etwas bei der Erkennung der Modi.

  • Ich habe einen Pentium 4560, mit dem ich meinen Film-Abspiel-PC im Wohnzimmer betreibe.

    Anfangs war das ätzend, da irgendwas immer nicht so richtig ging, mal wurden 50 fps von den ÖR nicht richtig abgespielt (Bild gefühlt Zeitlupe, Ton o.k.), mal gab es krassses Tearing ...

    Daher habe ich immer wieder meine Nvidia-Karten aus der Schublade geholt (Nvida GT 630 oder Gforce 210). Die Unterstützung für Linux war oder ist wahrscheinlich einfach lückenloser, für einen vdr gilt das sicherlich noch deutlich mehr.


    Was ich aber immer sofort vermisst habe, ist die sehr gute neutrale Farbwiedergabe der intel on board chips. Die Nvidia-Farben scheinen mir kräftiger und mehr in das rötliche abgestimmt zu sein, via nvidia-setup habe ich das nie so wirklich in den Griff gekriegt.


    Aber alles Leiden auf sehr hohem Niveau und Einbildung auch nicht ausgeschlossen, aber so bekamen die Intel-Dinger immer wieder ihre Chance in einer Bastelstunde.


    Inzwischen weiß ich gar nicht mehr, wann ich zuletzt einen Film mit nvidia-Karte geschaut habe. Egal ob DVD oder HD-Aufnahme, ich vermisse da gar nichts mehr und kann da auch keine matschigen Barthaare oder Ähnliches ausmachen. Gehöre aber auch zu denen, die alle Bildver(schlimm)besserer am Fernseher ausstellen (bis auf sehr leichte Bewegungsglättung).


    Das einzige worauf ich achte: Vor einem Update immer ein Backup, damit man nicht in die nächste Treiberfalle läuft und lieber mesa-Versionen mit gerader Nummer (also besser 19.0.x statt 19.1.x usf.) verwenden. Aber wie gesagt, inzwischen vielleicht auch nur noch Schatten der Vergangenheit. Es hat sich alles bei mir sehr gut stabilisiert.


    Da mag es immer noch das tolle Hardware-Deinterlacing bei nvidia geben, aber mit aktuellen Prozessoren gibt es da doch inzwischen reihenweise hochwertige software-basierte Filter als Alternative. Und selbst alles was bei ServusTV & Co 1080i heißt scheint mir unter der Haube doch 25p - zumindest bei Spielfilmen?


    Fazit:

    Für den vdr ist nvidia die sicherere Wahl, da besser unterstützt und alles inkl. Deinterlacing auf der Hardware. Für den Betrieb mit mpv, vlc & Co sehe ich im wahrsten Sinne des Wortes keinen Grund mehr, eine extra Grafikkarte zu betreiben.

  • aber den X-Server will ich auf 1080p stellen

    Ja, X-Server auf 1080p, das skaliert dann mein UHD-TV auf die volle Auflösung ... hab zwar einen VDR der die Auflösung kann, hatte aber noch keine Lust da mal weiter zu machen.


    UHD ist ja im Prinzip für TV & VDR eigentlich noch kein Thema und Streamingdienste mit 4K laufen eh direkt auf dem UHD-TV.


    Nachdem ja nun auch ARD Alpha in HD gesendet wird, hat man ja auch eigentlich keine Not mehr SD schauen zu müssen ... 8)


    Regards

    fnu

    HowTo: APT pinning

  • Die Treiber machen auch viel, falls noch jemand das ganze mit einem völlig veralteten Ubuntu 16.04 oder so betreibt hilft meistens schon auf mindestens 18.04 zu updaten um aktuelle Treiber zu erhalten, die haben in der Qualität auch viel gebracht.


    Ansonsten kann man nur zustimmen, man braucht außer für madVR eigentlich keine NVidia GPU mehr zum anschauen. Mpeg2 SD ist tot und da wird es keinen Wundern das hier keine großartigen Neuerungen kommen werden wenn AV1 schon vor der Tür steht.

  • Meine Erfahrungen bezogen sich auf Ubuntu 18.04, aber ich werde jetzt trotzdem nochmal eine Neuinstallation mit 19.04 machen.


    Zum Thema SD und mpeg2 ist tot: Wie schaut Ihr denn die Privaten??

    VDR1: ACT-620, Asus P8B75-M LX, Intel Core i3-3240, 4 GB DDR3 RAM 1600 MHz, passive Geforce GT1030 von MSI, Sandisk 2TB SSD, 2xWinTV DualHD, Atric-IR-Einschalter. SW: Xubuntu 20.04 auf 64GB Sandisk SSD.

    VDR2: Odroid N2+ mit CoreELEC und Ubuntu in chroot, WinTV DualHD

    VDR3: Tanix TX3 mit CoreELEC und Ubuntu in chroot, WinTV DualHD

  • Wie schaut Ihr denn die Privaten??

    Gar nicht ... 8)

    HowTo: APT pinning

  • in "HD" weil Mpeg2 in grausiger Bitrate kaum auszuhalten ist auf einem großen TV, das Programm macht dann noch sein übriges dazu ;D

    Ich habe Kabel, und mein letzter Stand ist, dass es (abgesehen von monatlichen Mehrkosten von 5,-) nahezu unmöglich ist, von Vodafone eine Smartcard zu bekommen, die in einem Alphacrypt läuft. Mal abgesehen davon, dass mein neuer USB-Empfänger gar kein CAM unterstützt.

    Gibt es eine andere, mit vertretbarem Aufwand einrichtbare Lösung, über die ich mich in einem anderen Forum (digitalelite?) informieren sollte?

    VDR1: ACT-620, Asus P8B75-M LX, Intel Core i3-3240, 4 GB DDR3 RAM 1600 MHz, passive Geforce GT1030 von MSI, Sandisk 2TB SSD, 2xWinTV DualHD, Atric-IR-Einschalter. SW: Xubuntu 20.04 auf 64GB Sandisk SSD.

    VDR2: Odroid N2+ mit CoreELEC und Ubuntu in chroot, WinTV DualHD

    VDR3: Tanix TX3 mit CoreELEC und Ubuntu in chroot, WinTV DualHD

  • Gibt es eine andere, mit vertretbarem Aufwand einrichtbare Lösung, über die ich mich in einem anderen Forum (digitalelite?) informieren sollte?

    Nein. Lieber das Geld an dieser Stelle sparen und für Streaming ausgeben. Dann bekommst Du wenigstens die Filme, die Du auch sehen willst ...

    Oder SD schauen.

    Client1: ASUS P5QC, Dual Core 3G, Cine S2, Ext. Board von TBE, Xubuntu 20.04, VDR 2.6x

    Client2: RPI3

    Server: RPI4, Sundtek SkyTV Dual 2x

  • Gibt es eine andere, mit vertretbarem Aufwand einrichtbare Lösung, über die ich mich in einem anderen Forum (digitalelite?) informieren sollte?

    Ja. Habe selber eine G09 NDS Smartcard von KD/VF und es funktioniert - nur eben nicht ganz auf legalem Wege und darf daher hier auch nicht weiter ausgeführt werden.

  • Wenn ich den Thread nochmal hochholen darf:

    Hat sich da in den letzten beiden Jahren nochmal was bei der Deinterlacing-Qualität von Intel getan?

    Ich habe über Google nur mitbekommen, dass es zwischenzeitlich wohl mal eine Regression gab (oder immer noch gibt).


    Sind die Nvidia-User von damals nach wie vor mit Ihren GT-Karten unterwegs, speziell Dr. Seltsam ?

    Und ist der Intel-Farbeindruck immer noch so blutleer?


    Zumindest beim Deinterlacing könnte man ja als vdr-sxfe-User über das xineliboutput-Plugin-Menü recht bequem verschiedene hochwertige SW-Deinterlacer als Alternative einsetzen. Sitze leider noch auf den ein oder anderen SD-Schätzchen (Dokus, Reportagen, digitalisierte S-VHS-Aufnahmen) und möchte auch ab und zu auf Nachrichtensender mit lesbaren Laufbändern umschalten können. Nur die Farben zu korrigieren ist etwas diffiziler.

  • Ich verwende derzeit eine Nvidia GT1030. Die Bildqualität ist genauso brilliant wie zuvor mit einer GT520/GT610. Das Intel-Board habe ich inzwischen verkauft, weil auch nach 2 Jahren Bastelei weder die Stabilität noch die Bildqualität auch nur ansatzweise an das Nvidia-System heranreichten. Ich habe diverse Einstellungen von Kontrast, Sättigung etc. durchprobiert aber es blieb immer unter dem gewohnten Niveau von der Nvidia-Karte.

    VDR1: ACT-620, Asus P8B75-M LX, Intel Core i3-3240, 4 GB DDR3 RAM 1600 MHz, passive Geforce GT1030 von MSI, Sandisk 2TB SSD, 2xWinTV DualHD, Atric-IR-Einschalter. SW: Xubuntu 20.04 auf 64GB Sandisk SSD.

    VDR2: Odroid N2+ mit CoreELEC und Ubuntu in chroot, WinTV DualHD

    VDR3: Tanix TX3 mit CoreELEC und Ubuntu in chroot, WinTV DualHD

    Einmal editiert, zuletzt von Dr. Seltsam ()

  • Ich habe diverse Einstellungen von Kontrast, Sättigung etc. durchprobiert aber es blieb immer unter dem gewohnten Niveau von der Nvidia-Karte.

    Ich habe beides. NVIDIA und NUC und kann die Erfahrungen mit Intel nicht nachvollziehen. Ja das Bild bei Intel ist bei den Farben etwas flauer, aber das liegt an der verwendeten LUT. Mit dem Plugin softhdvaapi und einer besseren LUT ist das Problem sofort weg.

    Inhaltlich sind die Bilder bei beiden gleich. was ich bei digitalem Bild auch erwarten würde :)

    Ich verwende die LUT Korben 214 falls es jemand wissen will.


    mfg

    joj61

  • von einer LUT habe ich noch nie etwas gehört. Kannst Du dazu mal etwas mehr ausführen?

    VDR1: ACT-620, Asus P8B75-M LX, Intel Core i3-3240, 4 GB DDR3 RAM 1600 MHz, passive Geforce GT1030 von MSI, Sandisk 2TB SSD, 2xWinTV DualHD, Atric-IR-Einschalter. SW: Xubuntu 20.04 auf 64GB Sandisk SSD.

    VDR2: Odroid N2+ mit CoreELEC und Ubuntu in chroot, WinTV DualHD

    VDR3: Tanix TX3 mit CoreELEC und Ubuntu in chroot, WinTV DualHD

  • Mit der LUT (Lookuptable) werden im Ausgang die Farben korrigiert die dann letztlich an den Fernseher ausgegeben werden. Normalerweise wird die LUT vom Treiber gesetzt und ist linear. D.h. Eingang gleich Augang. Bei NVIDIA scheint mir das aber nicht der Fall und dort werden per default die Farben aufgebessert. Damit sieht das Bild dann schöner aus. Das ganze kann man aber auch im Plugin machen und dort hat man dann die möglichleit eine LUT nach eigenen Wünschen zu verwenden. Google mal nach Korben 214 LUT und du wirst einiges dazu finden.

    Beim plugin softhdvaapi mit placebo kann man eigene LUTs verwenden. Ist im README beschrieben.

  • Ich verwende die LUT Korben 214 falls es jemand wissen will.

    Wo kann ich eine LUT auswählen/mitgeben?

    streamdev-Server: ASRock J3160, MLD 5.5 testing, Mystique SaTiX-S2 V3 Dual + DuoFlex S2, 8GB, 60GB System,

    streamdev-Client 1: NUC6CAYS (Intel HD Graphics 500), MLD 5.5 testing, One For All URC 7960,

    streamdev-Client 2: NUC6CAYH (Intel HD Graphics 500), MLD 5.5 testing, One For All URC 7960,

    Media-Server: Synology DS215j

    AV-Geräte: Hisense H65MEC5550, Dali Zensor 5 AX, Teufel S6000SW


Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!