Posts by dvbs2-exclusive

    edit: AT separat und mit ORF

    Also ich kann schon bestätigen, dass es mit 0.0.4 hin und wieder Bildfehler gibt.

    Man müsste wohl testweise zwei gleichzeitige Aufnahmen machen: Ein Mal mit voller (originaler) Rate, ein Mal mit nalustripper-Patch. Anschließend vorne und hinten wegschneiden, was aufgrund von Zeitversatz nicht zusammen passt. Dann die unkomprimierte Aufnahme durch den Referenz-Stripper jagen und die Dateien im Stil von diff3 vergleichen: Was strippt die Referenz und warum, was der Nalustripper anders macht?

    Quote

    Original von hondansx
    Danke für die Info. Was meinst du mit "keine gröberen Probleme"?


    Bei mir gibt's jetzt ab und zu Bildstörungen. Dazu muss ich sagen, dass ich vor kurzem den nalustripper-Patch aktiviert habe, es könnte also auch an dem oder an sonst einem Update liegen, das lässt sich ja nie so genau sagen.

    Ich würde - insbesondere nach meinen (schlechten) Erfahrungen mit Mantis-Karten - jederzeit wieder TBS-Karten kaufen.

    Quote

    Original von hondansx
    Kann mal jemand berichten, ob es mit den neuesten Treibern linux-s2api-tbs6980_v1.92.2.rar für die DVB-S2 PCIe Twin noch irgendwelche Probleme gibt! Ausserdem hat die Karte einen IR Port+FB. Hat den jemand am laufen bzw. kann die für andere FB auch benutzt werden?

    Mittlerweile kriegt man die schon für 124€ und wenn die wirklich so eine gute Empfangsleistung hat, wäre es doch eine gute Wahl.

    Ich habe den 1.92.2 auf meinen TBS6980ern erst sehr kurz am Laufen, meine aber, keine gröberen Probleme wahrzunehmen. Den IR-Port lasse ich zugunsten einer X10-RF-Fernbedienung verkommen. :)

    Ich bin immer noch von dieser Karte überzeugt, bin aber ein wenig enttäuscht, dass im Unterschied zur TBS6920 der Treiber zum größten Teil nicht Open Source ist.

    Ich zitiere:

    Quote

    TBS 6981 card is the updated version of TBS6980. Compared to TBS 6980, TBS 6981 card is more stable and powerful.

    Ich hoffe, man meint mit "more powerful" nicht, dass es mehr Strom verbraucht oder heißer wird :)

    Edit: Aus meiner Sicht infrage kommende Verbesserungen: blind scan und/oder native Unicable-Unterstützung.

    Ich habe hier seit gut einem ¾ Jahr VDR mit xineliboutput am Rennen, das ganze auch noch gestreamt, alles rennt wunderbar. VDPAU arbeitet bei mir auf einer G210.

    Das einzige, was mir zu schaffen macht, ist der Fernseher. Er meint nämlich bei praktisch jedem Rechnerstart/Einschalten des Clients, in den Bildmodus 16:9 schalten zu müssen, was gut klingt, aber in der Praxis einen Overscan bedeutet. Jetzt also die TV-Fernbedienung bemühen und auf »Nur Scan« stellen, und der Spuk ist vorbei, das Bild wird 1:1 angezeigt, bis zum nächsten Neustart. Der Fernseher (40" FullHD) ist über HDMI angeschlossen.

    Meine Vermutung ist, dass die Grafikkarte irgendwo im HDMI-Datenstrom den Overscan „anfordert“ bzw. einen solchen nicht verbietet mit Hinweis auf die voll genützte Auflösung. KDE-Spielen macht entsprechend auch keinen rechten Spaß auf diese Art, ohne den angesprochenen Umweg über die Fernbedienung. Angemerkt sei noch, dass ich den Fernseher nur auf diese Art betreibe, also ihn eigentlich – wie einen Monitor – nur an- und ausschalten muss.

    Fällt euch dazu etwas ein? Ist das was nvidia-Spezifisches oder eine allgemein gültige xorg.conf-Einstellung?

    Quote

    Original von ALT255

    Wo gibt es die 2.10 ?

    Die gibt’s nicht offiziell, ich hab sie vom Support direkt bekommen.

    Bei dieser Version bricht bei mir nach ca. 20 Sekunden der Datenstrom unvermittelt ab. Es nützt kein Kanalwechsel und auch kein LNB-Wechsel, auch kein VDR-Neustart, die Sache ist dann bis zum Treiber-Neustart tot. Ein weiterführender Test hat sich damit für mich erübrigt.

    Ich habe 1.88 auch noch recht mühsam auf 2.6.34 hochgepatcht. Damit läuft der VDR zwar anständig hoch, aber im Betrieb verabschieden sich dann manchmal die LNBs.

    1.54 hat zwar das Hochfahrproblem mit den HD-Kanälen auch, ist sonst aber nach meiner Erfahrung sehr stabil.

    Ich werde mal beizeiten 1.92.1 probieren.

    Ich hatte neben der 1.88er auch die Version 2.10 zum Testen, beide konnten mich nicht überzeugen. Von 1.92 weiß ich nichts, käme mal auf einen Versuch an.

    Ich bin nach mehrmaligen Versuchen wieder auf 1.54 zurück gesprungen, die scheint mir derzeit immer noch die stabilste Version zu sein.

    Ich habe die letzten 3 Wochen nun mit mehr oder weniger abgeschaltetem Motion Plus geschaut. Mein Resumee: Man gewöhnt sich an schwächere Zwischenbildberechnung doch schneller als gedacht.

    In einer Phase habe ich die Zwischenbildberechnung gänzlich deaktiviert und meinen 100-Hertzler um die Hälfte kastriert. Im Effekt ist das Bild natürlich stark verschmierend und flackert ungewohnt stark, woran ich mich wohl nicht mehr gewöhnen will. Belohnt wird man einzig mit einem fast vollständigen Verschwinden der Artefakte.

    Warum nur fast?

    Mein Eindruck ist nun folgender: Die Artefakte werden bereits vom Programmanbieter eingeschmuggelt. Sie sind ein Effekt der Kompression und fallen bei normaler Darstellung mit 50 Hz eigentlich garnicht auf. Erst die Zwischenbildberechnung gibt den fast unsichtbaren Artefakten eine Bedeutung und verstärkt sie, ähnlich wie es Moskito-Rauschartefakten nach einem Upscaling ergeht. Erschwerend kommt dazu, dass die Artefakte insbesondere bei Bewegungen um das Motiv herum auftreten, also genau das interessante Detail, das alle Zuschauer anblicken. Der Soap-Effekt verstärkt den Tiefeneindruck und die 3D-Wirkung, damit aber auch den Eindruck, dass gerade in diesem Bildteil etwas nicht stimmt.

    Wie gesagt: Am Besten wäre es, wenn die Sender gleich mit einer vernünftigen Wiederholrate senden und so die Zwischenbildberechnung machen würden, bevor das Bild in den dafür besonders wichtigen Bereichen der Kompression zum Opfer gefallen ist. Bis dahin werden aber noch einige MPEG-Frames über den Äther gehen …

    Danke für Euer Feedback. Ja, unter dem Licht der DVB-T-Qualität betrachtet, sollte ich eher still sein und demütig Mitleid mit den High-End-TV-Käufern haben, die meinen, diesen mit DVB-T (aber unbedingt über fingerdickes HDMI-Kabel mit Anschlusssteckern aus purem Gold verbunden!) auszureizen.

    Stalker: Was soll die Artefakt-Produktion des Fernsehers mit der Aufnahmetechnologie zu tun haben? Ich habe immer noch das Gefühl, Du meinst etwas vollkommen Anderes als ich. Ich spreche von einem Effekt bei Kamera- bzw. letztlich Motivbewegungen, wo in den errechneten Zwischenbildern die Hintergrundebene rund um den Vordergrund herum nicht richtig ausgerechnet wird und so deutlich sichtbare Artefakte entstehen.

    Ich habe mich gestern also daran gemacht, die Untiefen der Zwischenbildberechnung konfigurationsseitig zu ergründen. Voreingestellt war für Motion Plus 100 Hz der Wert „mittel“.

    Testweise habe ich den Wert mal auf „aus“ gestellt, erwartungsgemäß waren die Artefakte dann weg. Das ist allerdings eine Erkenntnis, die etwa den Wert von „Beim Ausschalten des Fernsehers sind die Artefakte auch weg!“ hat. Das ruckelige und schmierige Bild erinnert an billige 50-Hz-Technik, und wenn ich nicht wüsste, dass einen die Zwischenbildberechnung wirklich verwöhnt, würde ich sagen, der Hersteller macht das Bild extra gaga, um die eingebaute Technik besser da stehen zu lassen.

    Anschließend habe ich den Wert auf „hoch“ gestellt. Die plötzlichen Wechsel von weicher zu ruckeliger Darstellung verschwinden dann, aber in den sonst davon betroffenen Szenen steigt die Artefaktbildung rapide an.

    Ein Wert „niedrig“ bringt recht wenig. Nur bei wirklich ganz langsamen Schwenks oder überhaupt festen Einstellungen wird die Zwischenbildberechnung aktiviert, ansonsten ruckelt es, artefaktfrei aber voller Schlieren.

    Noch einmal: Es geht nicht um ein aufnahmetechnisches Problem (Belichtung, Schärfe), und mit dem Übertragungsweg hat es auch nichts zu tun, da dieser hier bereits die beste Qualität liefert. Es ist ganz alleine eine Artefaktbildung bei der Zwischenbildberechnung, ohne die die LCD-Technik zu vergessen ist.

    Ich werde trotzdem einmal versuchen, die Kopfschmerzen zu ignorieren, die ich bei der Motion-Plus-Kastration zu ertragen habe. Also einen vollen Abend auf „aus“ und zurück in die LCD-Ruckel-Steinzeit. Nur gut, dass man die Grauwechsel im Vergleich zu früher im Griff hat.

    Quote

    Original von Stalker
    Unter dem Vorbehalt, dass nicht irgendein "Bildverbesserungs"-Algorithmus verschlimmbessert:
    Artefakte entstehen, wenn zuviel Information, z.B. eine starke Bildveränderung, auf zu niedrige Datenrate komprimiert werden. Das wird aber nicht als Ruckeln, sondern als "Kacheln" wahrgenommen.
    Mikroruckeln entsteht, wenn eine (subjektiv erwartete) gleichmäßige Bewegung ungleichmäßig dargestellt wird. Das passiert z.B. bei 60->50-Konvertierungen. Zwischenbilder mit 100Hz, 200Hz usw. bringen da wenig, wenn überhaupt (IMHO ist das nur ein Mythos vom Marketing).
    Bist du dir sicher, dass die Wiedergabekette X11 -> Fernseher -> Bildschirm durchgängig 50Hz ist, und nicht irgendwo 60Hz?


    Äh, ich will mich ja für die Antwort bedanken, aber hast du das Posting gelesen und auch verstanden? Weißt Du überhaupt, was Zwischenbildberechnung ist? Lies mal hier: http://de.wikipedia.org/wiki/LCD-Ferns…zur_Optimierung

    Artefakte entstehen, wann immer Artefakte entstehen. Das kann mit einem Kompressionsalgorithmus zu tun haben oder auch mit einem Zwischenbildberechnungsalgorithmus, die beide auf Basis von Bewegungen ihre Arbeit verrichten. Bei der Kompression kann man sich mit einer herzhaften Datenratensteigerung sowie einem Kodierverfahrens-Upgrade helfen. In den TVs – jedenfalls in jenen, die ich kenne – sind hingegen für die Zwischenbildberechnung Chips verbaut, die ihrer Sache nicht gewachsen sind und einerseits mit der Datenrate oft nicht mitkommen (und dann die Zwischenbilder für kurze Zeit deaktivieren, ist im Effekt viel schlimmer als Mikroruckler), andererseits den Vordergrund vom Hintergrund so dilettantisch trennen, dass besagter Linseneffekt rund um sich bewegende Vordergrund-Objekte eintritt.

    Mir geht’s nicht um Kachel, ich spreche von kachelfreien HD-Sendern, die natives 50-Hz-Bildmaterial progressiv mit höchster Datenrate zu mir nach Hause schicken, in bester Qualität, und ich mein Equipment im Griff habe. Ich spreche einzig und allein vom Fernseher (Flat-LCD), der mit seiner Zwischenbildberechnung alles versaut und Kilobytes verschenken, wo die anderen Beteiligten in der Kette um jedes Bit kämpfen. Das kann doch nicht sein!

    Bezüglich 60-Hz-Wandlung: Bei der Übertragung der olympischen Spiele konnte man übrigens gut sehen, wie viel ein gutes Equipment beim Sender ausmacht. Die eingesetzten Wandler konnten die Frame-Rate meinem Empfinden nach fast perfekt anpassen, von Mikrorucklern keine Spur. Geht halt nur mit intelligenter und hochwertiger Zwischenbildberechnung. Die is aber im Fernseher nicht drin.

    Heute gab’s diese Schlagzeile, nach der man sich offenbar recht rasch an Datenreduktion und die dabei entstehenden Artefakte gewöhnt. Ich habe seit letztem Jahr eine neue Brille und weiß seither, dass Chromatische Aberration nicht nur ein Problem für teure Kameraobjektive ist, beginne mich aber langsam daran zu gewöhnen, dass Farbsäume am Blickfeldrand etwas „Normales“ sind. Werde ich bzw. werden wir beim TV auch abstumpfen? Wofür dann das ganze HD und HiFi-Dingsbums?

    Sagt mal, ich will jetzt hier kein S*ms*ng-TV-Bashing betreiben oder so, aber eines verstehe ich nicht: Da bekommt man sein Lieblings-TV nun in HD mit unglaublich hoher Bitrate, vdpau bügelt die verbliebenen und eigentlich garnicht mehr ernsthaft sichtbaren Artefakte weg, und die Verbindung zum TV läuft mit der besten Einstellung, die man sich nur denken kann, fehler- und verlustfrei. Und dann kommt der TV und versaut’s.

    Ich meine, ich will mich nicht über die grundsätzlich gute Idee der Zwischenbildberechnung beklagen, aber ob ich jetzt das allerletzte Quäntchen Farbtreue mit einer soundso_spatial-Einstellung aus meiner HDMI-fähigen Grafikkarte herauskitzle, ist letztlich vollkommen egal, wenn sich um bewegte Bildteile der Bildhintergrund gleich einer Linse unnatürlich strecken und sich damit der Bildgenuss erheblich reduziert. Ja, an den Soap-Effekt muss man sich gewöhnen, und ich gehöre zu denen, die nichts dagegen haben, hier eine für Kinofilme ungewohnt weiche Bewegung zu sehen. Ich habe mich daran gewöhnt, die ursprüngliche Abstoßungsreaktion hat sich komplett gelegt. Aber diese Artefakt-Erzeugung bei Bewegungen ist auf Dauer unangenehm, je länger ich es habe, desto größer meine Abneigung. Man glaubt manchmal, sich bewegende Köpfe hätten eine unglaubliche Gravitation, dass sie das Licht des Hintergrundbildes um sich herum ablenken und damit das Bild verzerren können. Wie schwarze Löcher.

    Kommt da noch was Besseres nach, oder war’s das jetzt?

    Ist die einzige Lösung, solange zu warten, bis die Sender in 1080p200 ausstrahlen, um meinem Flatscreen die Artefakt-Produktion zu ersparen? Ich habe einen LE40A856 mit gerade mal 100 Hz und sollte eigentlich auch gleich wieder still sein, da ein Freund einen moderneren LE40B750 hat, dessen Prozessor sichtlich öfter mit der Zwischenbildberechnung auf 200 Hz überfordert ist als meiner. Die Artefakte sind deshalb bei ihm nich weniger, nur fallen dort zusätzlich die abrupten Wechsel inmitten eines Kameraschwenks von weich auf ra-ta-ta-ta-ta und wieder zurück auf weich besonders auf.

    Was meint Ihr? Oder bin ich nur zu doof, im Einstellungsmenü den Schalter für „Artefakte AUS“ zu finden?

    Ich finde es witzig: Standards wie MPEG sind dadurch definiert, wie ein komprimierter Datenstrom entkomprimiert auf allen Ausgabegeräten (exakt) gleich dargestellt wird, also ident. Der Fernseher/Monitor war früher bestenfalls für einen Farbstich oder Verzerrung gut, womit die Flatscreens eigentlich hätten aufräumen sollen. Dort kämpfen wir gegen die geradezu willkürlich in den Signalpfad eingreifende dynamische Bewegtbild-Optimierung, die uns im Extremfall auf das alte Dilemma Teufel gegen Belzebub verweist, also Bildinhaltstreue mit verwischten Bewegtbildern gegen deutlich bessere Bewegtbild-Darstellung mit unausweichlichen Artefakten. Na toll.

    Oder bin ich in der falschen Preisklasse unterwegs? Wird das alles besser, wenn ich 2000++ Euro für den TV in die Hand nehme? Oder sollte ich lieber den TV behalten und die 2000 Euro in ausreichend hochwertigen Alkohol (gemeint wäre jetzt mal Wein), stimmungsvolles Umgebungslicht und einen ultra-bequemen Fernsehsessel stecken, um auf Letzterem nach mäßiger Einnahme von Ersterem und unter Einfluss von Zweiterem nach den ersten 10 Filmminuten sanft zu entschlummern?

    Und wenn man nicht Stunden auf das Complilieren sämtlicher Treiber im TBS6980-Archiv warten mag, kann man sich mit dieser Datei auf die für die TBS6980 benötigten Dateien beschränken. Die Datei unter dem Namen ".config" (edit: bitte den Punkt vor config nicht vergessen!) vor dem „make“ einfach ins v4l-Unterverzeichnis kopieren.

    Ich hab das Archiv (1.54) direkt vom Support gemailt bekommen, wo sie auch darauf hinweisen, dass mein merkwürdiges Transponderwechselproblem nun nachgestellt und behoben werden konnte. Erste Tests sind erfolgreich und bestätigen diese Verbesserung.

    Mein Fazit: Wenn das Problem nun beseitigt ist, ist die Karte uneingeschränkt empfehlenswert! Beste Empfangsleistung, wahlweise dB-Leistungswerte (in VDR leider – noch? – nicht sinnvoll verwendbar) und günstiger Preis. Treiber leider – noch? – nicht open-source, daher auf absehbare Zeit nicht im Kernel und damit auch eine Frimmel-Lösung, insbesondere, wenn man unterschiedliche Karten mit gleichem v4l betreiben möchte.

    Quote

    Original von frockert
    […] kannst Du die Ursache des Absturzes ansatzweise in den Logdateien nach voll ziehen?

    Ich kann sie leider weder nach voll ziehen noch nachvollziehen, da rund um den Absturz kein Log geschrieben wird bzw. es dieses nicht auf die Platte schafft. Der Reboot ist wirklich hart, wie wenn jemand Reset drückt.

    Die Karte ist auch nach einem derartigen Vorfall garnicht heiß, was ja grundsätzlich gegen ein Wärmeproblem und für die Option einer passiven Kühllösung sprechen würde.

    Leider weiß ich jetzt nur von Stalker, dass er ein 32-bittiges Linux einsetzt. Wer außer mir verwendet diese Karte mit VDPAU unter einem 64-Bit-Linux und hat keine Stabilitätsprobleme? Ich habe zwar keine Ambitionen, einen Rückschritt auf 32 Bits zu unternehmen, aber wenn sich der Erfolg dann zweifellos einstellen würde, wäre das eine denkbare Lösungsoption. Dazu muss dieser Zusammenhang aber erst auf die eine oder andere Art geklärt sein.

    Ich habe keine Ahnung, was sie mit diesem Adapterkabel genau vorhaben. Die auf der Karte angegebenen Stromwerte sollten für einen Molex-Stecker kein Problem sein, wofür also drei? Vielleicht ist das ein Standard-Kabel, aber einen Hinweis im Manual hätte ihnen das schon Wert sein können. Am Board scheinen alle 12V-Leitungen wieder verbunden zu sein, es kann also kein Beinbruch sein, nur einen Stecker anzuschließen.

    Ich habe übrigens einen PCIe-6-Pin-Stromstecker, wie man ihn für viele High-Power-Grafikkarten braucht, direkt angeschlossen – klappt prima!

    Wie sind Eure Erfahrungen mit diesen Chips?

    Bei mir (eine lüfter-gekühlte G210 im offenen Gehäuse) gibt es im Zusammenhang mit der Ausgabe im Wesentlichen 2 Effekte: Erstmal stürzt der Computer gerne mal mitten beim Filmschauen ab, andererseits verrennt sich der Deinterlacer manchmal, aber das ist ein kleines Problem, verglichen mit dem ersten.

    Grundsätzlich hat sich die VDPAU-Umsetzung seit November drastisch verbessert. Damals liefen gut aufgenommene Filme noch einige Minuten durch, aber spätestens bei fehlerhaften Paketen oder Herumspulen in einer Aufnahme ging’s innerhalb von Sekunden bergab.

    Mit dem aktuellen nvidia-Treiber (x86_64) 195.30 läuft die Kiste oft schon Stunden ohne Absturz durch, und auch die meisten Fehler in den Streams führen nur zu kurzen Bildstörungen, wie man das erwartet. Leider gibt es aber immer noch die ganz schweren Brummer, die dann zu einem Neustart des Systems führen. Wenn ich nach so einem Neustart dann bei einer Wiedergabe an der gleichen Stelle weiterschauen möchte, muss ich den Film um ein paar Sekunden vorspulen, damit er nicht gleich wieder abstürzt.

    Besonders unschön wird’s dann, wenn er sich dermaßen zerbröselt, dass er nicht von sich aus neu startet, sondern hart abschaltet. Keine Ahnung, wie er das macht, da hilft dann kein Einschalten über den normalen Power-Taster mehr, auch ein kurzes Ausschalten über das Netzteil ist nutzlos, es müssen schon gute 10 Sekunden sein, die er abgeschaltet ist – vermutlich, bis das Netzteil auch nach innen komplett stromlos ist. Neben einer drohenden Ehekrise (low WAF) unangenehm an dieser Situation ist, dass sich der Computer zwecks Lärmvermeidung im Nebenzimmer befindet, was für das Ausführen dieser Prozedur einen Sprung aus der Kuschelstellung nötig macht.

    Ein Freund hat bei fast gleichem Setup (hier mit GT220) aus selbigem Grund mit einem niedrigen WAF zu kämpfen, ich gehe daher davon aus, dass es nicht konkret an meinem Karten-Exemplar liegt, sondern etwas Systematisches ist.

    Gibt es von Eurer Seite Success-Stories mit so einem Setup? Teilt jemand meine Absturz-Erfahrungen?

    – Matthias

    Edit: Natürlich habe ich schon 195.30 am laufen, nicht mehr 190.53.