Beiträge von durchflieger

    Zitat

    Original von biggsmann
    Ich nochmal: Habe heute die in der xorg enthaltenen Modelines getestet und dabei folgendes festgestellt: Die 1440x576i-Auflösung erkennt zwar mein LCD (als 576i), allerdings kann es sie nicht vernünftig darstellen. Kann es sein, dass die horiz. Auflösung meines Displays (die nur bei 1368 px liegt) sich mit der 1440-er Auflösung beißt?
    Wenn ja, wie kann ich ein korrektes 576i-Timing am DVI-Ausgang erzwingen?


    Danke
    biggsmann


    Die 1440 Auflösung ist bei digitalen Verbindungen (HDMI, DVI) notwendig da diese ein unteres Limit von ~25Mhz pixel clock haben. Dabei wird im Sender (Graphikkarte) jeder Bildpunkt horizontal verdoppelt und im TV-Empfänger wiederum nur jeder 2 Bildpunkt verwendet so das wieder das urspüngliche Format mit 720 entsteht. Dieses so gewonnene 720x576 Bild wird dann auf die native Panelauflösung vom TV skaliert. Es gibt laut HDMI Spezfikation im digitalen Protokoll spezielle Informationen (Flags) mit denen seitens des Sender signalisiert wird, das mit horizontaler Verdoppellung gesendet wird.
    Und hier liegt vermutlich der Hacken an der Sache. Der radeon Treiber wird dieses Flag nicht gesetzt haben bei der 1440 Auflösung. Damit hängt es dann vom TV ab was er daraus macht. Meine LG LCD-TV's sehen eine 1440 Auflösung offenbar als 720er an auch wenn das Flag nicht gesetzt ist (man da hat sogar mal einer der Entwickler bei LG mitgedacht :-). Dein TV scheint das wohl anders zu interpretieren. Dann bleibt nur noch der Versuch direkt die 720x576 Modeline zu verwenden. Auf den LG's bekomme ich damit auch ein Bild das allerdings nicht so klar ist wie bei 1440 was auch nicht verwunderlich ist da ja ausserhalb der Spezifikation.


    Gruss durchflieger

    Hier mal eine überarbeitete xorg.conf nach den Infos aus dieser Anleitung http://wiki.debian.org/XStrikeForce/HowToRandR12
    Durch entsprechende Kombination der Option "Monitor-XXXX" sollten die Ausgänge jetzt individuell konfigurierbar sein. Bei Karten mit mehreren Ausgängen sollte man die nicht verwendeten ggf. expilzit abschalten mit Option "Monitor-XXXX" "NoMonitor".

    Zitat

    Original von dortje
    Edit: Und zu der Ausgang->Monitor zuordnung die ihr da gerade besprecht, die funktioniert einwandfrei. Habe ich auch hier gemacht, da sonst die interlaced Modes nur für den ersten (den VGA) Ausgang angeboten wurden.


    Hier ist alles sehr gut erklärt: http://wiki.debian.org/XStrikeForce/HowToRandR12


    Sehr schöne Beschreibung die du da ausfindig gemacht hast!
    ciax
    Mit der Anleitung solltest du das hinbekommen.


    Gruss durchflieger

    Zitat

    Original von dortje
    Ich hab bei mir einfach das ganze Debian System nochmal neu gebaut und die Patches angewand. Jetzt hab ich das Problem dass er überhaupt keinen einzigen Interlaced-Mode mehr schaltet. Die progressiven gehen alle. Ausgang ist wie immer deine xorg.conf und die Modes schalte ich nacheinander mit folgenden commands durch:


    xrandr --output DVI-0 --mode 1440x576_50i
    xrandr --output DVI-0 --mode 1920x1080_50i
    xrandr --output DVI-0 --mode 720x576_50i


    Xorg.log: http://pastebin.com/m33ec2781


    Was meldet xrandr denn an verfügbaren Modes?

    ciax


    Die Option "MonitorLayout" ist glaube ich Treiber spezifisch (nvidia?) und dürfte bei dem radeon Treiber nicht funktionieren.
    Die Option die ich meine ist in unter "man xorg.conf" beschrieben.


    Den Namen für "Ausgang" ist Treiber und Karten spezifisch und muss aus dem xorg.log entnommen werden:


    Code
    [..]
    (II) RADEON(0): Output VGA-0 using monitor section LCD_TV
    (II) RADEON(0): I2C bus "VGA-0" initialized.
    (II) RADEON(0): Output HDMI-0 has no monitor section
    (II) RADEON(0): I2C bus "HDMI-0" initialized.


    Hier gibts offenbar VGA-0 und HDMI-0. Die "LCD_TV" section hätte HDMI-0 zugeordnet werden müssen. Das sähe dann so aus:
    Option "HDMI-0" "LCD_TV"


    Ob der radeon Treiber das aber wirklich auswertet muss du ausprobieren.

    ciax


    Mir ist beim experimentieren gestern noch eine xorg-Option in der Dokumentation aufgefallen die dir vieleicht weiterhelfen kann. Laut Doku soll man in der Section "Device" eine Monitor-Section an einen Ausgang binden können in der Form:


    Option "Ausgang" "Monitor"


    Du müsstest also wieder eine Single-Head-Konfig verwenden (dein TFT fällt leider weg dafür gibts dann aber wieder DRI) und in der Device-Section zum radeon-Treiber so etwas wie:


    Option "DVI-0" "LCD_TV"


    einsetzen. Zur Sicherheit würde ich das TFT auch mal kpl. abklemmen so das nur ein Monitor erkannt wird.


    Gruss durchflieger

    Zitat

    Original von dortje
    Ich bastel hier auch noch in meiner Freizeit an der Sache rum, bekomms aber nicht zum laufen. Wenn mal jemand Zeit hat, hier ist der Xorg.log. Als xorg.conf verwende ich exakt die von durchflieger.


    Xorg.log - http://pastebin.com/m9b0d671


    Schau dir mal Zeile 16 in deinem xorg.log an. Sieht so aus als fände er die xorg.conf nicht.
    Was allerdings von Zeile 709 zu halten ist?

    ciax


    Immerhin hast du schon mal ein Bild mit deinem neuen xorg Stack :)


    Ich denke hier liegt das Problem:


    Offenbar wird dein HDMI-Ausgang als "Screen1" intern gehandhabt.
    Deshalb mache bitte erstmal ALLE deine Änderungen in der xorg.conf wieder rückgängig und verwende meine Original xorg.conf.
    Ändere in der xorg.conf folgendes:
    1. In der Section "Device" "Screen 0" -> "Screen 1".
    2. In der Section "Screen" "1440x576_50i" -> "1360x768"


    Diese Probleme mit dem Keyboard:

    Code
    (EE) Error compiling keymap (server-0)
    (EE) XKB: Couldn't compile keymap
    (WW) Couldn't load XKB keymap, falling back to pre-XKB keymap
    (EE) Error compiling keymap (server-0)
    (EE) XKB: Couldn't compile keymap
    (WW) Couldn't load XKB keymap, falling back to pre-XKB keymap

    sollten mit "ln -s /usr/bin/xkbcomp /usr/local/xorg/bin/xkbcomp" verschwinden.


    Starte den xorg-Server erstmal ohne den vdr-sxfe zu starten.
    Stattdessen einfach ein xterm verwenden.


    Es sollte jetzt zuerst mal die native Auflösung dargestellt werden. Die Modeline dazu liefert ja dein LCD per EDID (mit 60Hz).


    Danach teste mal die relevanten Auflösungen mit:


    xrandr --output HDMI-0 --mode 1280x720_50
    xrandr --output HDMI-0 --mode 1920x1080_50i
    xrandr --output HDMI-0 --mode 1440x576_50i


    Wenn du bei allen ein Bild hast dann kannst du mit vdr-sxfe weitermachen.


    Gruss durchflieger

    Zitat

    Original von shh
    Hi durchflieger,
    könntest du uns die Deb-Pakete zur Verfügung stellen?
    Du hast sie ja schon, und könntest uns ne Menge Arbeit ersparen. :)


    Sorry kann ich leider nicht.
    Das Kernelmodul kommt zur Zeit aus dem git und ist kein eigenes deb-Paket. Ich selber habe eine ubuntu/gutsy Umgebung mit separaten xorg-Tree die nicht als Pakete vorliegen. Die Debian-Platform habe ich nur in einer VM wo ich nur dass korrekte compilieren gegen testen kann. Ihr müsst also schon selber bauen.

    biggsmann
    Radeon 8500 wäre ein R200. Der ist bisher ungetestet. Um dass Problem einzugrenzen solltest du mal folgendes ausprobieren mit der funktionierenden Modeleine von sparkie:


    1. Test ohne Patches aber mit dem empfohlenden Versionen des radeon Treiber und Kernel-Modul (vermutlich hast du das schon)


    2. Test nur mit dem radeon_interlace.patch


    3. Test mit allen Patches und FrameRateControl = 0


    4. Test mit allen Patches und FrameRateControl = 1


    Sobald eine Variante (in der Reihenfolge wie angegeben) nicht mehr funktioniert kannst du abbrechen.


    Gruss durchflieger

    Zitat

    Original von ciax
    ok, dann verkraftet auch mein non-full-HD deine xorg.conf?


    Sollte er. Die Idee hinter dem Patch ist ja das Videosignal ohne Scalierung und Deinterlacing an den TV durchzureichen. Im TV findet dann einmalig (und hoffentlich mit guter Qualität) eine Bearbeitung des Videosignal auf den nativen Format statt.


    Zitat

    Original von ciax
    bringen dann deine patches überhaupt etwas bei meinem display? (-->frc - 50Hz - 60Hz display)


    sorry für das "hin und her" (ganz kapier' ich das nicht ... die 50Hz modeline (drzt noch per nvidia-output) hat "welten" mit xineliboutput gebracht, der LCD arbeitet intern aber nur mit 60Hz??? - deint. vernachlässigt bzw. mit selben parameterwerten).


    Na die Frage hast du dir ja eigentlich schon selber beanwortet. Mit 50Hz modeline um "welten" besser.

    Zitat

    Original von ciax
    ... die von durchflieger zur verfügung gestellte xorg.conf enthält den 1080i für mein gerät leider nicht. ;(


    Damit sollte es aber eigentlich funktionieren wenn dein LCD HD1080i versteht. Die 1080i aus der xorg.conf müsste ein "offizielles" CEA-861 Timing sein.


    Zitat

    Original von ciax
    also meine frage: wie könnte ich am besten eine modeline für die auflösung "1366x768 50i" erstellen? 1366x768 wäre die native auflösung des displays (HD 1080i sollte es lt. manual vertragen). :schiel


    Dein LCD wird (wenn überhaupt) die native Auflösung nur progressive entgegen nehmen. Und die wahrscheinlich auch nur bei 60Hz.



    Gruss durchflieger

    Zitat

    Original von nepumuk
    ...
    Eingebunden in xineliboutput per -l sxfe -V xv
    in setup.conf muss noch folgendes rein
    xineliboutput.Video.Decoder.H264 = dshowserver


    Hmm ich habe eigentlich auch den aktuellen cvs Stand des xineliboutput. Die Option "dshowserver" kennt "xineliboutput.Video.Decoder.H264" gar nicht. Ist diese Einstellung bei dir wirklich notwendig damit es läuft? Oder hast du eine besondere Version?


    Bei mir läuft es mit xineliboutput ein paar Sekunden (CoreAVC V1.7 und V1.8 getestet) dann bricht es ab. Unter xine-ui läuft es besser. Auslastung der beiden Cores sehr gleichmäßig aber immer mit 80%. Wiedergabe ist durchweg mit Rucklern.
    Das Ändern der Parametrierung des CoreAVCDecoder.ax zeigt auch nicht wirklich Wirkung. Offenbar kommt 1080i Material aber mit 25Hz Framerate am Decoderausgang raus so dass hier wohl standardmäßig das Deinterlacing ausgeschaltet ist bzw. einfaches Weave passiert.

    Zitat

    Original von michi88
    ...
    ich möchte einfach sdtv (also mpeg2) über die graka decoden lassen, damit der prozessor nicht rödeln muss.


    Wenn es dir im wesentlichen ums mpeg2 dekodieren geht dann bringt dir eine X300 zumindestens mit dem radeon Treiber keine Vorteile. Ich habe gelesen dass der neuste propitäre AMD Treiber (fglrx) oder die kommende Version angeblich XVMC-Unterstützung haben soll. Das wird dann wahrscheinlich aber mit deiner HD3200 besser klappen.

    Bezüglich des "nur" deinterlacing solltest du bedenken, dass die "besseren" tvtime Deinterlacer aus der ffmpeg zumindestens bei mir deutlich mehr Rechenzeit brauchen als eine mpeg2 Decodierung. Das einsparen des Deinterlacer spart also mehr Rechenzeit.


    Weiterhin regelt der Patch die Framerate der Graphikkarte nach und sychronisiert sich mit dem Videostream. Damit wird das bisher unvermeidliche auslassen/überspringen von Bildern alle paar Minuten vermieden. Dass funktioniert auch in Verbindung mit progressiven Modes so das nicht unbedingt ein interlaced Bild an den Monitor ausgegeben werden muss. Wichtig ist allerdings dass die Framerate des Videostream mit der Framerate des Videomode übereinstimmen. (bei PAL also 50Hz)


    Gruss durchflieger

    Zitat

    Original von ciax
    .. das ist schon mal sehr erfreulich! hab nun hier das system (ubuntu gutsy) auf kernel 2.6.26.5 hochgezogen (hatte im 2.6.25er irgendwo einen tilt im src-tree) - nun compiliert er auch die DRM Module - sehr fein. jetzt fehlt noch xf86-video-ati mit durchflieger's patches und xorg 7.4 (was mir als größte hürde erscheint, das auf's ubuntu system zu bringen .. die ganzen originalen pakete rausschmeißen und die neuen manuell draufspielen --> abhängigkeiten :schiel).
    gruß, ciax


    Hab dir eine PN geschickt.

    Zitat

    Original von michi88
    seh ich das richtig, dass die x300 h264 decoden kann und im endeffekt von der grafikleistung ähnlich der hd3200 im amd780g (in bezug auf den vdr) ist?


    gruß


    michi


    Ob die x300 Hardware h264 decoden kann bis ich mir nicht sicher. Sicher ist aber das Sie zur Zeit die bessere Wahl ist da der radeon Treiber Xv bei der hd3200 nicht und h264 bei keiner Karte unterstützt.
    Das decoden muss per software (z.b. ffmpeg) erfolgen.


    Gruss durchflieger