Beiträge von EddieT

    Hallo,


    Zitat

    Original von HolgerR
    Wenn man sich den Startvorgang mal anschaut, dann ist es so, dass der mit dem xine-plugin gestartete VDR das TV-Bild zunächst über Device0 (=die DVB-C FF) ausgibt= Das Device ist belegt. Erst wenn xine-ui gestartet wird und damit ein Client auf das xine-plugin zugreift, wird die Bildausgabe umgeleitet und die FF wäre frei für etwas anderes; in meinem Fall für die graphtft-Ausgabe.


    Hast Du schon einmal versucht, selber das Primary-Device umzustellen? Das Xine-Plugin macht es zwar auch selber, aber anscheinend ja zu spät.


    Grüsse,
    EddieT

    Hallo,


    Zitat

    Original von octi
    wie könnte man einen solchen Kernel Patch machen? Kernel-Sourcen etc. hab ich alles drauf. Möchte doch so gerne einen "Warnungsfreien" Start haben.


    Ein schnelles

    Code
    grep -r "kernel tainted" /usr/src/linux

    wird wohl auch bei Dir ergeben, dass in der Datei /usr/src/linux/kernel/module.c der Code versteckt, der die Meldung ausgibt. Die Zeile einfach auskommentieren und einen komplett neuen Kernel bauen, dann bist Du die Meldung und den Support der Kernelentwickler entgültig los.


    EddieT

    Hallo,


    mit Lilo sollte es fast genauso wie mit Grub gehen. Falls Du immer eine Tastatur zur Verfügung hast, kann Du bei Lilo auch den einzelnen Kerneln Label wie 1, 2 usw geben und die Option Prompt setzen. Beim Booten wäre es dann möglich, durch die Eingabe von "2 Return" den zweiten Kernel zu booten, wenn Du es nur rechtzeitig eingibst.


    Ach ja: Es geht bei Grub natürlich auch mit einer BootCD, nur falls kein USB-Stick geopfert werden soll oder nicht von USB gebootet werden kann.


    Die Geschichte mit einem seriellen Terminal wäre natürlich auch eine Lösung. Grub und Lilosollte man dazu überreden können, die Ausgaben auch über den Seriellen Port zu schicken. Der Linux-Kernel kann das auch, wenn eine entsprechende Option beim Kompilieren gesetzt wurde. Allerdings könnte ich mir vorstellen, dass sich die Bootzeit erhöht.


    Grüsse,
    EddieT

    Hallo,


    man kann anscheinend Grub auch auf USB-Sticks, Disketten usw. installieren. Das könnte Dein Problem lösen. Wie es geht, steht hier.


    Ich gehe mal von Variante 1 aus: Das Produktivsystem ist auf hda1, das Entwicklungssystem hda2. Grub auf der Festplatte ist so eingerichtet, dass es normalerweise von hda1 booten, also das Produktivsystem startet. Ist der USB-Stick beim Anschalten eingesteckt, bootet das Bios vom Stick und nicht von der Festplatte (BIOS-Einstellung). Auf dem Stick befindet sich auch ein Grub, jedoch mit der Standardeinstellung, Linux auf der hda2 zu suchen.


    Die Video-Partition und, ganz wichtig, die timers.conf können sich ja beide Versionen teilen. So gibt es auch kein Problem, wenn eine timergesteuerte Aufnahme läuft und Du vergesen hast, den Stick herauszunehmen..


    Grüsse,
    EddieT

    Hallo,


    meistens haben solche Probleme mit ACPI zu tun. Ich schätze mal, dass der Kernel von LINVDR so kompiliert ist, dass ACPI in der Standarteinstellung läuft. Andere Distributionen dürften da etwas vorsichtiger sein, bei Ihnen ist es auch nicht ganz so schlimm, wenn ACPI nicht geht.


    Versuche es doch einfach mal mit dem Parameter acpi=off. Eventuell könnte auch ein acpi=noirq ausreichen, wenn die Probleme wirklich durch das Umrouten der Interruots ausgelöst wird.


    Die komplette Eingabe beim Bootprompt müsste in etwa so aussehen:

    Code
    <kernelname> acpi=off

    <kernelname> ist in der Regel linux, dass kann bei LinVDR aber anders sein.



    Grüsse,
    EddieT

    Hallo,


    "kernel tainted" bedeutet nur, dass sich Lirc nicht an die Konventionen hält, die für die Module gelten sollten aber nicht müssen. Um genau zu sein: es feht die Funktion "lirc_unregister_plugin".


    Das ist nicht weiter kritisch, Lirc läuft auch so. Allerdings kann es vorkommen, dass die Kernel-Entwickler keinen Support für so verschmutzte (=tainted) Kernel leisten, auch wenn der Fehler in einem anderen Modul liegt. Falls also ein Problem besteht und Du Dich an einen Kernelentwickler wenden musst, versuche es ersteinmal ohne Lirc. Mehr will Dir die Meldung nicht sagen.


    Natürlich könnte man den Kernel patchen, so dass diese Meldung nicht mehr erscheint, aber was gewinnt man dadurch?


    Grüsse,
    EddieT

    Zitat

    Original von Krischi
    ifconfig -a meldet das selbe wie ifconfig


    gibt nur den loopback aus


    Also wird der Adapter nicht vom System erkannt. Wussten wir zwar eigentlich schon, aber hier ist die Bestätigung. Wäre der Adapter bei ifconfig -a aufgetausch, wäre er zwar da, aber nicht konfiguriert.


    Warscheinlich hat LinVDR kein lsusb. Als Ersatz kann man auch

    Code
    cat /proc/bus/usb/devices

    nehmen. Dieses ergibt eine Auflistung mit allen USB-Geräten, die der Computer erkannt hat.


    Sind eigentlich die hinteren USB-Ports an der gleichen Controller wie die vorderen? Hast Du auch diesmal die Ports des USB2.0-Karte genommen oder die Anschlüsse des Mainboards? Du solltest auf jeden Fall mal versuchen, einen anderen Anschluss der Karte zu benutzen. Eventuell gibt es nur mit einem Port Probleme.


    Wie sieht der Anschluss an der Vorderseite aus? Wird da nur das USB-Signal durchgeleitet (Kabel an der USB-Buchse, dass zu der Karte führt), oder ist das so eine vollständige Einheit mit Kartenlesern & Co, die über eine eigene Stromversorgung per 4-poligem Anschluss verfügt. Dann wäre diese Einheit wohl als Hub zu sehen, der das USB-Gerät an dem Frontanschluss unabhängig von der Karte mit Strom versorgt. Es wäre also möglich, dass die Karte nicht genügent Strom liefert, um den Betriebt des LAN-Adapters direkt an der Karte zu ermöglichen und ein USB-Hub mit externer Stromversorgung wäre notwendig.



    Eine Sache kannst Du mal testen. Versuche die Treiber für die USB-Karte zu entladen und dann neu zu laden. Vielleicht kommt Linux beim Booten nur etwas durcheinander.

    Code
    modprobe -r ehci_hcd
    modprobe ehci_hcd

    Eventuell ist danach noch der Treiber für den Adapter zu laden. Bei neueren Kernels ist das

    Code
    modprobe asix

    , bei älteren (2.4) wohl noch

    Code
    modprobe usbnet


    Grüsse,
    EddieT

    Hallo,


    wie wäre es mit einer anderen Idee: Die Audigy2 verfügt über einen Anschluss für die digitalen Tonsignale eines CD-Roms. Laut dieser Seite nimmt er Signale im gängigen SPDIF-Format entgeben. Mit einem kleinen Adapterkabel sollte es also möglich sein, den DVD-Player an die Audigy anzuschließen. Im VDR kannst Du dann ein Makro auf eine Taste legen, mit dem der Eingang der Soundkarte geöffnet wird und die Daten an den Receiver weitergeleitet werden. Gleichzeitig müsste natürlich der VDR stumm geschaltet werden. Am Receiver wäre dann natürlich nur noch die Audigy angeschlossen.


    Eine weitere Möglichkeit wäre das Flag "Analog/Digital Out". So weit ich mich erinnern kann, kann die Audigy entweder digital oder analog ausgeben, aber nicht beides gleichzeitig. Das lässt darauf schließen, dass einer der Zweige angeschaltet wird, was Dir entgegenkommen würde.


    Grüsse,
    EddieT

    Hallo duc,

    Zitat

    Original von duc
    bei der grafikkarte denke ich an eine günstige nvidia karte, da habe ich bei alternate welche um die 50€ gesehen.


    Bei den NVidia-Karten gibt es Probleme, die Ausgänge getrennt voneinander zu nutzen. Anscheinend wird immer einer abgeschaltet, wenn der andere instanziiert wird. Warscheinlich hast Du mehr Aussicht auf Erfolg, wenn Du nach einer gebrauchten Matrox G550 DualHead Ausschau hällst.


    Grüsse,
    EddieT

    Hallo,


    Du kannst natürlich andere für Dich basteln lassen und einen fertigen MedienPC auf VDR-Basis kaufen. Nach dem Test in c't 05/25 können sowohl der Xeatre 7200 der Open Source Factory als auch der DIV-A von SID per Fernsteuerung aufwachen. Mit jeweils ungefähr 1000€ bist Du dabei.


    Übrigens sind die Windows-Basierten Systeme in diesem Test noch schlechter: Von 10 getesteten Systemen können gerade mal 2 per Fernbedienung ausgeweckt werden. Diese Systeme sind von sehr kleinen Herstellern mit Preisen um die 3000€, die großen geben sich mit solchen Wünschen nicht ab. Es ist also kein sehr verbreitetes Feature.


    Grüsse,
    EddieT

    Hallo,


    falls Du den LDAP-Server doch bei Dir hosten möchtest, solltest Du Dir mal Port Knocking ansehen. Durch diese Technik erscheint der Server nach außen völlig abgeschottet, erst nach der Authentifizierung des Clients wird ein Port geöffnet. Danach kann die Clientsoftware normal auf den Port zugreifen. Wird die Verbindung abgebaut, macht der Server wieder alles dicht. Das kombiniert mit einem VPN sollte die Verbindung und Dein Netzwerk ausreichend sicher machen.


    Grüsse,
    EddieT

    Hallo Ralf,


    Zitat

    Original von RalfDietz
    Die native Auflösung habe ich bisher auch unter X11 nicht eingestellt bekommen. (Ist auch kein Teiler /8 !)


    Eventuell mal 1368x768 ausprobieren. Einige LCDs scheinen diese Auflösung auch zu akzeptieren und dann einfach jeweils einen Pixel rechts und links abzuschneiden. Kein Skalieren, kein Qualitätsverlust.


    Beamer und LCD ist natürlich die Luxuslösung. Bei einer Matrox DualHead müsste doch auch der Clone-Modus laufen, so dass Du beide an der Grafikkarte anschließen kannst.


    Grüsse,
    EddieT

    Hallo,


    die Doku zu dem Panel müsste Dir eigentlich sagen, wie und mit welchen Auflösungen Du das Panel füttern darfst. Wenn es z.B. ausschließlich 1366x768 annimmt, müsste man natürlich auf der VDR-Seite für das Skalieren usw. sorgen. Das andere Extrem wäre ein mögliche Auflösung von 720x576 Interlaced, das wäre die normale Pal-Auflösung. Wenn diese bildschirmfüllend und in guter Qualität dargestellt werden kann, könnte man auf das Skalieren und Deinterlacen auf PC-Seite verzichten. Wären dann noch RGB-fähige Eingänge (z.B. Scart) vorhanden, bräuchtest Du noch nicht mal mit TvTime oder Xine zu spielen, dann würde die FF-Karte mit einen Kabel für den J2-Jumper schon für optimale Qualität sorgen.


    Gehen wir mal davon aus, dass Du das Panel mit 1366x768 Pixeln betreibst, also das volle Programm brauchst. Du besitzt eine FF-Karte mit eingebautem Decoder für MPEG2-Ströme. Die dekodierten Daten kann man zum Glück abgreifen, so dass man das Dekodieren nicht in Software machen muss. Das spart Rechenzeit und ein Plugin. Das Programm TvTime ist eigentlich ein Programm um mit dummen, analogen Karten fernzusehen. Es lässt sich aber auch dazu verwenden, die Daten der FF-Karte abzugreifen und darzustellen. Die Routinen zum Deinterlacen hat es von DScaler aus dem Windowsbereich geerbt, sie gehören zu dem besten, dass es zur Zeit in Software gibt.


    Die andere Möglichkeit wäre das ganze Bearbeiten der Videodaten xine zu überlassen. Dazu muss der VDR um ein Plugin erweitert werden, dass die Daten entweder in einem Buffer oder, bei xine-network, einer modifizierten Variante, an einem Network-Socket, bereitstellt. Das Programm xine läuft als unabhängiges Programm, wie auch tvtime. Es greift auf die vom Plugin bereitgestellten Daten zu, dekodiert und bearbeitet sie. Da die gleichen Routinen zum Deinterlacen genutzt werden und die Ausgabe auch über den X-Server läuft, können Qualitätsunterschiede nur beim Dekodieren entstehen. Dazu muss man sagen, dass es vorkommen kann, dass xine bei sehr schlechtem Datenströmen aus dem Tritt gerät. Dass ist aber selbst bei sehr schlechtem Empfang über DVB-T nur sehr selten der Fall.


    Für beide Programme solltest Du erst einmal einen X-Server zum Laufen bekommen, am besten den von X.org. Mit debian etch (Testing) und sid (Unstable) ist es recht einfach:

    Code
    apt-get install x-window-system-core fvwm

    Bei sarge solltest Du auch die Pakete von etch nehmen, was allerdings wohl einiges an updates auslöst:

    Code
    ]apt-get -t testing install x-window-system-core fvwm


    Unter /etc/X11/xorg.conf kann man die Einstellungen ändern. Am besten mal im Internet suchen, wie die Einstellungen für die native Auflösung des Panels und die Grafikkarte lauten müssen.


    Code
    startx

    sollte jetzt dafür sorgen, dass die Textwüste durch etwas grafisches ersetzt wird.


    X wieder beenden, auch wenn es noch so schön ist. Als nächtest folgt tvtime:

    Code
    apt-get install tvtime


    Damit tvtime automatisch startet, wird eine Datei .xinitrc-fvwm im Verzeichniss /root angelegt.

    Bash
    #!/bin/sh
    tvtime &

    Die Datei muss für den Benutzer ausführbar sein:

    Code
    chmod u+x /root/.xinitrc-fvwm


    Jetzt muss noch X automatisch gestartet werden. Am einfachsten ist wohl die Variante über runvdr. Dazu dort von dem Aufruf des vdr folgendes einfügen:

    Code
    echo "sleep 10 && startx" | at now

    Das sorgt dafür, dass X 10s nach vdr gestartet wird. Diese Verzögerung ist eventuell für tvtime nicht notwendig, für xine aber schon.


    Diese Variante könnte fehler- und lückenhaft sein, da ich alles aus dem Gedächniss aufgeschrieben habe. Sicher ist sie nicht perfekt. So wird alles mit root-Rechten ausgeführt, was eigentlich nicht wünschenswert ist.


    Viel Erfolg,
    EddieT

    Selber Moin,


    die Frage ist, wie gut ist der Skaler und Deinterlacer Deines Plasmas? Die Qualität des Fernsehprogamms ist endlich, nicht nur im inhaltlichen Sinne. RGB holt da schon so ziemlich alles raus, was möglich ist. Viel besser wird es mit DVI auch nicht, wenn der Fernseher sehr gut mit den RGB-Signalen umgehen kann.


    Da Du anscheinend eine FF-Karte hast, wäre tvtime wohl keine schlechte Wahl. Von der Qualität her ähnlich ware eine Lösung mit xine, aber das ist etwas aufwändiger zu installieren.


    Offensichtlich musst Du für tvtime erst einmal einen X-Server installieren. Wie es genau geht, hängt von der Distribution ab. Bei einer "normalen" Distribution oder den speziellen, die sich noch nahe an die Ursprüngliche anlehnen, wie z.B. c'tVDR, sollte die Paketverwaltung helfen. Bei LinVDR wird es ungleich schwieriger.


    Grüsse,
    EddieT

    :welcome


    da die Fragen nach den Karten schon beantwortet sind, hier noch ein paar Hinweise zu dem Gehäuse. Es gibt durchaus ein paar Gehäuse im Hifi-Raster (42-43cm breite), die mehr als zwei Steckkarten aufnehmen können. Sie haben allerdings den Nachteil, dass sie in der Regel Verstärkerformat haben, d.h. mit ca. 15cm recht hoch sind. Alle Computergehäuse sind, mit sehr wenig Ausnahmen, sehr tief, in der Regel über 40cm.


    Wenn es ein fertiges Gehäuse sein soll, hat Silverstone ein gute Auswahl zu akzeptablen Preisen. Aber auch die anderen Herstellen merken gerade, dass es ein Markt für derartige Gehäuse gibt. Einige recht günstige Gehäuse in dem Format können keine Standardnetzteile aufnehmen, sondern haben eigene Lösungen. Kein Problem, solange das Netzteil nicht kaputt geht.


    Falls es günstiger sein soll und handwerkliches Geschick, zumindestens mit dem Pinsel, vorhanden ist, findet man auch gebrauchte Desktopgehäuse, die in etwa die entsprechende Breite haben. Hier recht beliebt sind die Rechner der xB und 600er Serie von Fujitsu-Siemens, da man die Innereien auch gut verwenden kann. Sie sind aber mit 46 cm etwas breiter als die gängigen Hifi-Komponenten.


    Spätestens wenn Du ein Display im Gehäuse haben möchtest, musst Du entweder selber Hand anlegen oder viel Geld in die Hand nehmen.




    Grüsse,
    EddieT

    Hallo,


    die Ausgabe über den Framebuffer dürfte der falsche, weil zu komplizierte und langsame, Weg sein, die Videodaten auszugeben. Nutzt man xv (oder directfb, das ist genausoschnell, wenn die Grafikkarte unterstützt wird) kann man zumindestens das Skalieren und z.T. das Deinterlacen von der Grafikkarte übernehmen lassen. Dazu kommt noch, dass es zumindestens bei Knoppix & Co eine brauchbare Hardwareerkennung gibt, womit man theoretisch den X-Server automatisch einrichten lassen kann. Auch sind die Einstellungen bei den unterschiedlichen X-Treibern ähnich, die Modelines zum Beispiel dürften bei jeder GK gleich lauten.


    Der einzige Nachteil bei Einsatz eines X-Servers wäre der etwas höhere Bedarf an Speicher, sowohl RAM als auch Festplatte. Beides sollte heute kein Problem mehr sein.


    Mir scheint es sogar so, als würde es nicht viel Unterschied in der Prozessorbelastung machen, ob man nun tvtime und eine FF-Karte oder xine benutzt, um das Bild auf eine Grafikkarte zu bekommen. fbtv ist nur schneller, weil es dort (in der Regel) keinen Deinterlacer gibt, sonst wäre es deutlich langsamer. Mit xine oder softdevice kann man das gut austesten.


    Grüsse,
    EddieT