Beiträge von mhanu

    Das hier ist noch eben gerade hinzugekommen, kann aber durch die bösen Wolken verursacht sein:

    Code
    Jul 28 19:12:44 Supernova kernel: [ 3370.866112] saa716x_i2c_send (0): TXFIFO not empty after Timeout, tried 1000 loops!
    Jul 28 19:12:44 Supernova kernel: [ 3370.866117] saa716x_i2c_send (0): I2C Send failed (Err=-5)
    Jul 28 19:12:44 Supernova kernel: [ 3370.866120] saa716x_i2c_xfer (0): Data send failed
    Jul 28 19:12:44 Supernova kernel: [ 3370.866122] saa716x_i2c_xfer (0): Error in Transfer, try 0
    Jul 28 19:12:44 Supernova kernel: [ 3370.866125] saa716x_i2c_xfer (0): msg 0, addr = 0x68, len=2, flags=0x0
    Jul 28 19:12:44 Supernova kernel: [ 3370.866127] saa716x_i2c_xfer (0): 	 0xf5
    Jul 28 19:12:44 Supernova kernel: [ 3370.866130] saa716x_i2c_xfer (0): 	 0x81
    Jul 28 19:12:44 Supernova kernel: [ 3370.866132] saa716x_i2c_xfer (0): msg 1, addr = 0x68, len=1, flags=0x1
    Jul 28 19:12:44 Supernova kernel: [ 3370.866139] saa716x_i2c_hwinit (0): Adapter (c000) SAA716x I2C Core 1 RESET
    Jul 28 19:13:25 Supernova kernel: [ 3411.945344] demux_worker: called but nothing to do

    Diese Meldungen hatte ich mal im Log. Ein paar Tage später ist meine Video HDD gestorben. Ich hoffe nicht, dass dir gleiches bevorsteht.

    Hi,


    ich hatte heute gleich 3x folgende Zeilen in Logfile:


    Code
    [597587.714852] saa716x_i2c_send (0): TXFIFO not empty after Timeout, tried 1000 loops!
    [597587.725086] saa716x_i2c_send (0): I2C Send failed (Err=-5)
    [597587.735466] saa716x_i2c_xfer (0): Data send failed
    [597587.745915] saa716x_i2c_xfer (0): Error in Transfer, try 0
    [597587.756556] saa716x_i2c_xfer (0): msg 0, addr = 0x68, len=2, flags=0x0
    [597587.767148] saa716x_i2c_xfer (0): 0xf4
    [597587.778063] saa716x_i2c_xfer (0): 0x12
    [597587.789002] saa716x_i2c_xfer (0): msg 1, addr = 0x68, len=1, flags=0x1
    [597587.800224] saa716x_i2c_hwinit (0): Adapter (c000) SAA716x I2C Core 1 RESET


    Könnt ihr mir sagen was da passiert ist?


    Danke
    Marcel

    Ich mache das immer etwas einfacher. Ich spiele hierzu nicht den kompletten Patch ein sondern füge nur 4 Zeilen Code der menu.c hinzu.


    Code
    case k1|k_Repeat:
    	case k1:   	SkipSeconds(-10); break;
    	case k3|k_Repeat:
    	case k3:   	SkipSeconds( 10); break;


    In Version 1.7.18 und 1.7.19 einfach ab Zeile 4820 einfügen.

    Hi,


    habe eine Frage zu meinem Software-Raid, welches ich mir nun aufgebaut habe.
    Optimal aufbauen ging leider nicht, da ich nicht so viele leere Platten hatte um es "sauber" aufzubauen. Also nicht schimpfen :)


    Ich habe ein RAID 5 mit 3 Festplatten erstellt:


    Platte 1: 2.0 TB
    Platte 2: 2.0 TB
    Platte 3: 1.5 TB


    Soweit so gut. Das RAID lief ohne Probleme.


    Nun habe ich die Platte 3 wie folgt aus dem RAID entfernt um sie durch eine 2.0 TB Platte zu ersetzen.


    mdadm --fail /dev/md0 /dev/sdc1
    mdadm --remove /dev/md0 /dev/sdc1


    System heruntegefahren. Platte ausgetauscht und wieder neu gebootet.
    Die neue Platte habe ich mit fdisk so partioniert, dass die erste Partition die volle Größe hat und der Typ "fd" ist.


    Die neue 2.0 TB Platte habe ich wie folgt ins RAID eingebunden.


    mdadm --add /dev/md0 /dev/sdc1


    So aktuell läuft noch die Recovery (ca 700 Minuten noch).


    Wie kann ich nun sichergehen, dass das RAID auch wirklich die kompletten 2.0 TB verwendet und nicht vielleicht nur die 1.5 TB?


    Hier mal die Ausgabe von /proc/mdstat


    Code
    Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
    md0 : active raid5 sdd1[3] sdb1[0] sdc1[1]
          2930269184 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
          [>....................]  recovery =  1.7% (26312704/1465134592) finish=693.9min speed=34555K/sec
    
    
    unused devices: <none>


    df -h gibt folgendes aus

    Code
    Dateisystem           Size  Used Avail Use% Eingehängt auf
    /dev/sda1              73G  1,1G   68G   2% /
    tmpfs                 760M     0  760M   0% /lib/init/rw
    udev                  755M  148K  755M   1% /dev
    tmpfs                 760M     0  760M   0% /dev/shm
    /dev/md0              2,8T  1,8T  951G  66% /RAID


    Sollte ja an sich mehr sein oder?
    Das RAID hat xfs als Filesystem.
    Ich muss doch bestimmt noch ein xfs_growsf durchführen oder?


    Gruß
    Marcel


    UPDATE:
    Die Lösung lautet:


    Code
    mdadm --grow /dev/md0 --size=max


    Soll man aber erst anwenden wenn die Syncronisierung durch ist.


    UPDATE 2
    Es folgt noch ein zweiter Schritt.


    Das Raid muss gemounted werden um die XFS Partition zu vergrößern!


    Code
    mount /dev/md0 /RAID
    xfs_growfs /RAID


    xfs_growfs verwendet ohne Größenangaben den kompletten Platz den das Filesystem hergibt.


    Zum Schluss noch die mdadm.conf anpassen. Hierzu den alten ARRAY Eintrag löschen und den neuen hinzufügen:


    Code
    mdadm --detail --scan >> /etc/mdadm/mdadm.conf


    Fertig :)

    *Bestellt*


    Und ich Glückspilz hab endlich wieder nen Grund die Jungs vom dvbshop zu besuchen! :)
    Bis bald!!!


    Hab übrigens seit ein paar Monaten yavdr im Einsatz und muss sagen, dass ich sehr zufrieden bin, verspreche mir aber von der Karte ein paar (persönliche) Vorteile. Mehr Flexibilität was den VDR angeht. Sprich ich muss nicht unendlich lange basteln bis alles läuft. So stabil und sauber yavdr zur Zeit läuft - Respekt an das Team! - möchte ich etwas mehr Freiheit was mein System angeht! Bin kein Freund des Template-Systems!
    Will nicht abschweifen vom Thema...


    Freue mich riesig auf die Karte! :)

    Das ändern der Einstellung auf SPDIF hat mich leider nicht weiter gebracht.


    Ton über den optischen SPDIF Ausgang funktioniert ohne Probleme.


    Kann man irgendwie testen ob überhaupt etwas über den SPDIF OUT Header ausgegeben wird?

    Bin mir gerade nicht sicher aber ich glaube "HDMI Stereo" oder "HDMI Pass Through". Jetzt wo du es sagst, ich müsste doch "Digital (Toslink/SPDIF)" einstellen, oder?