Suche geeignete Grafikkarte für vdpau
- DrSat
- Geschlossen
-
-
-
-
Hi,
SurfaceCleanerZ:
...nein, habe die Sparkle-PCI.
Meine hier im Forum gelesen zu haben, dass es auch mit dem G86 geht.Grüße
Funzt -
Hi,
ja habs ja getestet, es geht, aber halt bei HD nur rucklig mit spatial...
mfG,
Stefan -
Tach Team,
kann ich so bestätigen :
- 8400 GS 256 MB PCI-e mit 185.13 Treiber
- Xine-lib 1.2 mit xine-lib-1.2-vdpau-r247.diff
- vdr-xine 0.9.0
- vdr 1.5.14 / h264 patchLäuft hier erstmalig ( 185.13 ) in 1080i ( Discovery ) mit temporal flüssig.
Es passiert zuweilen, das sich xine nach 20 Minuten grundlos verabschiedet.
Auch crashed bei mir xine sofort, wenn ich das Menü aufrufe bzw. etwas geändert wird ( Kanalumschaltung etc ).Im Prinzip sehe ich aber 1080i erstmalig problemlos mit der Low End Hardware.
Grüße vom Alex
-
Hi,
danke Alex für die Infos, vielleicht könntest du deine Karte hier eintragen:
http://vdr-wiki.de/wiki/index.php/VDPAUGrüße
Funzt -
Zitat
Original von Funzt
Hi,danke Alex für die Infos, vielleicht könntest du deine Karte hier eintragen:
http://vdr-wiki.de/wiki/index.php/VDPAUGrüße
Funztis schon ...
Grüße vom Alex
-
Oh
-
Zitat
Original von donulfo
hi,und weshalb hast du das board wieder zurückgesandt?gabs probleme?
mfg
donulfoSteht alles hier drin:
http://vdr-portal.de/board/thread.php?threadid=83897&threadview=0 -
Zitat
Original von marcusfischer
Mit diesem Board liebäugele ich nun auch. Scheinen im XBMC-Forum einige Leute zu verwenden mit guten Erfahrungen.
Auf eine Frage finde ich im Netz aber nichts:
Wie erfolgt die Übertragung von dem Nvidia-Chip zum LCD-Fernseher?
- Wird da ein "richtiges" 720p/1080i/1080p Bild übertragen (Skalierung etc. auf dem Chip)? - Oder wird über das HDMI-Kabel das Bild in irgendwelchen anderen X11-Formaten übertragen?Die Frage rührt daher, dass mein LCD wohl irgendwie X11 erkennt und pauschal mal nichts größer 640x480 px akzeptiert. Dabei ist es egal ob ich über nen VGA oder nen HDMI-Kabel da rein gehe.
Außerdem:
Aus Gründen der Flexibilität wäre ja ne echte Einsteckgrafikkarte erst mal geschicker. Nur wie schaut's denn mit dem zusätzlichen Stromverbrauch aus im Vergleich zu ner Onboard-Lösung?Sonnige Frühlingsgrüße,
Marcus <-- der nun leider zur Arbeit muss bei dem tollen Wetter *grrr*Hallo Marcus,
dein Post wäre ja fast untergegangen.
Also zu deinen Fragen:
1. 720p/1080i/1080p:
Das bestimmst du selbst über die gewünschten Einstellungen in der xorg.conf.
Wobei das bei nvidia in der Regel ganz sauber funktioniert. Bisher hatte ich immer alle 3 Signalmöglichkeiten bei meinen Monitoren. Sowohl via DVI oder HDMI. nvidia-settings ist ein Tool für den X-Server, dass das sehr komfortabel grafisch macht. Es zeigt dir die Möglichkeiten deines LCD's an und man kann auch entsprechende xorg.conf's generieren.
Meine Favoriten-Auflösung ist die 1080i mit 50 HZ, da die LCD's das Deinterlacing in der Regel am Besten machen.
Wenn du da Probleme hast/hattest lag das zu 100% an falscher xorg.conf, bzw. deren Parameter.
2. Stromverbrauch:
Spielt in meinen Augen überhaupt keine Rolle, wenn das Gesamtkonzept passt. Onboard-Lösungen sind meist sparsamer, da die halt alles mitbringen.
Ne zusätzliche Grafikkarte sollte so bei 10 bis 20 Watt zusätzlich ziehen.
Aber das kommt halt ganz auf das bestehende System an, meist geht es nicht ohne Grafikkarte.Gruß
Wolfgang -
Zitat
Original von yanardag
es war nicht bös gemeint wolfgang ich wollte mein wissen so schnell
wie möglich mit euch teilen damit keiner unnötig kopfschmerzen bekommt.darauf sollte man achten:
core clock: 567 (nvidia taktrate des 8400GS G98 chip)
bar code: 471846200-9726 (eindeutige identifikationsnr.)gruß
yanardagHi nochmal,
passt schon.
Ich würde mir halt wünschen, wenn solche Posts kommen, dass die Quellen sauber offengelegt werden (RapdShare? <=> ofizieller Download des Herstellers!?).
Woher soll Ottonormalverbraucher solche Info's bekommen.
Zudem hatte Stefan nach diesen Karten gefragt und nicht nach der Neueren, die in den Links von ihm nicht beschrieben waren.
Wissen ist immer gut, ich denke man sollte hier das Wissen auch sauber in Text verpacken um Missverständnisse zu vermeiden.
Just m2cents
Wolfgang -
hi
auch mal was von mir dazu
Linux freevdr 2.6.27-11-generic #1 SMP
nvclock 1 -i
-- General info --
Card: nVidia Geforce 8400GS
Architecture: G86 A2
PCI id: 0x422
GPU clock: 459.000 MHz
Bustype: PCI-Express-- Shader info --
Clock: 1836.000 MHz
Stream units: 16 (1b)
ROP units: 4 (1b)
-- Memory info --
Amount: 256 MB
Type: 128 bit DDR2
Clock: 399.600 MHz-- PCI-Express info --
Current Rate: 16X
Maximum rate: 16X-- Sensor info --
Sensor: GPU Internal Sensor
GPU temperature: 38C-- VideoBios information --
Version: 60.86.41.00.90
Signon message: G86 p413 SKU 0004 VGA BIOS
Performance level 0: gpu 459MHz/shader 918MHz/memory 400MHz/100%htop
1 [|||| 4.6%] Tasks: 48 total, 1 running
2 [|||| 3.8%] Load average: 0.08 0.07 0.08
5130 root 22 2 245M 60820 14444 S 1.0 5.9 1:49.05 vdr -P xineliboutput -l sfxe -V vdpau -f -pdas gantze mit einer scaleoE einen heibertreting also singel cpu 3,4ghz
Ubuntu 8.4 ffmpeg und xine-lib cvs fon gestern
mfg det -
Zitat
Hi nochmal,
passt schon.
Ich würde mir halt wünschen, wenn solche Posts kommen, dass die Quellen sauber offengelegt werden (RapdShare? <=> ofizieller Download des Herstellers!?).
Woher soll Ottonormalverbraucher solche Info's bekommen.
Zudem hatte Stefan nach diesen Karten gefragt und nicht nach der Neueren, die in den Links von ihm nicht beschrieben waren.
Wissen ist immer gut, ich denke man sollte hier das Wissen auch sauber in Text verpacken um Missverständnisse zu vermeiden.
Just m2cents
WolfgangHallo wolfgang,
die quelle in diesem fall bin ich. Der vertreter hat mir das zukommen lassen.
Sag mir einen guten grund warum ich den "ofizieller Download des Herstellers"
verschweigen sollte?gruß
yanardag -
In welchem Zusammenhang stehen VDPAU und Compiz bei Ubuntu. Ich habe mal gelesen man sollte es ausschalten, ich konnte aber keinen Vor- bezw. Nachteil feststellen?
-
Zitat
Original von mwfv
In welchem Zusammenhang stehen VDPAU und Compiz bei Ubuntu. Ich habe mal gelesen man sollte es ausschalten, ich konnte aber keinen Vor- bezw. Nachteil feststellen?das wüste ich auch zu gerne ! Ob das ganze gemeinsam lüppt....?
gruß
yanardag -
so, hier mal meine ausgabe:
Code
Alles anzeigennvclock 1 -i -- General info -- Card: nVidia Geforce 9300GE Architecture: G98 A2 PCI id: 0x6e0 GPU clock: 583.200 MHz Bustype: PCI-Express -- Shader info -- Clock: 1404.000 MHz Stream units: 16 (1b) ROP units: 4 (1b) -- Memory info -- Amount: 256 MB Type: 128 bit DDR2 Clock: 499.500 MHz -- PCI-Express info -- Current Rate: 16X Maximum rate: 16X -- Sensor info -- Sensor: GPU Internal Sensor GPU temperature: 51C -- VideoBios information -- Version: 62.98.1b.00.12 Signon message: FSC C1783 VGA BIOS Performance level 0: gpu 540MHz/shader 1300MHz/memory 500MHz/100%
dank der karte von diesem haendler.
wie bereits erwaehnt hatte ich ihm 30euro vorgeschlagen, was er direkt akzeptiert hat, evt akzeptiert er auch 25 oder gar 20nicht wundern: karte kommt in einem karton fuer ne 7300gt, aber drin ist die 9300ge
infinite
-
Zitat
Original von marcusfischer
Mit diesem Board liebäugele ich nun auch. Scheinen im XBMC-Forum einige Leute zu verwenden mit guten Erfahrungen.
Auf eine Frage finde ich im Netz aber nichts:
Wie erfolgt die Übertragung von dem Nvidia-Chip zum LCD-Fernseher?
- Wird da ein "richtiges" 720p/1080i/1080p Bild übertragen (Skalierung etc. auf dem Chip)? - Oder wird über das HDMI-Kabel das Bild in irgendwelchen anderen X11-Formaten übertragen?Die Frage rührt daher, dass mein LCD wohl irgendwie X11 erkennt und pauschal mal nichts größer 640x480 px akzeptiert. Dabei ist es egal ob ich über nen VGA oder nen HDMI-Kabel da rein gehe.
Außerdem:
Aus Gründen der Flexibilität wäre ja ne echte Einsteckgrafikkarte erst mal geschicker. Nur wie schaut's denn mit dem zusätzlichen Stromverbrauch aus im Vergleich zu ner Onboard-Lösung?Sonnige Frühlingsgrüße,
Marcus <-- der nun leider zur Arbeit muss bei dem tollen Wetter *grrr*Hallo, um die Erkennung abzuschalten und deine eigenen Modelines zu verwenden musst du die Erkennung in der xorg.conf ausschalten.
Hier mal ein Auszug aus meiner conf womit meint LCD richtig gut funktioniert. (jaja ich weiss sind paar Einträge doppelt aber in den von mir gefundenen confs stand das immer an anderer Stelle und somit war ich mir nicht sicher wo es denn nun hingehört:) )
Code
Alles anzeigenSection "Monitor" Identifier "Monitor0" Option "DPMS" HorizSync 20.0 - 150.0 VertRefresh 23.0 - 90.0 ModeLine "1920x1080@23.976" 74.175 1920 2558 2602 2750 1080 1085 1090 1125 +HSync +VSync ModeLine "1920x1080@24" 74.160 1920 2558 2602 2750 1080 1085 1090 1125 +HSync +VSync ModeLine "1920x1080@50" 148.500 1920 2448 2492 2640 1080 1085 1090 1125 +HSync +VSync ModeLine "1920x1080@60" 148.350 1920 2008 2052 2200 1080 1085 1090 1125 +HSync +VSync Option "PreferredMode" "1920x1080@50" Option "ExactModeTimingsDVI" "True" Option "UseEDIDFreqs" "False" Option "NoLogo" "False" EndSection Section "Device" Identifier "Device0" Driver "nvidia" VendorName "NVIDIA Corporation" Option "IgnoreDisplayDevices" "TV" Option "Coolbits" "1" Option "RandRRotation" "1" Option "AddARGBGLXVisuals" "1" Option "TripleBuffer" "0" Option "DynamicTwinView" "0" Option "AddARGBVisuals" "True" Option "NoLogo" "False" EndSection Section "Screen" Identifier "Screen0" Device "Device0" Monitor "Monitor0" DefaultDepth 24 Option "NoLogo" Option "DynamicTwinView" "false" Option "AddARGBGLXVisuals" "True" Option "ExactModeTimingsDVI" "True" Option "FlatPanelProperties" "Scaling = Native" Option "ModeValidation" "NoEdidModes" SubSection "Display" Depth 24 Modes "1920x1080@23.976" "1920x1080@24" "1920x1080@50" "1920x1080@60" EndSubSection EndSection Section "Extensions" Option "Composite" "Disable" EndSection
Du kannst das ganze natürlich auch um weitere Modelines erweitern.Eine recht nützliche Anleitung wie ich finde gibt es hier.
-
Zitat
Original von infinite
so, hier mal meine ausgabe:Code
Alles anzeigennvclock 1 -i -- General info -- Card: nVidia Geforce 9300GE Architecture: G98 A2 PCI id: 0x6e0 GPU clock: 583.200 MHz Bustype: PCI-Express -- Shader info -- Clock: 1404.000 MHz Stream units: 16 (1b) ROP units: 4 (1b) -- Memory info -- Amount: 256 MB Type: 128 bit DDR2 Clock: 499.500 MHz -- PCI-Express info -- Current Rate: 16X Maximum rate: 16X -- Sensor info -- Sensor: GPU Internal Sensor GPU temperature: 51C -- VideoBios information -- Version: 62.98.1b.00.12 Signon message: FSC C1783 VGA BIOS Performance level 0: gpu 540MHz/shader 1300MHz/memory 500MHz/100%
dank der karte von diesem haendler.
wie bereits erwaehnt hatte ich ihm 30euro vorgeschlagen, was er direkt akzeptiert hat, evt akzeptiert er auch 25 oder gar 20nicht wundern: karte kommt in einem karton fuer ne 7300gt, aber drin ist die 9300ge
infinite
Auf den Bild ist zu sehen das der digitale audio in auf der karte nicht bestückt ist, hast du vll schon mal versucht diesen nachzureichen ?
Damit wäre dann mittels DVI->HDMI Adapter wieder Ton via HDMI möglich ?
Meine 8400GS hatte jedenfalls so ein Kabel und auch die Buchse verbaut.
-
Zitat
Originally posted by Chello
Auf den Bild ist zu sehen das der digitale audio in auf der karte nicht bestückt ist, hast du vll schon mal versucht diesen nachzureichen ?Damit wäre dann mittels DVI->HDMI Adapter wieder Ton via HDMI möglich ?
Meine 8400GS hatte jedenfalls so ein Kabel und auch die Buchse verbaut.
nein, nicht probiert, da ich audio via 3,5 klinke nutze (soundkarte onboard).
Jetzt mitmachen!
Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!