OpenSource Citrix XenServer - VDR als Server in VM inkl. DVB Karten

  • Ich frag mal lieber nicht nach hdparm -tT aus ner VM auf ne Platte die so 1-200MB/s ausspuckt... :cool:

    hdparm ist IHMO kein sinnvoller Benchmark, der sagt wenig bis gar nix aus, gut zum posen, ok ... ;D


    Aber bitte, 1x die Ubuntu Precise VM von oben und der Hypervisor selbst, ohne Wertung:


    Code
    vdrserv-vdr:/home/vdr> sudo hdparm -tT /dev/xvda
    /dev/xvda: 
    Timing cached reads:   11550 MB in  1.99 seconds = 5798.18 MB/sec 
    Timing buffered disk reads: 262 MB in  3.00 seconds =  87.33 MB/sec
    Code
    [root@zeus ~]# hdparm -tT /dev/cciss/c0d0p1
    /dev/cciss/c0d0p1: 
    Timing cached reads:   9132 MB in  2.00 seconds = 4574.03 MB/sec 
    Timing buffered disk reads: 292 MB in  3.00 seconds =  97.21 MB/sec


    2x WD7500AADS als RAID10 an HP SmartArray P400 mit 256MB BBWC.


    [edit] Nur zu Testzwecken (!) mit 4x WD7500AAKS in RAID5 an HPSA P400 mit 256MB BBWC


    Code
    [root@zeus ~]# hdparm -tT /dev/cciss/c0d0p3
    /dev/cciss/c0d0p3: 
    Timing cached reads:   23444 MB in  1.99 seconds = 11770.09 MB/sec 
    Timing buffered disk reads: 540 MB in  3.00 seconds = 179.83 MB/sec
    Code
    saucy-vdr:/home/vdr> sudo hdparm -tT /dev/xvda
    /dev/xvda: 
    Timing cached reads:   25598 MB in  1.97 seconds = 13018.88 MB/sec 
    Timing buffered disk reads: 496 MB in  3.02 seconds = 164.20 MB/sec


    [/edit]


    Regards
    fnu

    HowTo: APT pinning

    Edited 9 times, last by fnu ().

  • So, ihr Spielkinder, jeder hat ja irgendwie heute ein Smartphone oder Tablet-PC, da wäre es doch nett wenn man den XenServer mit diesem kontrollieren könnte.


    Daher bin ich mal für mein iPhone auf die Suche gegangen und fündig geworden: http://www.hypops.org.uk/


    Nette kostenlose App, die Kontrolle für verschiedene "Cloud" Plattformen bietet, u.a. XenServer via XCP/XAPI. Aus dem AppStore installieren, starten und per [+] den XenServer mit Credentials hinterlegen.


    Die App bietet quasi die gleichen Kontrollen wie XenCenter oder OpenXenCenter, sehr schöne Auslastungs-/Durchsatz-Graphen, Consolen für den Hypervisor und VMs, auch Desktop. Die VM lassen sich natürlich mit einem Finger-Tab starten, stoppen, rebooten, aber Achtung wie beim XenCenter wird nicht nachgefragt ... 8o


    Ein Punkt ist besser als bei XenCenter, hier kann man einschalten ob eine VM automatisch startet oder nicht, bei Xen gibt es diese Option so weit ich rausfinden konnte nur per Console.


    Für den Rest laß ich mal die max. 5 Screenshots sprechen, die ich pro Post hinterlegen kann.


    Have fun, regards
    fnu


    PS.: Gibt bestimmt auch was für Android, wenn jemand was findet, bitte hier ein Kapitel schreiben.

  • Im Normalfall geht man her und wählt ein Template passend zu seinem Installationsziel. Also z.B. für eine "Windows [7|8]" VM eben das entsprechende "Windows [7|8]" Installationstemplate.


    Nur sehr schnell stellt man fest, die VMs daraus haben min. 2048MB Hauptspeicher, weniger läßt einen XenServer nicht definieren, wie auch bei WS2008 & WS2012. Und was macht man wenn man eine Linux HVM installieren möchte, also z.B. ein Debian/Ubuntu Desktop mit grafischer Ausgabe? Alle Linux Templates installieren PVs ohne virtualisierte Grafik und 2GB Hauptspeicher benötigen die auch nicht 512MB reicht aus für HVM, 384MB für PV, wie auch für Win7 eben 1024MB in einer VM ausreichen. Angesichts dessen das unsere (sparsameren) Familien-Server nicht endlos mit Speicher ausgestattet sind, wäre recht hier also recht schnell "Schicht im Schacht" ...


    Ein guter Ausgangspunkt als universelle Basis ist das Template für "Windows Server 2003", entsprechend dem gewünschten Ziel in 32- oder 64-bit. Dieses Template startet bei 512MB Hauptspeicher, nicht darunter aber z.B. wahlfrei nach oben auf 1024MB und bietet in seiner erdachten VM Konfiguration eine gute Basis für alle Desktop Linux.


    Im Anhang mal ein paar Screenshots für die Installation einer Win7 VM aus diesem Template, das könnte aber ebenso gut ein "Ubuntu Desktop 13.04" sein ... oder Debian, Arch etc. mit Desktop ...


    Zur Erinnerung, auf allen HVMs die XenTools zu installieren, Windows & Linux, am besten direkt nach dem ersten nutzbaren Start.

    [edit]
    Alternativ VM mit passendem Template anlegen, VM erstmal nicht starten, und per "cmdline" die Rahmenbedingungen auf dem Server ändern:


    Code
    #/> xe vm-list name-label=[Name der VM] params=all | grep memory
    #/> xe vm-memory-limits-set uuid=[UUID der VM] static-min=1073741824 dynamic-min=1073741824 dynamic-max=2147483648 static-max=2147483648 ... oder...
    #/> xe vm-memory-limits-set uuid=[UUID der VM] static-min=536870912 dynamic-min=536870912 dynamic-max=1073741824 static-max=1073741824

    [/edit]


    Regards
    fnu

  • Das liest sich alles sehr informativ und interessant, vielen Dank für Deine Doku.


    Wenn ein vdpau in der vm ginge dann wäre ich sogar bereit alles neu aufzusetzen. Da ich auch länger mit xen nichts gemacht habe, fand ich wie immer zuerst nichts, dann wohl das xen mit nvidia eine NVIDIA GRID vgpu Lösung anbietet. Soll ab Fermi Karten in einigen wenigen zertifizierten Servern gehen.
    http://hcl.xensource.com/GPUPass-throughDeviceList.aspx


    Das XenCenter hat mir schon immer gefallen, auch dass man den Speicher dynamisch allozieren kann ist sehr praktisch. Das geht bei KVM nicht und erfordert unnötig viel Arbeitsspeicher in der DomU.

    Proxmox VE, Tyan Xeon Server, OMV, MLD-Server 5.1
    MLD 5.1 64bit: Asus AT5iont-t, ION2, 4GB Ram, SSHD 2,5" 1Tb, HEX TFX 300W 82+, Cine S2 V6.2 , 38W max.
    Yavdr 0.5:
    Zotac D2550ITXS-A-E mit GT610 OB, TT S2-4100 PCI-e ,Joujye NU-0568I-B
    Yavdr 0.5:
    Sandy Bridge G840, Tests und Energieverbrauch , CoHaus CIR, Cine S2 V6.2
    MLD 5.1 Beebox N3150
    , DVBSky S960 und 1Tb WD Blue

  • vielen Dank für Deine Doku.

    Wenn's weiterhilft, grad bei Xen suche ich mir echt den Wolf manchmal ...


    Wenn ein vdpau in der vm ginge

    Ich kann mir nicht vorstellen das VDPAU auf einem Server einen sinnvollen Zweck erfüllt, es ist ein Server, da sind andere Aufgaben wichtiger.


    Aber es könnte in einer PV funktionieren, testen wer's benötigt, wie man PCI Karten durchreicht steht weiter oben. Für die DVB Karten ohne IOMMU/VT-d habe ich mit dem Thema befasst, für andere Zwecke sind Proxmox/KVM oder VMware IMHO evtl. besser geeignet ...


    Das XenCenter hat mir schon immer gefallen, auch dass man den Speicher dynamisch allozieren kann ist sehr praktisch.

    XenCenter ist nur die Windows Management Software, man kann den XenServer auch anders verwalten.


    Niemand, der sich regelmäßig mit Virtualisierung beschäftigt wird VMs dynamischen Hauptspeicher zuweisen, ebensowenig wie Thin-Provision'ed Massenspeicher, klare Regeln, soviel Hauptspeicher, soviel Massenspeicher.


    Gilt IMHO umso mehr man z.B. einen "hp micro Proliant N36L" mit seinen 2x 1,3GHz und schmalen 4GB Hauptspeicher betreibt:

    • Xen Dom0: 800MB
    • Windows Home Server (HVM): 2048MB
    • VDR Server (PV): 384MB
    • Service Server (PV): 384MB
    • Spiel Server (PV): 384MB

    Und Du darfst nicht vergessen, die Dom0 ist die erste virtuelle Maschine, daher wird diese auch mit weniger Hauptspeicher bestückt. Bei KVM und auch VMware gibt es keine Dom0 zu Verwaltung, sondern eben den Hypervisor direkt, als Maschine, an diesen kommt man bei Xen gar nicht direkt hin, der wird von der Dom0 verwaltet ...


    Regards
    fnu

    HowTo: APT pinning

    Edited 3 times, last by fnu ().

  • Wenn's weiterhilft, grad bei Xen suche ich mir echt den Wolf manchmal ...

    Genau das war damals ein K.O. Kriterium. Obwohl sich xcp und xencenter leicht einrichten ließ. Aber alles was danach kam war nur schwer zu finden. Immerhin gibt es mittlerweile ein Forum und nicht mehr nur die Mailingliste.

    Ich kann mir nicht vorstellen das VDPAU auf einem Server einen sinnvollen Zweck erfüllt, es ist ein Server, da sind andere Aufgaben wichtiger.

    Mein Ziel war immer meinen Wohnzimmer VDR überflüssig zu machen. Und für vernünftige GPU Leistung gibt es eine Menge Gründe. Der Ansatz von Xen die GPU mehreren Clients zur Verfügung zu stellen geht da natürlich noch viel weiter als das bloße durchreichen der GPU.


    So wie ich gelesen habe, ist es mit der kommenden 13.10 bzw Kernel 3.9 + Quemu 1.5 GPU passtrough dann offiziell unter Ubuntu unterstützt. Da meine Kinder und Job mir weiterhin wenig Zeit für Experimente lassen werde ich vermutlich erst mal weiter mitlesen und sehen was sich entwickelt.

    Proxmox VE, Tyan Xeon Server, OMV, MLD-Server 5.1
    MLD 5.1 64bit: Asus AT5iont-t, ION2, 4GB Ram, SSHD 2,5" 1Tb, HEX TFX 300W 82+, Cine S2 V6.2 , 38W max.
    Yavdr 0.5:
    Zotac D2550ITXS-A-E mit GT610 OB, TT S2-4100 PCI-e ,Joujye NU-0568I-B
    Yavdr 0.5:
    Sandy Bridge G840, Tests und Energieverbrauch , CoHaus CIR, Cine S2 V6.2
    MLD 5.1 Beebox N3150
    , DVBSky S960 und 1Tb WD Blue

  • Torsten73


    In diesem Thread schreibe ich über XenServer, das Citrix letztens inkl. der Management Software XenCenter unter eine OpenSource Lizenz gestellt hat, siehe Titel && Post #1.


    Dein Thema findet sich eher hier:

    Dort geht es um Xen auf Basis von Ubuntu im Allgemeinen.


    Aber zum Thema Desktop Virtualisierung wie Du es Dir vorstellst, findet sich noch kein Thread hier im Portal ... bin gespannt auf Dein Werk ... ;)


    Wie alle RedHat Abkömmlinge, also im Prinzip alle Enterprise Linux Lösungen basiert Xen auf dem Kernel 2.6.32, fein gepatched auf den Anwendungszweck, aber ohne das kurzfristig Änderungen sichtbar wären ... 8)


    [edit] Bevor die Unken rufen, der Enterprise 2.6.32 Kernel, der auf RedHat zurück geht unterstützt natürlich perfekt aktuelle CPU Architekturen, SandyBridge, IvyBridge und seit XenServer 6.2 auch AMD Piledriver und Intel Haswell-DT! [/code]


    Regards
    fnu

    HowTo: APT pinning

    Edited 4 times, last by fnu ().

  • Hi Frank,
    nochmals danke für Deine super Anleitung, das tut hier wirklich alles wunderbar auf einem HP ProLiant N54L. :)


    Nur ein Problem habe ich noch, für das ich noch keine Lösung bei google gefunden habe:
    Wie kann ich USB-Geräte an eine virtuelle Maschine durchreichen? Ich meine damit keine USB-Sticks oder -Festplatten (also keinen Storage), sondern z.B. einen USB-Dongle.


    Hast Du eine Idee/Lösung?


    Gruß
    Stefan

  • Hast Du eine Idee/Lösung?

    Nein, da habe ich auch noch keine Lösung zu, steht auf einer ToDo Liste das zu evaluieren, wie z.B. auch noch HW Monitoring des Servers, also Fan-Speed und Temperaturen.


    Dein N54L kann hier ja punkten mit seinem höheren CPU Takt, ist ja jetzt mehrere Server ... :)


    Regards
    fni

    HowTo: APT pinning

  • So, nachdem die Frage ja auch kürzlich kam und USB Gerät ja im VDR Umfeld quasi unverzichtbar sind, ^^ , hab ich mal geschaut wie man das lösen könnte. XenServer sieht keinerlei USB Device Virtualisierung vor, aus die oben schon angesprochen USB Massenspeicher.


    Bei den Recherechen bin ich vor einiger Zeit schon über dieses HowTo gestolpert: http://blogs.citrix.com/2012/0…network-with-xenserver-6/, es behandelt die Nutzung einer USB-over-Network Lösung von Incentives Pro, deren Nutzung für Linux frei ist und nicht (!) nur auf XenServer beschränkt ist. Für Windows werden Lizenz-Gebühren fällig, der Client ist frei, wenn man den Server auch auf Windows hat, ist der Server Linux, wie in unserem Fall, kostet der Windows Client Geld.


    Um das das zum Kernel des XenServer passende Modul zu bauen benötigt man ein sogenanntes DDK für 6.2, eine vordefiniert Appliance die man in den XenServer importiert. Zum Download benötigt man einen Account bei Citrix. Ich habe mir das DDK gezogen, installiert und das Paket wie im o.a. HowTo geschnürt. Anhängen kann ich es leider nicht, es ist zu groß. Nicht vergessen das Makefile anzupassen, auf dem Server reicht "./install.sh install-server", und die Firewall Regeln zu erweitern.


    Bei der Lösung hilft auch die Umstellung auf "Open vSwitch", da die Dom0 und die VMs noch ein funktionierendes Netzwerk haben, wenn die Verbindung nach aussen fehlt.


    Damit das Kapitel nicht zu lang wird, splitte ich Server (-autoshareon) und Client und gehe nur auf das nötigste ein, folgt bitte dem Blog HowTo. Die Lösung bietet ein install & uninstall Script das alles ganz sauber wieder bereinigt, der zweite Link bietet eine Beschreibung und Hilfestellung.


    Code
    [root@zeus usb-redirector-linux-i386]# lsmod | grep tusbdtusbd                  34096  2usbcore               138861  6 usb_libusual,tusbd,uhci_hcd,ohci_hcd,ehci_hcd[root@zeus usb-redirector-linux-i386]# ps -ef|grep usbsrvroot     17879     1  0 12:26 ?        00:00:01 /usr/local/usb-redirector/bin/usbsrvd[root@zeus usb-redirector-linux-i386]# usbsrv -autoshareon => jetzt USB Gerät einstecken![root@zeus usb-redirector-linux-i386]# usbsrv -l================= USB SERVER OPERATION SUCCESSFUL ===============List of local USB devices:   1: JumpDrive Lexar USB Mass Storage Device (s/n: 2592686526)      Vid: 05dc   Pid: a205   Port: 2-1.4      Status: plugged, auto-shared===================== ======================= ===================[root@zeus usb-redirector-linux-i386]# usbsrv -iUSB server information:======================Total USB devices in configuration: 1Total connected clients: 0USB device sharing mode: auto-sharingUSB server accepts incoming connections on 32032 tcp port


    Regards
    fnu

    HowTo: APT pinning

  • Weiter auf dem Client, hier die VM "vdrserv" auf Precise Basis mit Kernel 3.8, die auch schon weiter oben als Beispiel genutzt wurde.


    Code
    vdrserv-vdr:/home/vdr> cd Downloadsvdrserv-vdr:/home/vdr/Downloads> wget http://incentivespro.com/usb-redirector-linux-x86_64.tar.gzvdrserv-vdr:/home/vdr/Downloads> mkdir ../work; cd ../workvdrserv-vdr:/home/vdr/work> tar zxvf ../Downloads/usb-redirector-linux-x86_64.tar.gzvdrserv-vdr:/home/vdr/work> cd usb-redirector-linux-x86_64/vdrserv-vdr:/home/vdr/work/usb-redirector-linux-x86_64> sudo ./installer.sh install-client*** Installing USB Redirector for Linux v.2.8***  Destination dir: /usr/local/usb-redirector***  Checking installation...***  Detecting system...***     distribution: ubuntu***     kernel: 3.8.0-29-generic***  Compiling kernel module...***  Kernel module succesfully compiled***  Creating directories...***  Preparing scripts...***  Copying files...***  Setting up init script...***  Starting daemon...***  INSTALLATION SUCCESSFUL! To uninstall, run /usr/local/usb-redirector/uninstall.shvdrserv-vdr:/home/vdr/work/usb-redirector-linux-x86_64> lsmod|grep tusbdtusbd                  36773  1vdrserv-vdr:/home/vdr/work/usb-redirector-linux-x86_64> ps -ef|grep usbroot      2509     1  0 12:44 ?        00:00:00 /usr/local/usb-redirector/bin/usbsrvd


    Code
    vdrserv-vdr:/home/vdr/work/usb-redirector-linux-x86_64> usbclnt -a zeus:32032====================== OPERATION SUCCESSFUL =====================USB server has been added===================== ======================= ===================vdrserv-vdr:/home/vdr/work/usb-redirector-linux-x86_64> usbclnt -l================= USB CLIENT OPERATION SUCCESSFUL ===============List of USB servers and devices:   1: USB server at zeus:32032      Mode: manual-connect   Status: connected   |   `-   1: JumpDrive Lexar USB Mass Storage Device (s/n: 2592686526)           Vid: 05dc   Pid: a205   Port: 2-1.4           Mode: manual-connect   Status: available for connection===================== ======================= ===================vdrserv-vdr:/home/vdr/work/usb-redirector-linux-x86_64> usbclnt -c 1-1====================== OPERATION SUCCESSFUL =====================USB device connected===================== ======================= ===================vdrserv-vdr:/home/vdr/work/usb-redirector-linux-x86_64> dmesg...[  623.372088] usb 1-1: new high-speed USB device number 2 using usb-vhci-driver[  623.503454] usb 1-1: New USB device found, idVendor=05dc, idProduct=a205[  623.503459] usb 1-1: New USB device strings: Mfr=1, Product=2, SerialNumber=3[  623.503463] usb 1-1: Product: JumpDrive[  623.503466] usb 1-1: Manufacturer: Lexar[  623.503469] usb 1-1: SerialNumber: 2592686526[  623.621724] Initializing USB Mass Storage driver...[  623.622167] scsi0 : usb-storage 1-1:1.0[  623.622307] usbcore: registered new interface driver usb-storage[  623.622310] USB Mass Storage support registered.[  624.622021] scsi 0:0:0:0: Direct-Access     Lexar    JumpDrive        1.00 PQ: 0 ANSI: 6[  624.623032] sd 0:0:0:0: Attached scsi generic sg0 type 0[  624.630032] sd 0:0:0:0: [sda] 62545920 512-byte logical blocks: (32.0 GB/29.8 GiB)[  624.631219] sd 0:0:0:0: [sda] Write Protect is off[  624.631225] sd 0:0:0:0: [sda] Mode Sense: 23 00 00 00[  624.632426] sd 0:0:0:0: [sda] Write cache: disabled, read cache: disabled, doesn't support DPO or FUA[  624.642603]  sda: sda1[  624.653090] sd 0:0:0:0: [sda] Attached SCSI removable diskvdrserv-vdr:/home/vdr/work/usb-redirector-linux-x86_64> sudo mount /dev/sda1 /mnt


    Code
    vdrserv-vdr:/home/vdr> sudo rsync --progress ./Downloads/*.iso /mnt/de_client_restore_disc_windows_server_2012_essentials_x86_x64_cd_1022302.iso   590333952 100%    7.02MB/s    0:01:20 (xfer#1, to-check=1/2)de_office_professional_plus_2013_x64_dvd_1133998.iso   820998144 100%    8.55MB/s    0:01:31 (xfer#2, to-check=0/2)sent 1411504616 bytes  received 50 bytes  8182635.74 bytes/sectotal size is 1411332096  speedup is 1.00


    Code
    vdrserv-vdr:/home/vdr> sudo rsync --progress /mnt/*.iso ./Downloads/de_client_restore_disc_windows_server_2012_essentials_x86_x64_cd_1022302.iso   590333952 100%   23.40MB/s    0:00:24 (xfer#1, to-check=1/2)de_office_professional_plus_2013_x64_dvd_1133998.iso   820998144 100%   23.63MB/s    0:00:33 (xfer#2, to-check=0/2)sent 1411504616 bytes  received 50 bytes  17109147.47 bytes/sectotal size is 1411332096  speedup is 1.00


    Macht was draus ... :)


    Regards
    fnu

    HowTo: APT pinning

  • Hallo,


    ich bin bei meinem im Aufbau befindlichen XenServer 6.2 gemäß dieses Threads und hänge (leider schon) beim Einspielen der Patches.
    Wenn ich support.citrix.com/article/CTX138833 richtig verstehe, benötige ich 2 Voraussetzungen, bevor XS62E004 eingespielt werden kann:


    1.Driver Development Kit (DDK) for XenServer 6.2.0

    Code
    IMPORTANT: The Driver Development Kit (DDK) for XenServer 6.2.0 
    must be updated to be compatible with this hotfix. For more information,
     see Driver Development Kit  - For XenServer 6.2.0 with Hotfix XS62E004.


    2. Upgrade von XenServer 6.2 Measured Boot Supplemental Pack

    Code
    Note: In order to install hotfix XS62E004, customers using the original version (v1.0.0-1) of the XenServer 6.2 Measured Boot Supplemental Pack
     should upgrade to the updated version (v6.2.0-2) of the supplemental 
    pack. The updated pack is available from the XenServer 6.2.0 Download page.


    Zu Punkt 1 habe ich mir das ISO heruntergeladen, auf den Xen-Server kopiert, unter ssh-Zugang per mount und "-o loop" eingebunden. Allerdings gibt es kein "install.sh" oder so etwas, wie in der allgemeinen Installation unter 6.1.1 angegeben.


    Habe ich die Voraussetzungen richtig verstanden und wenn ja: Wie installiert man das Update des DDK?


    kmoss

    HD-VDR 1&2 : Asrock N68C-S UCC, ASUS EN210 Silent, Boot IDE CF-Card, /srv auf SATA Samsung 3TB
    HD-VDR 1 : Sempron145, yavdr 0.4, TeVii S480 V2.1 DVBs2 Dual
    HD-VDR 2 : Sempron140, yavdr 0.5, DD Cine S2 V6.5 + DuoFlex S2
    Server (im Aufbau): Asrock B75M R2.0 mit i5-3470T sowie Zotac GT970 & DD Cine S2 V6.5 für Gastsysteme
    - Host: Manjaro-XFCE mit 4.4er Kernel mit qemu und virt-manager

  • kmoss


    Nein, das DDK muß nicht für den Patch XS62E004 "installiert" sein.


    Das DDK wird auch nicht installiert, sondern importiert eine vorkonfigurierte Entwicklungsumgebung als VM auf dem XenServer. Zu Deinen vorhanden VMs findest Du einfach eine weiter mit "...DDK..." im Namen.


    Zur Erklärung des "XS62E004", mit diesem bekommt der XenServer einen neuen Kernel und damit auch eine (leicht) andere Versionsnummer. Das DDK ist ja die VM, mit welcher man für den XenServer Kernel Treiber bauen kann. Was auf dem Hypervisor richtigerweise nicht geht, weil alle Tools dazu fehlen.


    Nun hat der XenServer einen neuen Kernel, also muß auch der Kernel der DDK VM auch dazu passen, ansonsten passen die dort gebauten Kernelmodule nicht mehr. Wenn Du kein Modul-Eigenbau verwendest, brauchst Du Dich nicht drum kümmern, aber alle die die o.a. USB Treiber für den XenServer gebaut haben, müssen hier aktiv werden, aber die wissen schon wie man das DDK aufsetzt ... ;)


    Regards
    fnu

    HowTo: APT pinning

  • Danke. Der Patch XS62E004 ist nun installiert. Mein Denkfehler war:

    Das DDK ist ja die VM, mit welcher man für den XenServer Kernel Treiber bauen kann. Was auf dem Hypervisor richtigerweise nicht geht, weil alle Tools dazu fehlen.

    Dann kann ich demnächst meine erste VM zum Testen aufsetzen, ein auf Ubuntu basierten VDR-Server (eventuell sogar yavdr 0.5 headless) mit durchgereichter TeVii S464.

    HD-VDR 1&2 : Asrock N68C-S UCC, ASUS EN210 Silent, Boot IDE CF-Card, /srv auf SATA Samsung 3TB
    HD-VDR 1 : Sempron145, yavdr 0.4, TeVii S480 V2.1 DVBs2 Dual
    HD-VDR 2 : Sempron140, yavdr 0.5, DD Cine S2 V6.5 + DuoFlex S2
    Server (im Aufbau): Asrock B75M R2.0 mit i5-3470T sowie Zotac GT970 & DD Cine S2 V6.5 für Gastsysteme
    - Host: Manjaro-XFCE mit 4.4er Kernel mit qemu und virt-manager

  • Hallo fnu,


    hast Du mal Performancemessungen in den VMs gemacht?


    Ich bin gerade dabei einem Xen-Host aufzubauen. Allerdings die OpenSource Veriante. Der technische Unterbau ist ja aber der gleiche wie bei XenServer. Als Frontend verwende ich Archipel.


    Wie auch immer, irgendwie kamen mir die VMs im Vergleich zu VMs auf meinem ESXi immer etwas langsamer vor. Das veranlasste mich zu ein paar Messungen. Ich habe dazu sysbench genommen. Die CPU-Performance entspricht bei nur einer laufenden VM sowohl unter Xen als auch ESXi nahezu der nativen CPU-Performance.
    Allerdings ist der Speicherdurchsatz sehr verwunderlich.


    Auf dem ESXi-Host erreicht eine VM einen Speicherdurchsatz von ca. 3,7 GB/s. Auf dem Xen-Host direkt auf der Hardware (also ohne Xen) sind es ebenfalls ca. 3,7 GB/s. In der Xen-DOM0 werden allerdings dann nur noch ca. 500 MB/s erreicht. In einem PV-Gast ebenfalls ca. 500 MB/s. In einem HVM-Gast sind es knapp 2 GB/s.


    Die Werte wundern mich schon etwas. Sollte hier Xen so weit hinter ESXi zurück liegen?


    Der ESXi und Xen sind hardwaremäßig bei mir übrigens nicht unähnlich. Gleicher Takt, gleicher Speicher usw. Die CPU ist nur der ESXi ein Sandy-Bridge, der Xen Host ist ein Haswell.


    Vielleicht kannst Du ja mal einen Durchlauf mit sysbench auf Deinem System machen. Mich würden mal Vergleichswerte interessieren.

  • Wie auch immer, irgendwie kamen mir die VMs im Vergleich zu VMs auf meinem ESXi immer etwas langsamer vor.

    Ich empfinde da eher das Gegenteil, hatte beides inzwischen mehrfach auf dem selben Blech installiert, um genau das mit ein paar Standardaufgaben zu prüfen, hab aber nie Benchmarkstools genutzt.


    Die VMs unter ESXi sind IMHO langsamer, aber es ist dafür egal was auf den anderen VMs abläuft. Bei Xen kann schonmal die "Hochlast" eines anderen durchschlagen. Man kann jetzt nicht sagen, das der Xen Scheduler schlechter ist, ist vmtl. eher eine Frage des Ansatz. VMWares Hypervisor gibt Leistung "von unten nach oben" frei an die VMs, CPU Takt/Power, Xen nimmt von oben runter weg, läßt also die Power auf max. für alle und reduziert dann nach Bedarf bei anderen VMs ...


    Wichtig ist, die Tools & Treiber zu installieren, bei Xen, als auch bei VMWare. Bei PVs stelle ich keinen Unterschied zu eine physischen Maschine fest, hab schon etliches in den PVs bauen lassen, die Laufzeiten sind von einer vergleichbaren Box nicht zu unterscheiden.


    Vielleicht kannst Du ja mal einen Durchlauf mit sysbench auf Deinem System machen. Mich würden mal Vergleichswerte interessieren.

    Ja, aber da mußt ein wenig Geduld haben, muß den Server erst mal wieder vom Baustaub befreien, verkabeln und prüfen ob alles noch geht ... ^^


    Regards
    fnu

    HowTo: APT pinning

  • hey fnu,


    erstmal großes Lob was du hier schriebst.


    mein vorhaben: ein paar vms aufsetzen. Darunter eine mit YaVDR0.5


    ich habe dein tutorial durchprobiert. soooooo hat es auch funktioniert. allerdings habe ich nur die vm erstellt, das ubuntu drauf und nichts weiter installiert.


    ich will ja YaVDR drauf haben. habe also die cd eingelegt. neue VM geklickt und dann MUSS ich leider other OS wählen, kann auch keine boot Parameter festsetzen. dementsprechend kriege ich YaVDR0.5 drauf, aber es funktioniert nicht so wie die Installation aus dem template.


    ich würde ja áus dem template installieren aber ich hab keine Ahnung wie ich den VDR Server manuell KOMPLETT installieren muss.


    könntest du da noch eine Anleitung schreiben? damit man das template nutzen kann?


    (sorry saß jetzt den ganzen tag heute daran das heraus zu finden, hoffe man versteht mich. habs jetzt nur schnell nieder geschrieben)


    MfG Steven

  • Quote

    Ich empfinde da eher das Gegenteil, hatte beides inzwischen mehrfach auf dem selben Blech installiert, um genau das mit ein paar Standardaufgaben zu prüfen, hab aber nie Benchmarkstools genutzt.


    Darauf einen Benchmark zu machen bin ich auch erst aus dem Gefühl heraus gekommen.
    Mir fiel das immer schon bei einer Ubuntu-Installation auf. Ich hatte immer das Gefühl die dauert länger als direkt auf dem Blech. Egal ob HVM oder PV. Und ich hatte ebenfalls das Gefühl, das sie länger dauert als unter ESXi.
    Bei Windows gleiches Spiel. Wobei ja Windows erstmal keinerlei Treiber für den Betrieb in einer VM hat. Nach Treiberinstallation wird es ja eh merklich schneller.
    Nur Linux bringt ja im Kernel bereits den treibermäßigen support mit. Oder was hast Du bei einem Linux-Gast noch zusätzlich installiert?


    Leider bin ich irgendwie nie dazu gekommen, die Installation mal zu "stoppen".
    Jedenfalls wollte ich das dann mal etwas nachmessen. Daher bin ich auf die Benchmarks gekommen. Die CPU-Performance ist unter Xen vielleicht ein wenig besser als unter ESXi. Aber die Unterschiede sind da so nahe an der native Prformance des Processors, das es praktisch keinen Unterschied macht. Die Messungen erfolgten natürlich ohne andere laufende VMs.
    Auffällig war eben nur die schlechte RAM-Performance. Wobei sowas natürlich auch speziell am Benchmark liegen kann. Je nachdem wie dieser misst.
    Aber es war schon eigenartig, nicht nur der Vergleich zum ESXi. Ich habe ja auch Messungen direkt auf dem Blech gemacht (also ganz ohne Xen). Da war es im erwarteten Bereich. Mit Xen, beim PV Gast und in der DOM0, gibts dann auf einmal nur noch 1/8 des nativen Durchsatzes. HVM bringt es immerhin noch auf die Hälfte. Aber es ist auch schräg, das der Durchsatz bei einer HVM besser ist als PV.


    Ich muss mir nochmal ein paar praxisnähere Benchmarks suchen. Synthetische Benchmarks können ja da durchaus lügen.

  • könntest du da noch eine Anleitung schreiben? damit man das template nutzen kann?

    Es ist grundsätzlich nicht möglich yaVDR nativ per PV Template zu installieren, weil es keinen Net-Installer gibt. Da es sich grundsätzlich um einen Server handelt, stellt sich die Frage ob Du ein komplettes yaVDR dafür benötigst oder eben eine PV mit den (ya)VDR Paketen ausrüstest, als Server für Deine yaVDR Clients.


    Die weiteren Alternativen sind, yaVDR selbst als Xen Hypervisor aufzubauen, ist ja der Ursprung diese Threads: [Virtualisierung] yaVDR64 0.5 goes Xen Hypervisor - VDR Server als Hypervisor oder in VM inkl. DVB Karten, da muß man dann auch nicht die DVB Karten virtualisieren.


    Wenn Du ganz unbedingt yaVDR in einer VM haben willst, mußt Du das ISO zuerst in einer HVM installieren und diese HVM dann anschließend zu einer PV umwandeln. Das habe ich selbst noch nicht gemacht, es gibt aber etliche Anleitungen dazu bzw. haben das andere hier aus dem Portal schon gemacht und können die nötigen Schritte eben zusammenfassen.


    Aber die Unterschiede sind da so nahe an der native Prformance des Processors, das es praktisch keinen Unterschied macht. Die Messungen erfolgten natürlich ohne andere laufende VMs.

    Eines darfst Du nie vergessen, die Dom0 ist immer die erste VM einer Xen Installation. Sie dient zur Kontrolle des Hypervisors, an welchen Du nicht direkt rankommst. Das schlägt sich sicher auch in den Benchmarkwerten nieder und ist bei KVM oder VMWare anders ...


    Regards
    fnu

    HowTo: APT pinning

    Edited 3 times, last by fnu ().

  • Quote

    Eines darfst Du nie vergessen, die Dom0 ist immer die erste VM einer Xen Installation. Sie dient zur Kontrolle des Hypervisors, an welchen Du nicht direkt rankommst. Das schlägt sich sicher auch in den Benchmarkwerten nieder und ist bei KVM oder VMWare anders ...


    Das ist mir klar. Deswegen war der Memory-Durchsatz in der DOM0 genauso schlecht wie in einer PV DOMU.
    Für die Vergleichmessungen der nativen Performance wurde komplett ohne Xen gebootet.
    Gemeint war das von Dir zitierte so:
    Bei Messungen in einer DOMU lief keine andere DOMU. Bei Messungen in der DOM0 lief keine DOMU.



    Noch eine andere Frage zu einem Beitrag weiter vorne in diesem Thread:
    Du hast auf Open VSwitch umgestellt.
    Da hattest Du auch geschrieben das bei einer einfachen Bridge die Daten erst ins Hausnetz laufen und dann zur anderen VM zurück kommen. Das dachte ich bisher auch.
    Da ich aber schonmal am benchmarken war, habe ich gleich nochmal einen iperf zwischen verschiedenen VMs laufen lassen. Der wirft mir zwischen PVs ca. 25 GBit/s aus und zwischen HVMs ca. 20 GBit/s.
    Das wiederum spricht aber gegen ein Durchlaufen des normalen Netzwerkes. Das hat bei mir nur 1 GBit. Kann also den Durchsatz nicht bringen.
    Ich frage mich nun, ob sich für mich der Aufwand noch lohnt auf Open VSwitch umzustellen.

Participate now!

Don’t have an account yet? Register yourself now and be a part of our community!