Hardware für ESXi 5.5-U1

  • Quote

    Du mußt ja wissen, ich vermische hier gar nichts. Ich halte es nur für Quatsch einen RAID Contoller/Verbund nur einer VM zuzuweisen und dem Rest der Installation vorzuenthalten.


    Habe ich behauptet, das Du etwas vermischst? Ich glaube nicht.
    Was ich meinte war, das insbesondere Borgal nicht klar war, wie die verschiedenen Konfigurationen eigentlich aussehen können.


    Ansonsten hätte ich gerne gewußt, wie Du das Problem löst, das die Platten nicht in Standby gehen?
    Ich wollte ursprünglich auch keinen ganzen Controller an die VM durchreichen. Doch das war der Grund es dann eben doch zu tun.
    Für einen Unternehmensserver speilt das vielleicht nicht so die große Rolle. Für einen Homeserver finde ich die ca. 20 Watt Verbrauchsunterschied schon durchaus erheblich, den meine 5 Platten verursachen wenn sie laufen bzw. im Standby sind. Zumal sie die längere Zeit eines Tages im Standby verbringen.


    Bzgl. Hardware-RAID sehe ich das so wie urknall. Schon das man denselben RAID-Controller wieder braucht, wenn er abraucht, macht es im Privatbereich problematisch. Ganz abgesehen davon das sich ein Hardware-RAID sowieso verbietet, wenn man RaidZ nutzen möchte. Da braucht das ZFS direkten Zugriff auf einzelne Platten.


    Nebenbei bemerkt ist der Umzug der Platten auch nicht so das Problem. Der Controller, an dem sie hängen, spielt bei einem Soft-RAID ja keine Rolle. Man kann sie im neuen System ja an einen beliebigen Controller hängen. Das Raid hat man dann trotzdem wieder. Man könnte sogar raw VMDK's aus den einzelnen Platten machen und sie dann einzeln an eine VM durchreichen und das SoftRaid geht wieder.

  • Mahlzeit,


    bei meinem Heimserver startet ESXi vom USB Stick.
    An dem onboard Controller hängt eine schnelle Platte (Datastore) für die VMs,
    die darauf gespeicherten vmdk Dateien bilden quasie nur die Systempartition ab.
    Wenn das Betriebssystem zusätzlich eine Datenplatte hat, ist dieses als RAW Device
    durchgereicht. Die Datenplatten sind auch am onboard Controller.


    Die vmdk Dateien werden von meinem Computer lokal auf eine extra Festplatte gesichert.
    Im Störfall kann ich die RAW Festplatten abziehen und in einem x beliebigen System weiterverwenden.


    Diese Kompromisslösung empfinde ich für meinen Heimserver am besten.


    Munter bleiben, Rossi

  • aber die generelle Aussage man virtualisiert heute generell alles auch den gesamten Speicherplatz finde ich nicht richtig.

    Ausser hier im vdr-portal ist das aber so und ich komme schon ein wenig rum bei Kunden ... ^^


    Nicht vergessen kaum jemand betreibt professionell einen einzelnen VMWare Server, sondern Farmen u.a. auch für VMotion, da ist Voll-Virtualisierung quasi Pflicht. Gelegentlich gibt es ein Raw-Device Mapping für LUNs ganz spezieller Funktionen ...


    EDIT: Alleine schon automatische ZFS Snapshots vom VM Pool sind unschlagbar, wenn mal was schief geht, ist man in Minuten auf einem alten Snapshot und die VM kann wieder wie gewohnt gestartet werden.

    Warum sollte man ZFS Snapshots mit VMWare nutzen, das selbst sehr gut Snapshots seiner Maschinen anlegen kann? Warum setzt Du denn überhaupt VMWare ein, viel Vertrauen scheinst Du ja nicht zu haben ... ?


    Regards
    fnu

    HowTo: APT pinning

  • Dann scheinst du aber keine richtig grossen Kunden zu betreuen...


    Ich verstehe ehrlich gesagt nicht wo das Problem sein soll. In grossen Umgebungen werden auch SANs per iSCSI oder NFS angebunden und keine Firma setzt ab einer gewissen Größenordnung auf Hardware Raid welches auf der selben Hardware läuft wie die ESXis für die VMs, da werden immer externe Speicher über entsprechende Protokolle eingebunden. Bei mir mache ich das halt über eine VM, die auf der gleichen Hardware bei mir Zuhause läuft, alles auf einem Server - All In One. Ich verstehe nicht, was an einem Konzept schlecht sein soll, was in riesigen Umgebungen auch zum Einsatz kommt und dort anscheinend ja auch auf Grund gewisser Vorteile genutzt wird.


    Bezüglich Snapshots gibt es bei VMWare gegen entsprechende monetäre Leistung sicherlich super Backup und Snapshot Konzepte, bei ZFS kostet mich das alles nichts und ich kann es automatisiert laufen lassen.


    Das Thema wird mir langsam ehrlich gesagt zu mühsam zu diskutieren, akzeptiere bitte einfach mal, dass es Leute gibt, die andere Lösungen für sich als geeigneter halten. Für mich ist die Lösung, die ich einsetze der ultimative Ansatz und es gibt nichts besseres.


    Thema Ende von meiner Seite!

    VDR: yavdr-ansible/18.04 LTS auf Intel NUC (BOXNUC6CAYH), 2x Kingston KVR16LS11/4, Harmony 700, yaUSBIR

    VDR-Server: yavdr-ansible/18.04 LTS in ESXi VM


  • In grossen Umgebungen werden auch SANs per iSCSI oder NFS angebunden

    Korrekt, auf eigener Hardware ausserhalb der Server, FC, iSCSI, NFS eher bei kleineren Kunden. Natürlich hat kaum jemand VMWare mit lokalem Storage am Start, ausser ein paar Dödel im vdr-portal ... teilweise noch nichtmal mit abgesicherten Festplatten ... :rolleyes:


    Du loopst Dein VMWare zurück ins selbe Blech, auf eine VM, was soll daran gut und sicher sein? Das ist das einzige das ich nicht verstehe ... Du mußt damit klar kommen ...


    Und wenn Du schon so ein verschachteltes Konstrukt ins Spiel bringst, muß Du auch damit leben das man nachfragt.


    Regards
    fnu

    HowTo: APT pinning

  • Also ich habe das einmal gezeichnet wie ich das verstanden habe und werde es so einmal antesten wenn die Hardware da ist.


    Ich habe mich ein klein wenig umentschieden mit der Hardware und zwar wollte ich jetzt auf Xeon E3 1230v3 gehen, also Sockel 1150 und hier das Supermicroboard X10SL7-F einsetzen, das hat einen LSI2308 HBA zusätzlich onboard.


    Wenn das alles so klappt, das versuche ich gerade noch zu erkunden.

    Images

    [color=#000000][font='Tahoma, Arial, Helvetica, sans-serif']Server: [size=8]yaVDR 0.6 headless, Streamdev-Server, auf ESXi 6.0 mit DD Cine S2 V6.5 + Duoflex v4 im PCI Pass-through
    Client 1: [size=8]MLD 5.0.0 Streamdev-Client, ohne TV Karte, ASRock ION 330 Nettop

  • Wenn ich das richtig in Erinnerung hab, dann gibts bei ESXi 5.5 Probleme beim Durchreichen von Onboard-HBAs. Ich kann das nicht aus Erfahrung sagen. Ich habe es nur in den Berichten über ESXi 5.5 gelesen.


    Insofern wäre es einfacher und sicherer ein Board ohne zusätzlichen HBA zu nehmen und ein SAS HBA per Steckkarte dazu zu nehmen. Sonst hast Du u.U. zusätzlichen Stromverbrauch durch den Onboard-HBA, den Du u.U. nicht so nutzen kannst, wie Du möchtest.


    Ansonsten, wie gesagt, brauchst Du auf die Raid-Funktionen des SAS HBA nicht weiter zu achten, wenn Du RaidZ einsetzen willst. Dann dient das Teil ja nur als simples SATA-Interface.
    Daher bin ich für mich auf den Highpoint gekommen. Ich hatte auch jeweils einen Controller mit LSI und einen Adaptec da. Die gingen beide wegen höherem Stromverbrauch zurück. Wie gesagt, bei RaidZ nützen einem deren Raid-Funktionen ja nichts.