Hilfe bei Auswahl 24-Port-Switch für Firma

  • Hallo Forum!


    Nachdem ich sonst nicht wirklich hilfreiche Informationen gefunden habe und mich selbst leider nicht genug auskenne hoffe ich mal wieder auf fundierte Hilfe aus dem guten alten vdr-Forum :)


    Situation:
    Firma mit aktuell 13 Workstations und einigen Laptops. 2 Server mit jeweils 4x Gbit-Netzwerkkarten.


    Der 2. Server ist eigentlich nur ein Backup des ersten und sollte immer über Nacht abgeglichen werden.


    Mein Problem:
    Ich suche einen guten Switch mit mind. 24 Ports an den ich die beiden Server jeweils über 4 Kabel anschließen kann. Der Switch muß also technisch dazu in der Lage sein
    2x 4 Ports mit LACP zu betreiben. Auf beiden Servern läuft schon seit Jahren freeNAS.


    Ist ein Switch der Reihe HP-1910 dazu technisch in der Lage?


    Danke und Gruß!

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • Ist ein Switch der Reihe HP-1910 dazu technisch in der Lage?

    Ja, sie können LACP, aber leider nur max. 2 Ports, siehe hier, unter "Resiliency and high availability", "Link aggregation".


    Regards
    fnu

    HowTo: APT pinning

    The post was edited 2 times, last by fnu ().

  • Besten Dank für Eure Antworten!


    Dann warte ich mal gern auf Deine Ergebnisse.


    Danke!



    ps: der hier sollte das dann wohl können, kostet aber auch gleich das Doppelte

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • Der 2530 kann ein bisschen l4, wohingegen der 1910 nur ein bisschen l3 kann.


    Der 1910-24G ist zumindest schoen leise und sparsam, was ich von meinem AT-9424Ts nicht behaupten kann.


    uwe

    server: yavdr trusty testing, 2 * L5420, 32GB, 64TB RAID6 an OctopusNet (DVBS2- 8 ) + minisatip@dsi400 (DVBS2- 4 )
    frontends: kodi und xine

  • Ich kann Dir nichts über die Funktion sagen, aber ich habe jetzt zwei Gruppen a vier Interfaces definiert (das mit den zwei Interfaces ist m. E. also nicht ganz korrekt).
    Wenn man den Interface Type auf Dynamic setzt, tauchen die Interfaces im LCAP Menü auf und man kann dort die Priorität einstellen.


    uwe


    P.S. ich bin bei dem Hersteller nicht ganz neutral - wollt's nur mal gesagt haben.

    server: yavdr trusty testing, 2 * L5420, 32GB, 64TB RAID6 an OctopusNet (DVBS2- 8 ) + minisatip@dsi400 (DVBS2- 4 )
    frontends: kodi und xine

  • hi,


    also ich bin da kein experte aber wenn du zwischen den server mit 4GBit kommunizieren willst wird das imho so nicht gehen
    so wie ich das verstehe müssen bei lacp die frames einer bestimmten mac adresse immer hintereinander übertragen werden was die parallel übertragung auf allen 4 leitungen ausschließt so das man die 4GBit nur beim zugriff mehrerer systemem in summe erreichen kann aber nie bei punkt zu punkt


    würde bedeuten du solltest eher nach einen switch mit 2 x 10 GBit und einigen 1GBit Ports schauen oder wenn die derser redundant angebunden sein sollen dann 4 x 10 GBit + 1GBit Ports

  • Dein Wissen ist korrekt.


    Zwischen den Servern geht nur 1Gb/s. Aber es stehen weiteren 3 Clients jeweils auch 1Gb/s zu (wenn man nicht gerade Plattenimages durch die Gegend schiebt ist das meist unwichtig).
    LCAP ist nur die Automatik hinter dem "alten" Trunking.


    Meine persoenliche Loesung waere eher ein 10Gb/s Medium direkt zwischen den beiden Servern zum Syncen (damit ist der Switch als Point-Of-Failure draussen).
    Ob allerdings der betriebfuehrende Server neben seinen aktuellen Aufgaben auch noch die 1GB/s aus den Platten lutschen kann?


    uwe

    server: yavdr trusty testing, 2 * L5420, 32GB, 64TB RAID6 an OctopusNet (DVBS2- 8 ) + minisatip@dsi400 (DVBS2- 4 )
    frontends: kodi und xine

  • IG88


    Das war wirklich eine gute Eingabe, endlich mal jemand der den Punkt sieht und benennt. Für mich ist Trunking eine Erhöhung der Verfügbarkeit denn der Performance, insofern würden 2 gebündelte Links ausreichen. Bei vielfach parallelen Zugriffen mit hohen Durchsatz kann es schon Vorteile haben. Aber nicht jeder Client transferiert ständig große Mengen von und zum Server, je nach Backup Konzept evtl. zu diesen Zeiten, der Normalbetrieb sieht eigentlich ganz anders aus. Im Falle des o.a. Server zu Server Transfers kann es tatsächlich sein das der 4er Bündel den Erwartungen nicht gerecht wird und 2 redundante dynamische Links das gleiche Ergebnis bringen würden.


    Das mit 10Gb/s ist evtl. auch nicht ganz so einfach, die Server brauchen entsprechende NICs, die es nicht für umme gibt, die Verkabelung muss auch passen etc.


    [edit] Und die Server sollten schon auch in der Lage sein die Performance von 10Gb/s zu verarbeiten ... [/edit]


    @umeier


    Naja, wir sind auf der gleichen Seite, nur habe ich keinen 1910, konnte daher nur auf die Specs zugreifen und die sagen halt max. 2 ...


    Regards
    fnu


    PS.: Die Diskussion bzgl. Trunking habe ich ständig im FibreChannel Bereich, da gilt im Prinzip das Gleiche, aber selbst nach der 5. Erklärung ignorieren die Kunden das oft immer noch ...

    HowTo: APT pinning

    The post was edited 1 time, last by fnu ().

  • Hallo und besten Dank für eure Antworten!


    Mir ist schon klar das ich mit LACP keine Erhöhung der Geschwindigkeit bei einzelnen Dateien erhalte. Das bleibt bei max. 1Gbit.


    Lassen wir mal den zweiten Server außen vor, der sollte ja letztlich eh nicht im gleichen Büro/Gebäude stehen und wird dann eh per Internetanbindung synchronisiert, oder per externer Platte oder wie auch immer. Momentan ist das nicht die wichtigste Baustelle.
    Ich muss einfach sicherstellen das ich mit dem zu kaufenden Switch, an den alle Workstations direkt mittels Gbit angeschlossen werden, das Maximale herausholen kann.


    Heute sind 6x6TB WD Red angekommen und ich bin sehr gespannt auf die Performance im Raid-Z2 unter freeNAS. Im Server steckt ein SM X9DR7-LN4F mit 2x XEON 6-Core E5-2620, 64GB ECC-Ram und evtl. noch eine SSD zur Beschleunigung von häufigen Zugriffen.
    Es sollten doch dann bei mehreren gleichzeitigen Zugriffen verschiedener User auch alle Verbindungen mit LACP genutzt werden - oder verstehe ich das noch immer nicht richtig? ;)


    Gruß!

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • Moin,


    Es sollten doch dann bei mehreren gleichzeitigen Zugriffen verschiedener User auch alle Verbindungen mit LACP genutzt werden - oder verstehe ich das noch immer nicht richtig? ;)


    jaja, das sollte schon passen. LACP macht per default source MAC basiertes round robin auf die einzelnen Member des Channels (oder Trunks oder wie auch immer man das auch nennen mag ;) ), und da deine Clients ja im gleichen Subnetz sind, wenn ich dich richtig verstehe, sollte das schon ordenlich verteilt werden. Es kann natürlich immer dumm laufen und zwei Clients mit hoher Durchsatzanforderung landen per Zufall auf dem gleichen Member. Dann ist das Pech, da kannst du nix machen.


    Ciao Louis

  • Es sollten doch dann bei mehreren gleichzeitigen Zugriffen verschiedener User auch alle Verbindungen mit LACP genutzt werden - oder verstehe ich das noch immer nicht richtig?

    Ja irgendwie schon, kommt aber auf das Zugriffsmuster an. Die Grundannahme ist ja, das jeder Zugriff mit Fullspeed 1Gb/s erfolgt, was eben nur bei großen sequentiellen Transfers der Realität entspricht. In der Regel sind bei einer geringen Zahl an Clients die Gb/s Zuleitungen erschreckend niedrig ausgelastet. Daher kann man auch immer gut einen deutlichen Over-Commit an Client-Ports gegenüber dem Backbone umsetzen (Core/Edge Topologie), dann sind wenigstens die Backbone Leitungen ihr Geld wert ... ^^


    Kleine Rechenaufgabe dazu, mein Backbone hier bei mir 1Gb/s, Core-Switch 8 Ports á 1Gb/s, in jedem Raum mit Ethernet Anschluß steht hängt auch ein 8-Port 1Gb/s Switch als "Fan-out/in". Ich habe noch kein einzigen Fall gehabt wo ein Client nicht den vollen Gb/s Speed bekommen hat, wenn notwendig. Mit Ausnahme von geplanten Backup-Zeiten, ist es eher Zufall das zwei Clients gleichzeitig vollen sequentiellen Transfer bekommen wollen. Und selbst wenn, bekommt jeder der Clients immer noch 50MB/s, also alles andere als langsam, bei 3 Clients 33,33MB/s, usw.


    Regards
    fnu

    HowTo: APT pinning

  • Nachdem nicht klar ist welcher Art die Daten auf dem Server sind ist das alles Spekulation.
    Aufgrund der Festplattengrößen schätze ich mal es geht nicht um ein paar Dokumente und PDFs sonder eher Bild- oder Videomaterial.


    Worüber ich nachdenke würde wäre of 24 Ports reichen?
    Server, Clients, Wlan Hotspot, ev noch ein paar für Besprechungsraum oder so. Da wird es schnell knapp.


    lg,
    Joe

  • fnu : im normalen "Office Betrieb" schnarcht ein Gigabit Netz wirklich nur so vor sich hin...da wäre ein solches Konstrukt ziemlich für die Füsse. Da würde ich lieber in zwei Switches investieren und den Server redundanztechnisch an beide Switches hängen. Handelt sich es dagegen um AutoCAD Clients oder werden riesige Dateien hin und her geschoben, dann kann das so schon Sinn machen.


    Ciao Louis

  • Ich sag mal so, unsere normalen durchschnittlichen Dateigrößen liegen irgendwo zwischen 200 bis 1500MB ;) - vorwiegend psd-files.
    Bei einer Anbindung per einzelnem 1Gbit-Kabel, so war das bisher, merkt man einen gemeinsamen Lese- oder Schreibvorgang von mehreren Rechnern sehr deutlich.
    Bisher wurde immer rumgebrüllt "Achtung, ich schreibe oder lese jetzt....;) "


    Bin auch schon bei der Überzeugung für ein 48-Port-Modell angekommen.....sonst wäre echt keine Reserve mehr vorhanden.

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • fnu : im normalen "Office Betrieb" schnarcht ein Gigabit Netz wirklich nur so vor sich hin...

    Hab ich was anderes gesagt?


    Handelt sich es dagegen um AutoCAD Clients oder werden riesige Dateien hin und her geschoben, dann kann das so schon Sinn machen.

    Selbst wenn, werden es wenige Clients nicht ständig und nicht so oft parallel tun, wenn doch sind 2x 50MB/s alles andere als langsam, die der Server auch erstmal liefern muss ... :P


    Bei einer Anbindung per einzelnem 1Gbit-Kabel, so war das bisher, merkt man einen gemeinsamen Lese- oder Schreibvorgang von mehreren Rechnern sehr deutlich.

    Hmm, sicher das nicht Euer Server in die Knie gegangen ist?


    Regards
    fnu

    HowTo: APT pinning

  • Quote

    Hmm, sicher das nicht Euer Server in die Knie gegangen ist?

    Denke schon. Transfer lief auf den Clients, aber gelesen wurde auf dem Server mit deutlichen Pausen.

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • hera


    Ok und was wurde geändert?

    HowTo: APT pinning

  • fnu : Was meinst Du jetzt? Es gibt jetzt demnächst einen richtigen Server, wie oben beschrieben, und ich will nun dafür sorgen das dieses Gerät eben möglichst gut ausgelastet werden kann.
    Es ist schon richtig das nicht den ganzen Tag parallele Zugriffe erfolgen, es wäre aber auch unschön wenn sich die aktuelle Situation nicht etwas verbessern lassen würde.


    Ich werde übers WE mal Tests mit dem neuen Gerät machen um die Leistung des Raid-Z2 zu prüfen. Es wäre schon toll wenn wenigstens 2-3 User gleichzeitig vollen Gbit-Speed bekommen könnten.
    Ich denke das sollten die Platten schaffen.

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • hera


    Achso, das ist die immer noch die aktuelle Situation ... Deine Äusserung:


    hera wrote:

    Bisher wurde immer rumgebrüllt "Achtung, ich schreibe oder lese jetzt....

    vermittelte den Eindruck, das ist bereits gelöst ...


    Klar, wenn man wissentlich regelmäßig Dateien mit bis 1,5GB überträgt, sollte man drauf reagieren. Da wäre durchaus der 10Gb/s Input auf Server Seite von weiter oben zu überdenken ...


    Regards
    fnu

    HowTo: APT pinning