Hilfe bei Auswahl 24-Port-Switch für Firma

  • Hmmm...diese 10Gbit....ich weiß ja nicht....glaube ich verstehe da irgendwas falsch.


    Meine Gedanken:


    1. Der Server wird wahrscheinlich, vorsicht - meine aktuelle persönliche Meinung OHNE reale Tests, irgendwas um die 250-300MB pro Sekunde liefern können.
    2. Das sollte reichen um bei großen Dateien mind. 2-3 User zu bedienen - mehr werden wohl wirklich nicht zeitgleich zugreifen.
    3. Der Backup-Server wird irgendwo außerhalb stehen und eher per VDSL abgeglichen werden. Dafür sollte der Speed vom Ersten auch ausreichen.
    4. Die einzelnen Workstations haben nur Gbit-Adapter verbaut.


    Dann brauch ich doch eigentlich nirgends diese 10GBit-Anbindung, oder steh ich auf dem berühmten Schlauch?
    Das würde ja auch die Kosten nicht unerheblich in die Höhe schnellen lassen.


    Bin dankbar für alle weiteren Informationen, Meinungen und Erfahrungen.


    Danke Euch!


    ps: was bisher auch immer elendig lange dauert ist das schlichte Anzeigen von Verzeichnisinhalten mit vielen Verzeichnissen/Dateien - woran kann das liegen?
    Ihr merk es sicherlich, ich bin kein Netzwerkspezi :D :D

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

    Einmal editiert, zuletzt von hera ()

  • Dann brauch och doch eigentlich nirgends diese 10GBit-Anbindung, oder steh ich auf dem berühmten Schlauch?

    Nun der Vorteil hier ist, Du musst Dich nicht auf das Traffic-Shaping von LACP verlassen, sondern hast schlicht eine dicke Leitung auf den Server, für eine erhöhte Parallelität der Clients, die nachwievor nur mit 1Gb/s arbeiten. Macht halt nur Sinn wenn der Server auch ausreichend IO Leistung hat, die er aber auch für 1Gb/s benötigt bzw. 4x parallel. Eine ARM CPU ist hier denkbar schlechte Wahl, ein Silvermont/BayTrail Atom ist ausreichend für 1x 1Gb/s, mehr habe ich bisher nicht getestet, Deine 2x Xeon hören sich gut an.


    Verzeichnisinhalten mit vielen Verzeichnissen/Dateien - woran kann das liegen?

    Wenn Du schon ein Gb/s Netzwerk hast, ist das sicher ein Server Thema, CPU, Memory und IO im allgemeinen.


    Regards
    fnu

    HowTo: APT pinning

  • Ja, da sind die aktuellen stromspar-i3 mit ihren 16GB Ram bei einem netto je 12TB-Raid-Z2 wahrscheinlich unter freeNAS an ihren Grenzen.


    Staune sowieso das die Dinger (stink normale PC-Hardware) schon fast 2 Jahre non-stop durchhalten. Lediglich 2-3 Platten mußte ich ersetzen ( die WD-Green ) bevor ich auf die Red gekommen bin.
    Nun ist seit Monaten Ruhe ;)

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • freeNAS an ihren Grenzen.

    Auch das OS könnte der Grund sein. Hab's selbst nie getestet, aber mit denen ich direkt über deren Erfahrungen gesprochen habe sagen, freeNAS wäre wohl "kein Geschwindigkeitswunder" ...


    Regards
    fnu

    HowTo: APT pinning

  • Abwarten, der Vergleich mit deutlich besserer Hardware wird da hoffentlich für weitere Erkenntnisse sorgen.
    Ich glaube eigentlich nicht das ein freeNAS das neue System zu bisherigen "Leistungen" ausbremsen kann.


    Wir werden sehen und ich werde Euch berichten.


    Gruß!


    edit: Das ZFS selbst braucht ja eigentlich schon enorme Resourcen um überhaupt richtig in die Gänge zu kommen. Ich denke das es bei vielen Nutzern eher daran hapert.
    Also viel viel RAM, UPS, und CPU-Leistung...ich hoffe das kommt jetzt bei uns auf der neuen Hardware erst so richtig ins rennen...;)


    Bisher hat das Einlesen der Dateistruktur mittels freefilesync über das Gbit-Netz locker 45-60 Minuten gedauert - nur das Einlesen, da wurde noch keine Datei kopiert!

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • Heute sind 6x6TB WD Red angekommen und ich bin sehr gespannt auf die Performance im Raid-Z2 unter freeNAS. Im Server steckt ein SM X9DR7-LN4F mit 2x XEON 6-Core E5-2620, 64GB ECC-Ram und evtl. noch eine SSD zur Beschleunigung von häufigen Zugriffen.


    Wenn das nicht reicht, dann weiß ich auch nicht. Die Daten landen erstmal im Cache. RAM Hast Du genug. Die LSI 2308 ist nichts besonders toll, wird aber nicht viel machen müssen, wenn Raid-Z2 (ähnlich wie RAID 6) gefahren wird. CPU Leistung ist auch vorhanden. Mit Gbit hast Du 1,5 TB in 12-13 Sekunden los.


    10 Gbit ist eine tolle Sache, benutzen wir zwischen Serverräumen beim Clustern. Da muss auch das RAM synchronisiert werden. ;)


    Albert

  • Ja, das wird bei Servern oft unterschätzt, das Services einfach auch Leistung benötigen sollte das eine gute "Schwuppdizität" haben ... :)


    Performance Probleme sind in der Regel eine End-to-End Probleme, die Infrastruktur dazwischen extrem selten, also wenn man es total vergeigt hat oder ein Defekt vorliegt.


    Ein ausgelastetes Gb/s Netzwerk ist z.B. kein Performance Problem, sondern ein Planungs-/Sizing-Problem ... ;D


    Regards
    fnu

    HowTo: APT pinning

  • ;) Daumen drücken! Ich gebe Euch Feedback wie es hier läuft.


    Danke!


    Tante edit1:
    fnu: Der hat bei mir jetzt etwas länger gebraucht mit dem Gbit-Netzwerk.......hab ja schon nen Wochenend-Bier weg....... ;)


    Tante edit2:
    Aber wißt Ihr was? Ich finde das einfach nur GEIL wie einem hier geholfen wird!!!!!!! Da kann man in diversen Foren von HP und Co. oder sonstigen ausgewiesenen Netzwerk-Foren noch so viele Anfragen posten - nix passiert.
    Dafür liebe ich einfach seit Jahren die vdr-Community!!!!

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • Aber wißt Ihr was? Ich finde das einfach nur GEIL wie einem hier geholfen wird!!!!!!! Da kann man in diversen Foren von HP und Co. oder sonstigen ausgewiesenen Netzwerk-Foren noch so viele Anfragen posten - nix passiert.


    Es ist einfach logisch. Wer VDR nicht nur betreibt, sondern sich hier fit hält, der ist oft vom Beruf IT. Viele sind zusätzlich in anderen Foren unterwegs, also tagesgenau informiert. Die Hauptberufler haben ihre Teilgebiete aller Art der IT, sind Praxiserprobt und geschult.


    Ich stehle mal ein Zitat des Dalai Lama, welches mir sehr gefällt:


    „Teile Dein Wissen, so erlangst Du Unsterblichkeit!“


    Albert

  • ATD:
    Das merkt man sehr deutlich! Und dank Usern wie Euch bin sogar ich, als kleiner vdr-User, zumindest auf dem Weg zur Unsterblichkeit. :wow :wow
    Danke nochmals für jeglichen Input!!

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • Hallo!


    Ich habe jetzt mal mit einem Raid-Z2 ohne Kompression rumgetestet.


    Mit einem

    Code
    dd if=/dev/zero of=/mnt/test/testfile bs=1m count=150000


    komme ich auf ca. 580MB/sec.


    Nun bin ich mir nicht sicher wie aussagekräftig dieser Test ist. Experimente mit iozone scheitern leider ständig an einer tmp-Datei die angeblich nicht angelegt werden kann.
    Und das obwohl ich als root und an allen möglichen Stellen versucht habe das auszuführen.


    Habt Ihr einen Vorschlag für einen aussagekräftigen Test auf einem frischen Volume?


    Wie würdet Ihr die lokale Performance des Systems testen?


    Gruß!

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • Ja, "dd" ist mit seiner "single queue" kein adäquater Benchmark für gar nix.


    In der Vergangenheit hat sich "iozone" für derlei Tests immer gut bewährt, weil aufgrund seines ANSII C source einfach auf allen möglichen Plattformen baubar.


    Regards
    fnu

    HowTo: APT pinning

  • So, ich hab die Kiste heute mal etwas rumackern lassen ohne allerdings genau zu wissen welche Schalter bei iozone besonders interessant oder nützlich sind.
    Den verwendeten Aufruf könnt Ihr im ersten Bild unter "command line...." sehen. Hab dann nach knapp 10h abgebrochen.


    Nun wäre ich sehr erfreut wenn mir Jemand sagen könnte wie das nun aussieht oder aber welche genutzten Optionen evtl. totaler Quatsch sind und welche man vielleicht besser nutzen sollte.
    Ich habe diesen beispielhaften Aufruf im Netz gefunden und nur die Größe der 6 genutzten Dateien auf 15GB hochgesetzt weil das System ja 64GB Ram hat.


    Bin jetzt wieder für jede Beurteilung oder Tip's für weitere Test's sehr dankbar :D


    Gruß!


    Bild 1:
    [Blockierte Grafik: http://s7.directupload.net/images/140923/temp/7q3p7u54.jpg]


    Bild 2:
    [Blockierte Grafik: http://s14.directupload.net/images/140923/temp/bt3yr87k.jpg]

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • Hallo!


    Kann das hier echt Niemand halbwegs einschätzen?


    Ich bin da, wie schon weiter oben geschrieben, nicht unbedingt der Fachman um diese Ergebnisse
    werten zu können.


    Würde mich über Eure Meinungen freuen.


    Gruß!

    easyVDR 3.0 stable, Gigabyte GA-Z87M-D3H, Intel Core i3-4130, 16 GB, Nvidia GT 630 Rev. 2, Samsung 840EVO 120GB SSD System, 16TB-NAS als zentraler Speicherplatz (Raid-Z2), DD Cine S2 v6.5 Dual DVB-S2, Antec Fusion V2 Silver

  • Eigentlich kommt es wirklich drauf an, was Du spaeter fuer Services zur Verfuegung stellen willst und mit welchen Protokollen Du das machst.


    So ist fuer die DB Jungs zum Beispiel orion ein tolles Tool (iops sind bei denen z.B. wichtig).
    Wenn Du riesige Datenmengen en block transferieren willst hilft zum Beispiel jumbo frames zu verwenden.


    Wenn Du eh nur per SMB Daten hin und her schiebst ist das alles Makulatur, weil das einen wahnsinnigen Overhead hat.


    Im ersten Schritt wuerde ich es drauf ankommen lassen: die Welt kostet ein Switch nicht (selbst einen 48er kann man immer mal wieder brauchen).
    Ausserdem werden die 10G Devices mit jedem Monat guenstiger.


    Das bedingt allerdings eine geeignete Infrastruktur (Stecker kann man z.B. auch aufruesten, die Kabel nicht so einfach).


    uwe

    server: yavdr trusty testing, 2 * L5420, 32GB, 64TB RAID6 an OctopusNet (DVBS2- 8 ) + minisatip@dsi400 (DVBS2- 4 )
    frontends: kodi und xine

  • hallo,


    ich will hier mal in bezug auf NIC teaming und es geht nicht mehr pro einzel system als der speed von einem port ein wenig zurückrudern
    unter bestimmten umständen geht das wohl schon


    als verfahren wird round robin verwendet und entweder werden die die 2 bis x nic ports direkt mit dem 2. sytem verbunden (etwas unpraktisch und bei mehr als 2 beteiligten nich möglich) oder man nimmt einzelne switches und verbindet jeweils nic1 aller systeme mit switch1, nic2 von allen mit switch2 usw.
    dann sollen sich auch bei einem einzel rechner transfer die nic's in der leistung summieren (nicht zu 100%, es wird wohl etwas verlust geben)
    werde das mit meinem neuen schnelleren NAS in nächster zeit mal testen, bond-mode=0, das ist dann round robin
    die 10Gbit nic's werden zwar billiger aber der billigste 8 port switch ist mit min. 600€ auch nicht grade billig, bis sich das für zu hause lohnt wirde das wohl noch dauern

  • zum Thema iozone : kann mir helfen wie ich eine XLS Datei zur grafischen Ausgabe erstelle ? hab da Grad nen Brett vorm Kopf


    Edit : habs mit gnuplot hinbekommen ;)


    http://speefak.spdns.de/oss_li…hmarks-systemperformance/


    Server : Debian 10 + VDR 2.4.0 on | HP Gen8 Microserver X1265L | 16 GB EEC DDR 1600 | 1 x EVO 860 Pro 500 GB, 2x6TB HGST, 1x10 TB HGST | TBS 6981
    Client : Debian 11 + Kodi 19 (deb.multimedia Quellen) on | Intel DH77EB | i3 2100T | 16 GB 1600 DDR3 | GF GT 520 | 1 x 850 EVO 500 GB | BQ 300W L7 | X10 Remote | in Zalman HD 160 | Sedu Ambilight |
    Client : Debian 10 + Kodi 19 (deb.multimedia Quellen) on | Asus Z87 Pro | I5 4660 | 16 GB 1600 DDR3 | GF GTX770 | 1 x 850 EVO 500 GB | BQ 450 W L8 | in Chieftech CS 601 |
    Client : Debian 10 + Kodi 19 (deb.multimedia Quellen) on | Lenovo T430 |


    Websites | speefak.spdns.de | www.itoss.org | cc-trade.info | www.bike2change.de | www.x-woodart.de |

    2 Mal editiert, zuletzt von speefak ()

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!