Neues VSAN 6.2-Homelab

Seit 2008 beschäftige ich mich privat mit vSphere, was vor allem dem geschuldet ist, dass ich seit meiner Ausbildung zum Fachinformatiker als VMware-Administrator arbeite. Ihr kennt das sicherlich, als IT-affiner Mensch hat man zuhause gerne eine Spielwiese, die der auf der Arbeit ähnelt. 🙂

Die Hardware-Halbwertszeit ist sehr kurz und so stößt man vor allem bei der Virtualisierung immer schnell an die Grenzen von Arbeits- und Massenspeicher. So habe ich bisher circa alle zwei Jahre die Hardware ersetzt:

 

Jahre Server Hypervisor CPU RAM
2008-2010 HP ProLiant DL380 G3 ESX 3.5 2x Intel Xeon @ 3.2 Ghz 6 GB
2010-2011 HP ProLiant DL140 G1 ESXi 3.5 2x Intel Xeon @ 2.4 Ghz 4 GB
2011-2012 Eigenbau ESXi 4.1 Phenom X6 1090T @ 3.2 Ghz 16 GB
2012 HP ProLiant MicroServer G7 ESXi 5.0 AMD N36L @ 1.3 Ghz 8 GB
2013-2014 HP ProLiant MicroServer G7 ESXi 5.1/5.5 AMD N40L @ 1.5 Ghz 16 GB
2014-2016 Eigenbau ESXi 5.5/6.0 Intel Xeon E3-1230 @ 3.2 Ghz 32 GB

 

Nachdem ich vor knapp zwei Jahren das letzte große Upgrade durchgeführt habe, war dieses Jahr wieder neue Hardware fällig.

Aktuelle Lösung

Ist-Zustand

Ist-Zustand

Bei meiner letzten Lösung hatte ich NAS und Hypervisor in einem Setup vereint. Somit hatte ich NAS und VMs auf einem „Blech„, was die Stromkosten reduzierte. Bei früheren Setups hatte ich auch öffentliche DMZ-Workloads auf dem gleichen Server, der auch interne VMs hostete. Aus gesunder IT-Paranoia war das bei der kombinierten Lösung keine Option – ein Angreifer könnte ja theoretisch über die DMZ in den Hypervisor eindringen und über Umwege Zugriff auf das NAS erhalten. Zugegebenermaßen ein sehr theoretisches Risiko, aber es besteht dennoch. Als Folge dessen habe ich meine DMZ-Anwendugen auf dedizierte Raspberry Pis verlagert, die in einem dedizierten VLAN verweilen.

Das Problem bei meiner aktuellen Lösung ist, dass wieder die RAM-Resourcen erschöpft sind und der Datendurchsatz der SATA-Festplatten zu wünschen übrig lässt. Bei der damaligen Hardware-Auswahl hatte ich mich für ein Board entschieden, welches bis zu 32 GB Arbeitsspeicher verwalten kann. Bei der Speicheranbindung kam ein mittlerweile betagter HP SmartArray P400-Controller zum Einsatz.

Für VSAN-Testzwecke hatte ich mir zwischenzeitlich zwei HP ProLiant MicroServer G8 zugelegt und mit jeweils 16 GB Arbeitsspeicher und SSD-Speicher aufgerüstet.

Neue Lösung

Ich glaube ich habe keinen Artikel so oft vor der Veröffentlichung überarbeitet, wie diesen. Die letzten 6 Wochen habe ich bedauerlicherweise viel Hardware bestellen und wieder umtauschen müssen.

Seit der Ankündigung von vSphere 6 reizt mich der Einsatz von VSAN sehr. Hierfür benötigt man idealerweise zwei Hosts, um eine unterstützte Implementation aufzubauen. Einfach zwei SSDs in den Server zu verbauen ist problematisch, weil der P400 offiziell keine SSDs unterstützt – in diversen Foren wird von schlechter SSD-Performance gewarnt.

Zusammengefasst waren meine Anforderungen an die neue Hardware:

  • 64 GB-Speicherausbau, idealerweise DDR3-Sockel, um den bereits vorhandenen Arbeitsspeicher weiterhin nutzen zu können
  • IPMI-Remotesteuerung
  • Dual Gigabit Ethernet-Interfaces für Teaming

2-Node Cluster

Sinnvoll erschien es mir, den einzelnen Server durch zwei Knoten zu ersetzen. Das hat den Vorteil, dass ich VSAN in einer unterstützen Weise nutzen kann.

Zuerst hatte ich zwei ASRock Rack E3C224D4I-14S Mainboards bestellt. Mir war bisher unbekannt, dass ASRock auch Workstation- bzw. Server-Mainboards herstellt. Ich kannte den taiwanischen Hersteller nur aus dem Consumer-Segment und war insbesondere da nicht von der Produktqualität überzeugt. Optimistisch, aber dennoch mit Bedenken im Hinterkopf habe ich die beiden Mainboards bestellt – und meine Vermutung bestätigte sich leider. Eines der Mainboards erlag einem DOA (dead on arrival), das zweite Mainboard war nach einigen Tagen Dauerbetrieb nach einem Reboot nicht mehr benutzbar. Sehr dreist fand ich, dass bei einem der Boards die BIOS-Batterie von Werk aus leer war. Damit ist die Frage nach dem Hersteller ASRock für mich keine Frage mehr, die ich mir ernsthaft stellen werde – ich kann das oben genannte Produkt keineswegs empfehlen.

Anfänglich hatte ich versucht, mich am MiniITX-Formfaktor zu orientieren, hatte jedoch Pech mit zwei Gehäusen, die entgegen der Produktbeschreibung zu klein für die Mainboards waren. Letztendlich habe ich mich für das ASUS P9D-M entschieden, welches über den Intel C224-Chipsatz und zwei Intel i210AT Netzwerkkarten verfügt. Ich habe mich übrigens bewusst für den etwas älteren Sockel 1150 und nicht für die neueren Versionen 1151/1155 entschieden. Neuere Mainboards unterstützen zwar ebenfalls 32 oder sogar 64 GB Arbeitsspeicher, erfordern aber DDR4-Speicher und beim Einsatz von ECC-Speicher sogar Xeon-Prozessoren – was die Kosten wieder gesteigert hätte.

Damit die Stromkosten nicht unnötig steigen, habe ich besonderes Augenmerk auf stromsparende CPUs gelegt. Der Xeon E3-1230 des vorherigen Setups war, genau genommen, ziemlicher Overkill. Ich habe ihn nicht wirklich ausgelastet und bei einer Verlustleistung von 80 Watt war das vermutlich – trotz Energiesparmaßnahmen – nicht sonderlich effizient. Bei der CPU-Auswahl waren mir eine niedrige Verlustleistung sowie die Unterstützung von ECC-Speicher wichtig – die folgenden CPUs kamen in die engere Auswahl:

 

CPU Kerne Takt TDP Cache Bauzeit Preis
Xeon E3-1220v3 2/4 3,1 Ghz 80 Watt 8 MB Q2 13 230 €
Core i5-4570TE 2/4 2,7 Ghz 35 Watt 4 MB Q2 13 200 €
Core i3-4360T 2/4 3,2 Ghz 35 Watt 4 MB Q3 14 150 €
Core i3-4130 2/4 3,4 Ghz 54 Watt 3 MB Q3 13 140 €

 

Vergleich des Xeon, i5 und i3

Vergleich des Xeon, i5 und i3

Da ich zwei CPUs benötige, schied der Xeon aufgrund des hohen Preises und der hohen Verlustleistung aus – der i3-4130 schied wegen dem kleinen Cache von 3 MB aus. Auf cpubenchmark.net habe ich alle CPUs miteinander verglichen und überrascht festgestellt, dass der i5-4570TE im Benchmark schlechter als der i3-4360T abschneidet.

Letztendlich habe ich mich aufgrund der niedrigen Verlustleistung und des moderaten Caches für den i3-4360T entschieden – für knapp 150 Euro erhält man mit dieser CPU ein gesundes Preis-/Leistungsverhältnis.

Über Twitter bin ich auch auf William Lams neuestes Intel NUC VSAN-Setup aufmerksam geworden. Die Einplatinencomputer von Intel vereinen mittlerweile beachtliche CPU-Power bei niedrigem Stromverbrauch und bis zu 32 GB Arbeitsspeicher – wieso also nicht darauf setzen? Ganz einfach, sie bieten kein ECC, kein IPMI, keinen zweiten Netzwerk-Port und sind mit dem entsprechenden Arbeitsspeicher auch wieder recht teuer (ca. 650 Euro pro Node, ohne SSD). Eine andere Option wäre die Xeon D-1500 Produktpalette gewesen, von der mir Tschokko erzählt hat. Hierbei geht es um eingebettete Hardware, die über stromsparende aber dennoch leistungsfähige Xeon-Prozessoren und bis zu 128 GB DDR4-Speicher verfügt – sehr schön! Der Nachteil ist natürlich – welch Wunder – der Preis. Die meisten Boards verfügen noch nicht über Arbeitsspeicher und kosten dabei bereits weit über 1000 Euro. Mit entsprechendem Arbeitsspeicher knackt man also ohne Probleme die 2000 Euro-Grenze.

Nach einigen Tagen der Recherche habe ich mich letztendlich für die folgenden Komponenten entschieden:

 

Bauteil Produkt Preis Link
Mainboard ASUS P9D-M 165 € [klick mich!]
Prozessor Intel i3-4360T 150 € [klick mich!]
Arbeitsspeicher 32 GB DDR3 ECC Kingston ValueRAM
Cache-SSDs Samsung EVO 850 250 GB
Kapazität-SSDs OCZ Trion 150 480 GB 99 € eBay-Deal
Netzwerkkarten Mellanox Connect-X 2 Kit 60 € eBay
Lüfter LC-Power LC-CC-85 8 € [klick mich!]
Gehäuse Inter-Tech IPC 2U-2098 75 € [klick mich!]

 

Da Cache-SSDs und Arbeitsspeicher weiterverwendet werden können, beläuft sich die Summe auf knapp 1100 Euro. Die Festplatten des Hybrid-Setups habe ich durch zwei weitere SSDs ersetzt, die gerade im Angebot waren. Für die Verbindung der beiden Hosts habe ich noch 10 Gigabit-Ethernet Netzwerkkarten gekauft, damit VSAN ausreichend Bandbreite erhält.

Abzüglich der verkauften alten Komponenten also noch ein überschaubares Upgrade. Aber ich bin mir sicher, dass die 64 GB Arbeitsspeicher in einem Jahr schon wieder erschöpft sein dürften.. 🙂

Und das NAS? Was ist mit der DMZ?

Man kann nicht alles haben. 🙂 Alles auf einem Server zu betrieben ist sicherlich stromsparender, verringert aber auch die Flexibilität – was in diesem Fall die Hardware-Suche erschwert hat. Mit dem neuen Hardware-Upgrade gehe ich also wieder auf ein dediziertes NAS auf einem der verbleibenden Microserver zurück, was die CPU-Auswahl der neuen Server erleichtert hat. Bisher wurde das NAS virtualisiert betrieben – hierzu wurde ein dedizierter SAS-Controller per VMDirectPath I/O an die entsprechende VM angebunden. Dieses Feature benötigt zwingend das CPU-Feature VT-d (Intel Virtualization Technology for Directed I/O), welches i.d.R. nur bei Xeon-Prozessoren zur Verfügung steht. Die DMZ-Workloads habe ich wieder in virtuelle Maschinen verfrachtet, weswegen die Raspberry Pis obsolet sind.

Gegenüber der vorherigen Lösung laufen nun drei Server statt nur einer dauerhaft. Genau genommen, liefen bei der vorherigen Lösung aber auch drei Hosts – die Raspberry Pis waren ja immerhin für die DMZ zuständig. Aber – natürlich verbraucht eingebettete Hardware weniger als ein vollwertiger Server.. 🙂

Die einzelnen Server habe ich konfiguriert, um Strom zu sparen (ACPI C-, P-States, Festplatten-Standby).

Fotos

Anbei noch einige Fotos des Setups:

Sharing is caring


Tweet about this on TwitterShare on FacebookShare on Google+Share on LinkedInShare on XingShare on RedditPrint this pageEmail this to someone

4 Kommentare Schreibe einen Kommentar

  1. Pingback: Stankowic development – ASUS P9D-M, ASMB7-IKVM und die falschen vCenter-Alarme

  2. Pingback: Stankowic development – D-Link DGS-1510-28X – günstiger 10G-Switch

  3. Pingback: Stankowic development – Neues vSAN 6.6-Homelab

  4. Pingback: Stankowic development – Die Qual der Wahl: Neue Festplatten für das NAS

Schreibe einen Kommentar