Failover Cluster - Resource Monitors

Intensivkurs CLUSTER

Windows Server 2019 Failover Cluster & HGS Cluster + Azure Erweiterungen

Scale-Out File Server - Hyper-Converged Cluster - Storage Spaces Direct (S2D) - Host Guardian Service (HGS) - Shielded VMs - Azure File Sync Service

Der überarbeitete Failover Cluster 2019 Kurs bietet nicht nur die kompletten Features vom 2019 Clustering, sondern wird um drei Schwerpunkte erweitert:
1) Guarded Fabric (Kurzfassung)
2) Azure File Sync
3) Cluster SET

1) In einer Enterprise Umgebung, in welcher die geschützten Tier 0 VMs wie Domain Controller, PKI CA, ADFS Server etc. auf Hyper-V Server laufen, ist der Einsatz von hoch verfügbaren HGS Cluster (Host Guardian Service), Fallback HGS Cluster und Guarded Hosts bzw. Guarded Cluster um Shielded VMs zu verwalten, von größter Bedeutung, ja sogar pflicht. Durch den Schutz eines HGS Clusters kann eine mit BitLocker verschlüsselte Shielded VM nicht mehr einfach von einem Tier 1 Hyper-V Admin gestartet werden. Der notwendige Key Protector für die Shielded VM kommt vom HGS Key Protector Service, aber nur, wenn der Guarded Host sein Health Certificate dem HGS zeigen kann.
Bemerkung: In diesem Kurs reicht die Zeit (ca. 3/4 Tag) nur für eine Kurzfassung des komplexen Schwerpunkts HGS Clusters. Der Aufbau von HGS Cluster mit 3x DCs in einem eigenen AD Forest und Guarded Hosts werden im Kurs von zwei Trainern aufgebaut und den Kursteilnehmer genau erklärt. Jeder Teilnehmer kann dann eigene Shielded VM anlegen und konfigurieren. Die Kursunterlagen mit 4 Modulen sind jedoch komplett, sodass jeder Kursteilnehmer in der Lage ist seine eigene Guarded Fabric aufbauen zu können. Wer jedoch mehr in die HGS-Tiefe eintauchen möchte, bieten wir Anfang 2020 einen eigenständigen 3-Tage HGS Kurs an.

2) Zum ersten Mal erweitern wir den On-Premises Cluster File Service durch Azure File Sync um NTFS-Daten, wenn notwendig, weltweit auf mehreren Windows Servern verfügbar zu machen. Die NTFS Daten werden durch Azure File Sync via HTTPS (REST API) mit einer Azure File Share (Cloud Endpoint) synchronisiert. Benutzer können mit SMB 3.x Clients von überall auf ihre Daten zugreifen. Die Kombination von SMB File Share und Azure File Sync erweitert den File Service erheblich. Besonders die kleinen Branch Offices können ihre Daten (Server Endpoint) wie bei DFS-R über die zentrale Azure File Share (Cloud Endpoint) mit dem Headquarter und anderen Standorten synchronisieren. Wir kombinieren im Kurs Azure File Sync mit DFS-N um eine konsistente logische Sicht von SMB-Freigaben zu erreichen. Im Kurs werden NTFS-Verzeichnisse via Azure File Sync zwischen den File Server Clustern synchronisiert.

3) Die größte Erweiterung von 2019 Failover Cluster ist das Feature Cluster SET, welches nun erlaubt mehrere kleinere 2019 Hyper-V Cluster Building-Blocks zu einem sehr großen "losen" (Loosed Couple) Cluster Set zusammen zu schalten. Ein Cluster Building Block besteht aus eigenständigen Hyper-Converged Hyper-V Cluster mit je 4 Nodes und eigenem S2D. Das Ziel eines Cluster Sets ist sehr viele VMs zentral verwalten zu können, die gemeinsam die Ressourcen im Cluster Set nutzen. VM kann über Clustergrenze hinweg auf anderen Clusternode migriert werden. Ähnlich wie bei DFS-N kann eine VM im Cluster SET über einen übergeordneten Zugriffspunkt, den globalen Namespace Referral SOFS, auf einen oder mehrere Infrastructure SOFS mit gemeinsamen Root Namespace zugreifen.

Neben den "echten" physischen Windows 2019 Servern (Full und Server Core) wird der Schwerpunkt "Hyper-Converged Cluster" mit S2D (Storage Spaces Direct) gegenüber 2016 weiter ausgebaut. Ein Hyper-Converged Hyper-V Cluster nutzt lokale hochverfügbare S2D um ihre VMs auf demselben Cluster zu hosten. Ein "Compute Hyper-V Cluster" nutzt dagegen Remote Storage auf einem Scale-Out File Server Cluster, den wir im Kurs auch behandeln.

Bereits im 2016 Cluster Kurs haben wir S2D mit sehr schnellen 10 GBit RoCEv2 R-NIC (RDMA) Netzwerkkarten und SMB-Multichannel praktiziert. In diesem Kurs arbeiten wir auch mit 100 GBit iWARP RNIC. Durch die RDMA Unterstützung sowie Simplified SMB Multichannel + Multi-NICs kann ein hochperformanter Cluster mit nur 2x R-NICs (10 GBit/s) oder noch besser 2x 100 GBit/s RNIC aufgebaut werden. Jeder Cluster Node nutzt diese 2x 10 GBit R-NICs für alle Netzwerkaufgaben (ausgenommen iSCSI), die im selben Subnetz sein können. Für Hyper-V 2016/2019 Cluster wird SET (Switch Embedded Teaming) anstelle NIC-Teaming eingesetzt. Ein 2016/2019 SET kann bis zu 8x RNIC enthalten. Dadurch können Management Aufgaben wie Live Migration over SMB erheblich beschleunigt werden. Die VMs selbst, wenn korrekt konfiguriert, nutzen auch SMB Multichannel over RDMA . Mit 2016 und nun 2019 kann S2D (Storage Spaces Direct) als Software Defined SAN ohne teuere Hardware-SAN selbst aufgebaut werden. Wenn der Roundtrip unter 10 ms liegt, kann ein S2D sich auch über mehreren Clusternodes und Standorten erstrecken.

In diesem Kurs praktizieren wir auch das ESAE (Enhanced Security Administrative Environment) Modell, wobei die Clusternodes in Tier 1 von Tier 0 und 2 isoliert sind. Tier 0 Domänen Administratoren dürfen nicht mit ihren Accounts auf einen Tier 1 Cluster zugreifen und verwalten. Mehr dazu in den Kursen ASAI und ASAI-2.

ZIELGRUPPE
Das Seminar richtet sich an Serveradministratoren, Exchange-Administratoren, SQL-Administratoren, Bastion Forest Enterprise Administratoren und Support-Ingenieure.
Erfahrung mit Active Directory und gute Kenntnisse in Windows 20xx und Netzwerk sind von Vorteil, jedoch keine Bedingung.

NIVEAU
★★★★☆ — ziemlich anspruchsvoll

DAUER
  5 Tage

ORT
NT Systems Schulungszentrum Böblingen (Karte)

TERMINE

11.11. - 15.11.2019 noch Plätze frei

Zur Anmeldung

PREIS
4.250,- € zzgl. Mwst. – inkl. Mittagessen 15,- € / Tag

MINDEST-TEILNEHMERZAHL
Das Seminar findet ab einer Mindestzahl von drei Teilnehmern garantiert statt.

SCHULUNGSZEITEN
Am ersten Tag 09:00 - 17:00 Uhr
An Folgetagen 08:30 - 17:00 Uhr
Am letzten Tag (Freitag) 08:30 - 13:00 Uhr

ZERTIFIKAT
Nach erfolgreicher Teilnahme erhalten die Kursteilnehmer ein Zertifikat von NT Systems.


AUSFÜHRLICHE INFORMATIONEN

Im Folgenden finden besonders interessierte Leser ausführliche Informationen zu den im Kurs behandelten Themen.

Hier sind die Highlights von unserem 2019 Failover Cluster Kurs:

Die meisten Enterprise Firmen haben bereits 2016 Failover Cluster im Einsatz. Sie können ihre 2016 Cluster nun durch das Feature "Rolling Cluster Upgrade" (Optional im Kurs) zu 2019 Cluster migrieren. Der ClusterFunctionalLevel befindet sich in dem Übergang zuerst in "Mixed Mode" (Level 9) und wird auf Native-Node (Level 10) umgeschaltet, wenn alle Nodes 2019 sind.

Damit ein Failover Cluster sein Quorum (Mehrheit) bekommt, sind mind. 3 Stimmen (Votes) notwendig. Der Cluster soll daher optimalerweise auf 3 Lokationen verteilt sein. Mit dem Feature "Cloud Witness" kann man für sehr geringe Kosten eine weitere Clusterstimme (Vote) in der Azure Cloud anlegen. Die "On-Premises" Clusternodes kommunizieren mit dem Cloud Witness über HTTPS, da eine Cloud Witness als "Blob Storage" via URL erreicht werden kann. Auch ein File Share Witness (FSW) in der Azure Cloud kann ab 2012 R2 Cluster konfiguriert werden, dafür ist aber eine IPSec-Verbindung via Site-To-Site VPN-Gateways und eine Platzierung von einem Domain Controller in der Azure Site notwendig. Diese Lösung ist daher nicht unbedingt praktikabel.

Absolutes Highlight von 2016 und nun auch bei 2019 Clusters sind die Features Storage Spaces Direct (S2D) und Storage Replication (SR), die das Protokoll SMB 3.1.1 für den Transport der Blockdaten über den Software Storage Bus (SSB) nutzen. S2D kann teure SAN weitgehend ersetzen, wenn die dafür benötigte Netzwerkbandbreite und RDMA-Netzwerkkarten zur Verfügung stehen. Ab 2016 Cluster kann mit SR für traditionelle File Server Cluster über zwei Standorte verteilt werden (Stretch-Cluster). Erst mit 2019 Cluster kann mehere S2D über mehrere Standorte mit ClusterSet einsetzen. Storage Spaces Direct nutzt die lokalen HDDs, SSDs und RAM (SATA, SAS, NVMe, SCM) der Clusternodes, um daraus einen gemeinsamen Storage Pool zu bilden. Virtual Disks (Storage Spaces) können aus dem Storage Pool als RAID1, RAID5, RAID10, etc. heraus "geschnitten" werden. Die Storage Spaces sind bei mindesten 2 Clusternodes hochverfügbar.

Ein weiteres Feature für Disaster Recovery ist Storage Replication (SR). Mit SR werden Platteninhalte in Block Mode von Server-To-Server oder Cluster-To-Cluster oder ein Mix davon von Quelle zum Ziel via den SSB synchron oder asynchron repliziert. Bei Ausfall der Quellplatte wird die Kopie automatisch bzw. manuell aktiviert. Somit ist es möglich eine hohe Datenverfügbarkeit in einer Umgebung, in welcher Storage Space Direct nicht möglich ist (zu hohe Latenzzeit), zu gewährleisten.

S2D und SR nutzen das erweiterte SMB 3.1.1 Protokoll, welches nun als Grundlage für viele Datentransporte und Anwendungen eingesetzt wird (Live Migration, CSV, Multi-Channel etc.). In Kombination mit 10 Gbit/s RDMA fähigen Netzwerkkarten und ab der Treiberversion NDIS 6.60 sorgt SMB 3.1.1 dafür, dass High Speed Networking möglich ist. Durch RDMA werden Applikationsdaten (User Mode), ohne im Betriebssystem (Kernel) zwischenzupuffern, direkt über das Netzwerk zur Zielapplikation transportiert. RDMA setzt ein "losless" Netzwerk mit "hoher Bandbreite" (High Bandwidth) und "niedrige Latenzzeit" (Low Latency) voraus. Damit dies über das ETHERNET auch möglich ist, müssen sowohl das Betriebssystem, die Netzwerkkarten als auch die beteiligten Switche QoS-fähig (Quality of Service) und auch DCB-fähig (Data Center Bridging) sein. Mit QoS Policies kann man dem SMB Direct (RDMA = NetDirect) hohe Priorität (PFC = Priority Flow Control) und Bandbreite (ETS = Enhanced Transmission Selection) zuweisen. Der RDMA Durchsatz ist erheblich höher als ohne RDMA und liegt bei 10 Gbit-NIC über 1 bis 2 GByte/s. Daher ist ein RDMA fähiges 10 Gbit/s-Netzwerk in einer High Speed Serverumgebung für alle Arten des SMB Transports Pflicht! SMB Direct ist SMB over RDMA, Storage Spaces Direct ist Storage Spaces over RDMA. Es sieht im Moment so aus, dass iWARP (Internet Wide Area RDMA Protocol) sich gegenüber Infiniband und RoCEv2 durchsetzen wird. Wir setzen im Kurs bereits die neuesten 10 GBit R-NIC ein, die RoCEv2, QoS, DCB, DCBx und die Network Overlay Protokolle NVGRE und VXLAN unterstützen.

Der seit 2012 verfügbare Scale-Out File Server (SOFS) bekommt in 2016 und nochmal in 2019 Failover Cluster durch SMB 3.1.1 und Storage Spaces Direct noch mehr Gewicht. Er bildet das Herzstück des Microsoft SDS (Software Defined Storage) Konzepts in 2019 sogar SDDC (Software Defined Data Center). Anwendungen wie Hyper-V oder SQL können ihre VHDX bzw. Datenbanken via SMB Direct (SMB over RDMA) über das Ethernet auf einem hochverfügbaren SOFS mit "preiswerten" lokalen Festplatten speichern. Die SAN Abhängigkeit enfällt. In Kombination mit SMB 3.1.1. Multichannel und RDMA wird File Service in eine noch nie da gewesene Performance katapultiert. Für den Zugriff auf einen "traditionellen" File Server Cluster profitieren SMB 3.x Clients (Windows 8 und neuer) gegenüber "legacy" SMB Clients (Windows 7 und älter) von der Funktionalität des SMB 3.x Transparent Failovers.

In einer Enterprise Umgebung soll ein Hyper-V Host bzw. Cluster von der Datenspeicherung getrennt sein. Ein "Converged" (Compute) Hyper-V speichert seine VMs nicht lokal, sondern via SMB 3.1.1 auf einem Scale-Out File Server Cluster (SOFS), der auch als Speicherort für SQL 2016/2017 Server dienen kann. Für die Virtualisierung mit Hyper-V bringt ab 2016 einige Features mit, wie die sog. VM Start Order, welche durch die Festlegung der Abhängigkeit von anderen VMs definiert wird. VMs gleicher Funktionalität wie z.B. Domain Controller werden einem Cluster Group Set zugewiesen. Anwendungs-VMs in einem anderen Cluster Group Set können nur gestartet werden, wenn die DCs bereits gestartet sind. Mit 2019 wurden die Cluster Sets eingeführt, die Ressourcen in unterschiedlichen Clustern zusammenfassen können.

Ein ganz neues Fehlertoleranz-Konzept ab 2016 Cluster ist die sog. Fault Domain, welches bereits in Azure praktiziert wird. Ein Single-Point of Failure soll innerhalb eines Clusters dadurch unbedingt vermieden werden. Die Clusternodes sollen nicht alle in einer Site platziert werden, sie sollen auch nicht gemeinsam in einem Rack und Chassis aufgebaut werden. Die Top-Down Fault Domain Struktur besteht aus 4 Ebenen Site Rack Chassis Node, die für manche Features wie S2D und SR die Voraussetzung ist. Das bedeutet, dass ein Failover (Failover Affinity) vorzugsweise auf einen anderen Node in derselben Site (Fault Domain) vollzogen wird, wenn diese Site mind. 2 Nodes besitzt und als Fault Domain festgelegt wurde. Durch die Storage Affinity bevorzugt eine VM bei einem Ausfall des Hyper-V Hosts ein Clusternode in derselben Site. Site Fault Domain wird auch bei der Auswahl eines neuen CSV Coordinators angewandt. Neben SameSubnet und CrossSubnet bringt ab 2016 Cluster zusammen mit Site Fault Domain das Cross-Site Heartbeating. Man kann nun das Threshold für Heartbeats zwischen den Sites auf Clusterebene festlegen, das Vorrang vor SameSubnet und CrossSubnet hat, auch wenn die Site Fault Domains im selben IP-Subnet sein können » Site Fault Domain kann mit AD Site oder auch ohne arbeiten.

Verwandt, jedoch nicht gleichzusetzen mit Site Fault Domain ist die Möglichkeit, clusterweit eine Preferred Site für Dynamic Quorum zu definieren. Wenn das Netzwerk zwischen zwei Datacentern mit je 3 Nodes ausfällt, wird automatisch das Quorum so justiert, dass eine Preferred Site eine Stimme mehr als die andere Site hat.

Mit dem Feature Failover Cluster Node Fairness für Hyper-V kann über den Parameter AutoBalancerLevel (Low, Medium, High) auf Clusterebene festgelegt werden, wie aggressiv die automatische Lastverteilung der VMs auf Hyper-V Clusternode ist. Standardmäßig (=Low) werden VMs auf andere Clusternodes erst verschoben, wenn die CPU und Memory Nutzung 80% auf dem Hyper-V Host überschritten wurde.

Damit die Verwirrung perfekt ist, gibt es ab 2016 Failover Cluster das Feature Virtual Machine Compute Resiliency, mit dem das Verhalten von Hyper-V Hosts bei einem Fehler und somit auch die verbleibenden VMs gesteuert werden kann. Drei States (Stati) bestimmen den Zustand von VM und Host: Unmonitored State für die VM, Isolated und Quarantine State für den Hyper-V Host. Ein Host landet in der Quarantäne, wenn er z.B. dreimal innerhalb einer Stunde den Cluster unsauber (z.B. Heartbeat Threshold überschritten) verlässt. In diesem Fall werden seine VMs auf andere Clusternodes verschoben. Natürlich kann dies auch mit Fault Domains kombiniert werden!

» Mehr zu SMB 3.1.1 siehe Kurs Windows Server 2019/2016 Administration.

WEITERE THEMEN :
Weitere Themen des 2019 Kurses sind:

- Cluster Administration, Paxos & Quorum Set Replication
- File Server Cluster (Traditionell)
- HOME$ und Data Deduplication
- CSV (Cluster Share Volume) Kommunikation, CSV Cache
- Multi-Node Cluster
- Failover Strategien
- Logging & Troubleshooting
- ESAE (Enhanced Security Administrative Environment)
- HGS (Host Guardian Service)
- Erweiterung des On-Premises File Services durch Azure File Sync

Sie lernen im Kurs die Microsofts "patentierte" Clustertechnologie mit Paxos und Quorum Set Replication Algorithmus für Distributed Systems kennen, die seit 2008 Cluster zum Einsatz kommt und erweitert wurde. Im Gegensatz zu "Single Quorum" von Windows 2003 Cluster arbeitet ein Failover Cluster ab 2008 mit dem neuen Hybrid-Quorum nach dem Multimaster Prinzip. Selbst bei einer defekten Quorum-Disk arbeitet ein 2-Node Cluster stabil weiter. Das Quorum Modell wird mit Windows 2012 Failover Cluster um Dynamic Quorum erweitert. Dynamic Quorum sorgt dafür, dass ein ordentlich heruntergefahrener Clusternode DynamicWeight=0 bekommt, sodass die Quorum-Bildung sogar für kurze Zeit mit einem einzigen Clusternode auch ohne Forcequorum möglich ist. Ja, es ist sogar möglich, dass ein 2012 Failover Cluster mit weniger als 50% Stimmen immer noch arbeiten kann. Unabhängig von Dynamic Quorum kann man jedem Clusternode NodeWeight=0 zuweisen, wenn dessen Stimme nicht zur Quorum-Bildung beitragen soll. Der File Share Witness wird nun durch die neue Cloud Witness (2016) ergänzt, welche auch mit PowerShell konfiguriert werden kann.

Wir praktizieren im Kurs den neuen Hyper-V Cluster (Full und Core) mit dem SET (Switch Embedded Teaming), der aus bis zu 8 R-NIC gebildet werden kann. Als "Compute" oder "Hyper-Converged" Hyper-V Cluster werden die VMs mit CPU, Memory, Netzwerk und Speicher versorgt. Die Speicherung der VHDX und Konfigurationsdaten erfolgt über SMB 3.1.1 auf einem neuen 2019 Instrastructure SOFS (Scale-Out File Server), welcher mit je 2x 10 GBit per Node auch SMB Multichannel fähig ist. Als gemeinsamer Speicher wird S2D eingesetzt, wobei jeder Clusternode mehrere lokale Festplatten für den Storage Pool mitbringt.

Die Verwaltung eines 2019 Failover Clusters wird mehr und mehr mit PowerShell durchgeführt. Wenn Core Server eingesetzt werden, kann man nur noch mit der PowerShell verwalten. Ab dem PowerShell Modul 2016 gibt es viele Neuigkeiten, z.B. der Validationstest Test-Cluster kann u.a. die Storage Spaces Direct Funktionalität eines Clusters überprüfen. PowerShell Direct arbeitet mit Named Pipe (anstelle TCP/IP) und sorgt dafür, dass die Administration der VMs direkt vom Hyper-V Host aus auch ohne Netzwerk möglich ist.

Bemerkung: Wir setzen in einem Windows Server 2019 Kurs 10 GBit Server-Netzwerkkarten mit BASE-T oder SFP+ Glasfaser Anschluss für JEDEN Arbeitsplatz ein. Mehrere 10 GBit-Switches stehen zur Verfügung. Somit ist es möglich die neuen SMB 3.1.1. Multichannel, DCBQoS, RDMA und SET zu praktizieren.
Für einen Demo-Cluster setzen wir 100 GBit iWARP RNICs für S2D ein.
Auch in diesem Kurs praktizieren wir ein wenig ESAE (Enhanced Security Administrative Environment). Die Clusternodes gehören zu Tier 1. Sie dürfen nicht von T0 Domänen Administratoren verwaltet werden.

» Wir empfehlen allen Clusteradministratoren auch unseren Kurs PowerServer I für Windows Server 2019 zu besuchen.

HGS (Host Guardian Service) Cluster im eigenem AD Forest
HGS (Host Guardian Service) Cluster im eigenem AD Forest

S2D - Storage Space Direct für SOFS (Scale-Out File Server Cluster)
S2D - Storage Space Direct für SOFS (Scale-Out File Server Cluster)

4-Nodes Scale-Out File Server mit je lokalen HDDs, SSDs (SATA) und NVMe SSD
4-Nodes Scale-Out File Server mit je lokalen HDDs, SSDs (SATA) und NVMe SSD

Failover Cluster - Resource Monitors
Failover Cluster - Resource Monitors

Failover Cluster 2016 - Cloud Witness - File Share Witness
Failover Cluster 2016 - Cloud Witness - File Share Witness

Hinweis: Bitte bringen Sie zum Kurs Ihre Evaluation DVD oder ISO mit, wenn Sie eine spezielle Sprachversion wie z.B. " Französisch" wünschen. Wir dürfen keine Volume License für Kurse nutzen!

- Vertrauen Sie unserer Kompetenz -