Failover Cluster - Resource Monitors

Intensivkurs CLUSTER

Aufbau & Administration von Windows 2016 Failover Cluster

Rolling Cluster Upgrade - Scale-Out File Server - Storage Spaces Direct (S2D) - Storage Replication (SR) - SQL Server 2016 AlwaysOn - RDMA - ESAE Infrastruktur

Dieser anspruchsvolle, hardwarenahe Powerkurs gibt den Server-Administratoren einen tiefen Einblick in Windows 2016 Failover Clustering.
Durch die RDMA Unterstützung und DCBQoS sowie Simplified SMB Multichannel + Multi-NICs kann ein hochperformanter Cluster mit nur 2x R-NICs (10 GBit/s) aufgebaut werden. Mehrere Netzwerkkarten von allen Clusternodes können nun im selben Subnet konfiguriert werden. Routing und damit Verzögerung wird dadurch vermieden.
Die Konfiguration ist weitaus einfacher als bei den vorherigen 2012 R2 und 2008 R2 Clustern. Jeder Cluster Node hat nur 2x R-NICs für alle Netzwerkaufgaben!
Für Hyper-V Cluster wird SET (Switch Embedded Teaming), aus bis zu 8 R-NICs (RDMA NIC), anstelle NIC-Teaming eingesetzt. VM kann dadurch hohe Bandbreite erzielen.
Mit 2016 Cluster kommt S2D (Storage Spaces Direct) als Software Defined SAN zum Einsatz, mit dem es möglich ist, einen Scale-Out-File Server (SOFS) Cluster auf mehrere Datacenter zu verteilen. Compute Hyper-V und SQL 2016 Server können ihre Daten (VHDX, DB) über ein schnelles RDMA-Ethernet (RoCEv2) auf SOFS speichern.
In diesem Kurs praktizieren wir auch das ESAE (Enhanced Security Administrative Environment) Modell, wobei die Clusternodes in Tier 1 von Tier 0 und 2 isoliert sind. Tier 0 Domänen Administratoren dürfen nicht mit ihren Accounts einen Tier 1 Cluster zugreifen und verwalten.
Mehr zu ESAE besuchen Sie unseren Kurs ASAI (Advanced Security AD Infrastructure)

ZIELGRUPPE
Das Seminar richtet sich an Serveradministratoren, SQL-Datenbankadministratoren, Exchange-Administratoren und Support-Ingenieure.
Erfahrung mit Active Directory und gute Kenntnisse in Windows 20xx und Netzwerk sind von Vorteil, jedoch keine Bedingung.

NIVEAU
★★★★☆ — ziemlich anspruchsvoll

DAUER
5 Tage

ORT
NT Systems Schulungszentrum Böblingen (Karte)

TERMINE

27.11. - 01.12.2017 noch Plätze frei
19.02. - 23.02.2018 noch Plätze frei
23.04. - 27.04.2018 noch Plätze frei
02.07. - 06.07.2018 noch Plätze frei

Zur Anmeldung

PREIS
3.650,- € zzgl. Mwst. – inkl. Mittagessen 14,- € / Tag

MINDEST-TEILNEHMERZAHL
Das Seminar findet ab einer Mindestzahl von drei Teilnehmern garantiert statt.

SCHULUNGSZEITEN
Am ersten Tag 10:00 - 17:30 Uhr
An Folgetagen 09:00 - 17:30 Uhr
Am letzten Tag (Freitag) 09:00 - 13:00 Uhr

ZERTIFIKAT
Nach erfolgreicher Teilnahme erhalten die Kursteilnehmer ein Zertifikat von NT Systems.


AUSFÜHRLICHE INFORMATIONEN

Im Folgenden finden besonders interessierte Leser ausführliche Informationen zu den im Kurs behandelten Themen.

Hier sind die Highlights von unserem 2016 Failover Cluster Kurs:

Die meisten Enterprise Firmen haben bereits 2012 R2 Failover Cluster im Einsatz. Sie können ihre 2012 R2 Cluster nun zum ersten Mal durch das neue Feature "Rolling Cluster Upgrade" in 2016 Failover Cluster "live" migrieren. Der ClusterFunctionalLevel befindet sich in dem Übergang zuerst in "Mixed Mode" (Level 8) und wird auf Native-Node (Level 9) umgeschaltet, wenn alle Nodes 2016 sind. Im Kurs bauen wir nicht nur "native" 2016 Cluster auf, sondern führen auch Rolling Cluster Upgrade auf einem bestehenden 2012 R2 Cluster aus.

Damit ein Failover Cluster sein Quorum (Mehrheit) bekommt, sind mind. 3 Stimmen (Votes) notwendig. Der Cluster soll daher optimalerweise auf 3 Lokationen verteilt sein, damit das Quorum bei einer Netzwerkstörung zwischen zwei Datacentern gewährleistet werden kann. Mit dem neuen Feature "Cloud Witness" kann man für sehr geringe Kosten eine weitere Clusterstimme in der Azure Cloud anlegen. Die "On-Premise" Clusternodes kommunizieren mit dem Cloud Witness über HTTPS, da ein Cloud Witness als "Blob Storage" via URL erreicht werden kann. Auch ein File Share Witness (FSW) in der Azure Cloud kann zwar für 2012 R2 und 2016 Cluster konfiguriert werden, dafür ist aber eine IPSec-Verbindung via Site-To-Site VPN-Gateways und eine Platzierung von einem Domain Controller in der Azure Site notwendig.

Als absolute Highlights des 2016 Clusters sind die neuen Features Storage Spaces Direct (S2D) und Storage Replication (SR), die das Protokoll SMB 3.1.1 für den Transport der Blockdaten über den Software Storage Bus (SSB) nutzen. SD kann teure SAN weitgehend ersetzen, wenn die dafür benötigte Netzwerkbandbreite und RDMA-Netzwerkkarten zur Verfügung stehen. Mit S2D kann ein Failover Cluster nun auch für Anwendungen eingesetzt werden, die selbst nicht ihre Daten über Netzwerk hinweg wie Exchange 2013/2016 oder SQL 2014/2016 replizieren können. Ein 2016 Cluster kann mit S2D und SR für jegliche Anwendungen über mehrere Subnetze und Standorte verteilt werden (Stretch-Cluster). Storage Spaces Direct nutzt die lokalen Festplatten (SATA, SAS, SSD) der Clusternodes, um daraus einen gemeinsamen Storage Pool zu bilden. Virtual Disks (Storage Spaces) können aus dem Storage Spool als RAID0, RAID1 oder RAID5 heraus "geschnitten" werden. Die Storage Spaces sind bei min. 4 Clusternodes hochverfügbar.

Ein weiteres Feature für Disaster Recovery ist das Storage Replication (SR). Mit SR werden Platteninhalte in Block Mode von Server-To-Server oder Cluster-To-Cluster oder ein Mix davon von Quelle zum Ziel via den SSB synchron oder asynchron repliziert. Bei Ausfall der Quellplatte wird die Kopie automatisch bzw. manuell aktiviert. Somit ist es möglich eine hohe Datenverfügbarkeit in einer Umgebung, wo Storage Space Direct nicht möglich ist (zu hohe Latenzzeit), zu gewährleisten. SR wird i.d.R. mit S2D für Stretch Cluster kombiniert.

S2D und SR nutzen das erweiterte SMB 3.1.1 Protokoll, welches nun als Grundlage für viele Datentransporte und Anwendungen eingesetzt wird (Live Migration, CSV, Multi-Channel etc.). In Kombination mit 10 Gbit/s RDMA fähigen Netzwerkkarten und dem neuen Treiber NDIS 6.60 sorgt SMB 3.1.1 dafür, dass High Speed Networking möglich ist. Durch RDMA werden Applikationsdaten (User Mode), ohne im Betriebssystem (Kernel) zwischenzupuffern, direkt über das Netzwerk zur Zielapplikation transportiert. RDMA setzt ein "losless" Netzwerk mit "hoher Bandbreite" (High Bandwidth) und "niedrige Latenzzeit" (Low Latency) voraus. Damit dies über das ETHERNET auch möglich ist, müssen sowohl das Betriebssystem, die Netzwerkkarten als auch die beteiligten Switches QoS (Quality of Service) und DCB (Data Center Bridging) fähig sein. Mit QoS Policy kann man dem SMB Direct (RDMA = NetDirect) hohe Priorität (PFC = Priority Flow Control) und Bandbreite (ETS = Enhanced Transmission Selection) zuweisen. Der RDMA Durchsatz ist erheblich höher als ohne RDMA und liegt bei 10 Gbit-NIC über 1 bis 2 GByte/s. Daher ist ein RDMA fähiges 10 Gbit/s-Netzwerk in einer 2016 High Speed Serverumgebung für alle Arten des SMB Transports Pflicht! SMB Direct ist SMB over RDMA, Storage Spaces Direct ist Storage Spaces over RDMA. Es sieht im Moment so aus, dass der neue Standard RoCE v2 (RDMA over Converged Ethernet) sich gegenüber Infiniband und iWarp durchsetzen wird. Wir setzen im Kurs bereits die neuesten 10 GBit R-NIC ein, die RoCE v2, QoS, DCB, DCBx und die Network Overlay Protokolle NVGRE und VXLAN unterstützen.

Der seit 2012 verfügbare Scale-Out File Server (SOFS) bekommt in einem 2016 Failover Cluster durch SMB 3.1.1 und Storage Spaces Direct noch mehr Gewicht. Er bildet das Herzstück des Microsofts SDN (Software Define Network) Konzepts. Anwendungen wie Hyper-V oder SQL können ihre VHDX bzw. Datenbanken via SMB Direct (SMB over RDMA) über das Ethernet auf einem hochverfügbaren SOFS mit "preiswerten" lokalen Festplatten speichern. Die SAN Abhängigkeit enfällt. In Kombination mit SMB 3.1.1. Multichannel und RDMA wird File Service in eine noch nie da gewesene Performance Region katapultiert. Für den Zugriff auf einen "traditionellen" File Server Cluster profitieren SMB 3.x Clients (Windows 8 und neuer) gegenüber "legacy" SMB Clients (Windows 7 und älter) von der Funktionalität des SMB 3.x Transparent Failovers.

In einer Enterprise Umgebung soll ein Hyper-V Host bzw. Cluster von der Datenspeicherung getrennt sein. Ein "Compute" Hyper-V speichert seine VMs nicht lokal, sondern via SMB 3.1.1 auf einem Scale-Out File Server Cluster (SOFS), der auch als Speicherort für SQL 2014/2016 Server dienen kann. Für die Virtualisierung mit Hyper-V bringt 2016 einige neue Features mit. Neu ist der sog. VM Start Order, der durch die Festlegung der Abhängigkeit von anderen VMs definiert wird. VMs gleicher Funktionalität wie z.B. Domain Controller werden einem Cluster Group Set zugewiesen. Anwendungs-VMs in einem anderen Cluster Group Set können nur gestartet werden, wenn die DCs bereits gestartet sind.

Ein ganz neues Fehlertoleranz-Konzept von 2016 Cluster ist das sog. Fault Domain, welches bereits in Azure praktiziert wird. Ein Single-Point of Failure soll innerhalb eines Clusters dadurch unbedingt vermieden werden. Die Clusternodes sollen nicht alle in einer Site platziert werden, sie sollen auch nicht gemeinsam in einem Rack und Chassis aufgebaut werden. Die Top-Down Fault Domain Struktur besteht aus 4 Ebenen Site->Rack->Chassis->Node, die für manche Features wie S2D und SR die Voraussetzung ist. Der Begriff Site-awareness von 2016 TP4 wird durch Site Fault Domain in 2016 TP5 ersetzt. Das bedeutet, dass ein Failover (Failover Affinity) vorzugsweise auf einen anderen Node in derselben Site (Fault Domain) vollzogen wird, wenn diese Site mind. 2 Nodes besitzt und als Fault Domain festgelegt wurde. Durch die Storage Affinity bevorzugt eine VM bei einem Ausfall des Hyper-V Hosts ein Clusternode in derselben Site. Site Fault Domain wird auch bei der Auswahl eines neuen CSV Coordinators angewandt. Neben SameSubnet und CrossSubnet bringt 2016 Cluster zusammen mit Site Fault Domain das Cross-Site Heartbeating. Man kann nun das Threshold für Heartbeat zwischen den Sites auf Clusterebene festlegen, das Vorrang vor SameSubnet und CrossSubnet hat, auch wenn die Site Fault Domains im selben IP-Subnet sein können » Site Fault Domain ist weder AD Site noch Subnet Site.

Verwandt, jedoch nicht gleich mit Site Fault Domain ist die Möglichkeit clusterweit ein Preferred Site für Dynamic Quorum zu definieren. Wenn das Netzwerk zwischen zwei Datacentern mit je 3 Nodes ausfällt, wird automatisch das Quorum so justiert, dass ein Preferred Site eine Stimme mehr als die andere Site hat.

Mit dem neuen Feature Failover Cluster Node Fairness für Hyper-V kann über den Parameter AutoBalancerLevel (Low, Medium, High) auf Clusterebene festgelegt werden, wie aggressiv die automatische Lastverteilung der VMs auf Hyper-V Clusternode ist. Standardmäßig (=Low) werden VMs auf andere Clusternodes erst verschoben, wenn die CPU und Memory Nutzung 80% auf dem Hyper-V Host überschritten sind.

Damit die Verwirrung perfekt ist, gibt es in 2016 Failover Cluster das neue Feature Virtual Machine Compute Resiliency, mit dem das Verhalten von Hyper-V Host bei einem Fehler und somit auch der Verbleib-Ort deren VMs gesteuert werden kann. Drei neue States (Status) bestimmen den Zustand von VM und Host: Unmonitored State für VM, Isolated und Quarantine State für Hyper-V Host. Ein Host landet in der Quarantäne, wenn er z.B. 3 Mal innerhalb einer Stunde den Cluster unsauber (z.B. Heartbeat Threshold überschritten) verlässt. In diesem Fall werden seine VMs auf andere Clusternodes verschoben. Natürlich kann hier auch mit Fault Domains kombiniert werden!

» Mehr zu SMB 3.1.1 siehe Kurs Windows Server 2016 Administration.

WEITERE THEMEN :
Weitere Themen des 2016 Kurses sind:

- Cluster Administration, Paxos & Quorum Set Replication
- File Server Cluster (Traditionell)
- HOME$ und Shadow Copy
- CSV (Cluster Share Volume) Kommunikation, CSV Cache
- Multi-Node Cluster
- Failover Strategien
- Backup & Recovery
- Logging & Troubleshooting
- ESAE (Enhanced Security Administrative Environment)

Sie lernen im Kurs Microsofts "patentierte" Clustertechnologie mit Paxos und Quorum Set Replication Algorithmus für Distributed Systems kennen, die seit 2008 Cluster zum Einsatz kommt und erweitert wurde. Im Gegensatz zu "Single Quorum" von Windows 2003 Cluster arbeitet ein Failover Cluster ab 2008 mit dem neuen Hybrid-Quorum nach dem Multimaster Prinzip. Selbst bei einem defekten Quorum-Disk arbeitet ein 2-Node Cluster stabil weiter. Das Quorum Modell wird mit Windows 2012 Failover Cluster um Dynamic Quorum erweitert. Dynamic Quorum sorgt dafür, dass ein ordentlich heruntergefahrener Clusternode DynamicWeight=0 bekommt, sodass die Quorum-Bildung sogar für kurze Zeit mit einem einzigen Clusternode auch ohne Forcequorum möglich ist. Ja, es ist sogar möglich, dass ein 2012 Failover Cluster mit weniger als 50% Stimmen immer noch arbeiten kann. Unabhängig von Dynamic Quorum kann man jedem Clusternode NodeWeight=0 zuweisen, wenn dessen Stimme nicht zur Quorum-Bildung beitragen soll. Der File Share Witness wird nun durch den neuen Cloud Witness ergänzt, der auch mit PowerShell konfiguriert werden kann.

Wir praktizieren im Kurs den neuen Hyper-V Cluster (Full oder Nano Server) mit dem neuen SET (Switch Embedded Teaming), der aus bis zu 8 R-NIC gebildet werden kann. Als "Compute" Hyper-V Cluster werden die VMs mit CPU und Memory sowie Netzwerk versorgt. Die Speicherung der VHDX und Konfigurationsdaten erfolgt über SMB 3.1.1 auf einem SOFS (Scale-Out File Server), welcher mit je 2x 10 GBit per Node auch SMB Multichannel fähig ist. Als gemeinsamer Speicher wird S2D eingesetzt, wobei jeder Clusternode mehrere lokale Festplatten für den Storage Spool mitbringt.

Die Verwaltung eines 2016 Failover Clusters wird mehr und mehr mit PowerShell durchgeführt. Wenn NanoServer eingesetzt wird, kann man nur noch mit PowerShell verwalten. Das 2016 PowerShell Modul bietet viele Neuigkeiten, z.B. der Validationstest Test-Cluster kann u.a. die Storage Spaces Direct Funktionalität eines Clusters überprüfen. PowerShell Direct arbeitet mit Named Pipe (anstelle TCP/IP) und sorgt dafür, dass die Administration der VMs direkt vom Hyper-V Host aus auch ohne Netzwerk möglich ist.

Mit SQL Server 2016 AlwaysOn wird die Hochverfügbarkeit einer SQL-Datenbank erheblich verbessert. Durch die neue Non-Shared Disk Technologie wird dadurch auch Disaster Recovery abgedeckt. Ähnlich wie bei Exchange 2013/2016 HA werden die SQL Server 2016 in einer Always-On Availability Group (AAG) zu einem Cluster zusammengeschaltet. Eine SQL 2016 Primary Datenbank kann bis zu fünf Secondary Replicas enthalten, davon replizieren zwei Synchron und zwei Asynchron mit der Primary DB. Ein automatischer Failover ist jederzeit auf eine Synchron DB möglich.

Bemerkung: Wir setzen in einem Windows Server 2016 Kurs 10 GBit Server-Netzwerkkarten mit BASE-T oder SFP+ Glasfaser Anschluss für JEDEN Arbeitsplatz ein. Mehrere 10 GBit-Switches stehen zur Verfügung. Somit ist es möglich die neuen SMB 3.1.1. Multichannel, DCBQoS, RDMA und SET zu praktizieren.
Auch in diesem Kurs praktizieren wir ESAE (Enhanced Security Administrative Environment). Die Clusternodes gehören zu Tier 1. Sie dürfen nicht von T0 Domänen Administratoren verwaltet werden.

» Wir empfehlen allen Clusteradministratoren auch unseren Kurs PowerServer I für Windows Server 2016 zu besuchen.

S2D - Storage Space Direct für SOFS (Scale-Out File Server Cluster)
S2D - Storage Space Direct für SOFS (Scale-Out File Server Cluster)

4-Nodes Scale-Out File Server mit je lokalen HDDs, SSDs (SATA) und NVMe SSD
4-Nodes Scale-Out File Server mit je lokalen HDDs, SSDs (SATA) und NVMe SSD

Failover Cluster - Resource Monitors
Failover Cluster - Resource Monitors

Failover Cluster 2016 - Cloud Witness - File Share Witness
Failover Cluster 2016 - Cloud Witness - File Share Witness

Hinweis: Bitte bringen Sie zum Kurs Ihre Evaluation DVD oder ISO mit der gewünschten Sprachversion mit. Wir dürfen keine Volume License für Kurse nutzen!

Zum Seitenanfang

- Vertrauen Sie unserer Kompetenz -