Immer mehr IT-Fachkräfte müssen sich mit der Frage beschäftigen, wie sich die Vorteile der VDI-Technologie optimal für ihr Unternehmen oder ihre Kundenunternehmen nutzen und wie sich virtuelle Umgebungen erfolgreich managen lassen. Wer aktuell ein VDI-Projekt plant oder gerade durchführt, sollte auf die folgenden Aspekte besonderes Augenmerk legen, um das Vorhaben zum nachhaltigen Erfolg zu führen.
VDI – Eine Standortbestimmung
Unter Virtual Desktop Infrastructure (VDI) versteht man das Hosten von Desktop-Umgebungen auf einem zentralen Server. Zusätzlich wird der Begriff gemeinhin oft auch für das Hosten und die zentrale Bereitstellung von Anwendungen gebraucht. De facto können virtuelle Desktops und Applikationen den Nutzern zentral, sicher und schnell über ein Netzwerk auf den verschiedensten Endgeräten bereitgestellt werden. Early Adopter waren vor allem solche Branchen, in denen Lösungen ein Maximum an Effizienz und Verfügbarkeit bei gleichzeitig hohem Kostendruck abverlangt wird.
Aktuell vollzieht sich der nächste konsequente Schritt: VDI aus der Cloud. Natürlich sind virtuelle Maschinen in der Cloud absolut nichts Neues. Neu aber ist, dass die großen Hyperscaler mittlerweile auch auf den Plan treten und sich des Themas VDI annehmen.
Die technische Weiterentwicklung und der verstärkte Trend zum dezentralen Arbeiten haben VDI aktuell großflächig salonfähig gemacht. Die Möglichkeiten, die VDI-Arbeitsplätze eröffnen, zeigten sich unter dem Druck der Corona-Krise überdeutlich: Ob für eine schnelle Umsetzung von Homeoffice-Arbeitsplätzen oder die Realisation längerfristiger Business Continuity-Strategien – der Bedarf an VDI ist durch die Krise noch einmal enorm gestiegen.
Auch vor dem Endanwender-Mark wird VDI keinen Halt machen. Neben den bereits länger laufenden Experimenten machen marktreife Lösungen rund ums Thema Cloud Gaming seit einer Weile erste Gehversuche.
Warum VDI?
Im Gegensatz zum Großteil von vorherigen Virtualisierungslösungen setzt VDI auf das maximale Outsourcen der Rechenleistung, was den Endpunkt nahezu vollständig entlasten kann. Nutzern kann so einfacher denn je die Freiheit gewährt werden, das Gerät ihrer Wahl einzusetzen, aber alle Ressourcen, Anwendungen und Dateien können zentral gemanagt werden. Alles bleibt up to date und innerhalb des gesicherten Unternehmensnetzwerks. Unternehmen können so z.B. Hardware länger einsetzen, was einen klaren Gewinn für die Unternehmens- und Umweltbilanz bedeutet. Neuinvestitionen fallen um ein Vielfaches geringer aus, da Endgeräte quasi kaum Leistung benötigen. Auch Legacy-Applikationen lassen sich wesentlich einfacher und sicherer weiterbetreiben.
So überzeugend alle genannten Argumente für Geschäftsentscheider und IT-Abteilungen auch sind, sollten VDI-Projekte nicht auf die leichte Schulter genommen werden. Unter der Abstraktionsschicht der einzelnen virtuellen Desktops liegt nach wie vor eine elaborierte Kombination aus Hard- und Software, die unter anderem CPU, GPU, Datenablage, Arbeitsspeicher, Hypervisoren und Clients vereinen. Selbst wenn die Rechenleistung über Hardware aus dem Rechenzentrum eines externen Dienstleisters, wie z.B. einem Managed Service Provider oder einem der Hyperscaler bezogen wird, bleiben das komplexe Geflecht aus Applikationen und Betriebssystemen sowie das richtige Sizing zu berücksichtigen. Je komplexer die Abhängigkeiten sind, desto gravierender wirken sich selbst kleine Änderungen aus. All das macht ein vorausschauendes Change-Management in virtuellen Umgebungen noch entscheidender, als es zuvor schon in klassischen IT-Landschaften der Fall war.
Die Change-Challenge
Bei den immer kürzer werdenden Update-Zyklen wird die Administration von VDI zur echten Herausforderung. Über 75 Prozent der Unternehmen möchten den – unter anderem von Microsoft empfohlenen – Semi-Annual-Update-Modus nutzen, um Sicherheits- und Funktionsaspekten Rechnung zu tragen. Hinzu kommen diverse Updates und Sicherheits-Patches anderer eingesetzter Applikationen. 2010 bedeutete dies in der Regel noch vier Updates pro Jahr und Anwendung. Eine Zahl, die Ende 2020 schätzungsweise bei 120 liegen wird! Laut Umfragen benötigen aber über 60 Prozent der Unternehmen aufgrund der Komplexität ihrer Systeme länger als sechs Monate, um die Stabilität und Verfügbarkeit eines einzigen Updates in der VDI-Umgebung gewährleisten zu können. Kleinste Veränderungen können in komplexen virtualisierten Umgebungen durch Schmetterlingseffekte weitreichende Folgen haben: Ein vermeintlich kleines Update kann so schlimmstenfalls den Ausfall des gesamten Systems nach sich ziehen. Anhand einer vielzitierten Studie des Ponemon Instituts [1] von 2013 kann man bei großen Unternehmen, konservativ geschätzt, von etwa 5.000 Euro Kosten pro Minute Systemausfall einer VDI-Umgebung ausgehen. Und die Auswirkungen, die ein schlechter Ruf in Sachen Ausfallsicherheit oder IT-Sicherheit generell mitbringen, ließen sich rein monetär gar nicht beziffern.
IT-Systemwandel aktiv gestalten
In der heutigen IT-Welt ist es wichtiger denn je, den Wandel aktiv zu gestalten. Updateprozesse sollten soweit möglich automatisiert werden. Bestenfalls informiert das System proaktiv über Performanceprobleme, damit diese zeitnah behoben werden können. Vorausschauende Tests der Auswirkungen von Systemänderungen spielen hier eine Schlüsselrolle. Dabei sollten Administratoren besonders drei Punkte im Blick behalten:
Verfügbarkeitsmanagement umfasst die Fähigkeit einer IT-Funktion, im Laufe der Zeit auf einem vereinbarten Niveau zu arbeiten. Dies sollte beim Hinzuziehen eines externen Anbieters im Service Level Agreement (SLA) zwischen IT-Dienstleister und Kunden festgehalten und durch dieses garantiert werden. Aspekte wie Zuverlässigkeit (funktioniert der Dienst wie erforderlich?) und Belastbarkeit (kann der Dienst Änderungen/Ausfälle überstehen?) sind Schlüsselkomponenten des Verfügbarkeitsmanagements.
Kapazitätsmanagement betrachtet die Balance zwischen Geschäftsanforderungen und IT-Dienstleistungen. Dazu gehören Aktivitäten wie die IT-Kapazitätsplanung und die Dimensionierung der IT-Infrastruktur. Vorhandene Ressourcen müssen im Hinblick auf Kosten und Prioritäten bestmöglich eingesetzt werden.
Service-Continuity-Management bedeutet, sicherzustellen, dass die IT-Dienste trotz eines wachsenden und sich beschleunigenden Stroms von (geplanten) Änderungen oder möglichen Zwischenfällen weiterhin, wie erwartet erbracht werden können. Der Schwerpunkt dieser Disziplin liegt nicht nur auf Wiederherstellungsmaßnahmen, sondern mehr und mehr auf proaktiven Aktivitäten, da die Verhinderung von Unterbrechungen eindeutig der effektivste Weg ist, um zu einer soliden Geschäftskontinuität beizutragen.
Besonders für die Punkte Kapazitäts- und Service-Continuity-Management sollte unbedingt unter realitätsnahen Bedingungen mit realen Workloads getestet werden, die das tatsächliche Tagesgeschäft widerspiegeln. Am sinnvollsten ist es, die Produktivumgebung zu spiegeln und mit synthetischen Usern, die sich wie reale User verhalten, zu testen. Die in der Simulation auftretenden Probleme können damit vor dem Entstehen behoben werden. Erst nachdem die Testergebnisse den Service-Level-Vorgaben entsprechen, werden die zu implementierenden Patches ausgerollt. Dies ist mit den „klassischen“ Methoden, die Hersteller diverser VDI-Lösungen mitliefern, nur reaktiv möglich. Auswirkungen auf den Produktionsbetrieb durch geplante Änderungen, Updates oder neue Applikationen lassen sich damit nicht simulieren! Tests mit synthetischen Usern dagegen, sind sehr präzise und können daher „auch sehr zuverlässig die allmähliche Verschlechterung der Anwendungsleistung erkennen und vorhersagen, der ein produktives System unterliegt oder ein Hinweis auf ein Problem einer anderen Infrastruktur-Ressourcen sein kann.
Bei dieser Art von Tests wird alle 10 Minuten ein kompletter Endnutzer-Workflow wiederholt, wobei jeder Schritt des Workflows in Millisekunden gemessen wird. Auf diese Weise kann jede noch so kleine Auswirkung erkannt und analysiert werden. Die Extrapolation der Messungen erlaubt die Vorhersage des genauen Zeitpunkts, ab dem die tatsächlichen Benutzer betroffen sein werden. Auf diese Weise werden allmähliche Performance-Probleme erkannt, bevor sie überhaupt vom Endnutzer bemerkt und die Produktivität verlangsamen oder sogar die Geschäftskontinuität stören können. Indem mit simulierten Benutzern Leselasttests durchgeführt werden, lassen sich Szenarien testen, die zwar nicht sehr typisch, aber zum Beispiel für Disaster Recovery (DR)-Planung relevant sind.
Moderne Monitoring-Lösungen müssen es Administratoren also ermöglichen, stets den Überblick über den Betriebsstatus der IT-Infrastruktur zu behalten. Solche Lösungen melden z.B. proaktiv Probleme auf Userseite inklusive Screenshots des Vorfalls an den Administrator und geben über Dashboard-Ansichten die wichtigsten Parameter auf einen Blick wieder, sodass Administratoren nicht erst umständlich den Fehler im Dialog mit dem User nachstellen müssen.
Vollautomatisierte Tests für die geplanten Use Cases, wie sie z.B. die Lösung LoginVSI bietet, machen manuelle Testverfahren nahezu überflüssig. Nicht nur beim Budget, sondern auch beim zeitlichen Rahmen für Projekte lässt sich mit automatisierten Tests jede Menge einsparen. Projekte können so wesentlich früher zum Abschluss geführt werden. Außerdem können Mitarbeiter von Tag Eins mit einer funktionierenden Lösung arbeiten. Mitarbeiterzufriedenheit ist heute ein strategisch wichtiger Faktor, um gut geschulte Arbeitskräfte im Unternehmen zu halten. Das zählt auch aus Sicht von IT-Verantwortlichen zu den obersten Prioritäten.
Wer also von Anfang an in seiner VDI-Umgebung auf umfangreiches Monitoring und automatisierte Tests setzt, sorgt für die zuverlässige Verfügbarkeit der Arbeitsumgebung, weniger Ausfälle und zufriedenere Mitarbeiter – alles zentrale Faktoren für den Unternehmenserfolg.
Quellen und Referenzen:
[1]https://www.ponemon.org/local/upload/file/2013%20Cost%20of%20Data%20Center%20Outages%20FINAL%2012.pdf
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.