Mit einer Box rein in die Cloud – und zurück

bei

Internet der Dinge (IoT)
 / 14. June. 2018

Wie hyperkonvergente Infrastruktur einem Rechenzentrum Cloud-Attribute verleiht und das Nutzen sowie Integrieren von Cloud-Services vereinfacht.

IT-Ressourcen müssen skalierbar und flexibel abrufbar sein. Compute- und Storage-Anwendungen sowie andere Services sollen sich einfach managen lassen – möglichst mit einem hohen Grad an Automatisierung im Betrieb. Die Public Cloud erfüllt diese Anforderungen, was Unternehmen dazu bewegt, Rechenleistung von extern zu beziehen und Anwendungen sowie Daten auszulagern. In der Regel entstehen so hybride IT-Landschaften, die Cloud-Services mit dem eigenen Rechenzentrum kombinieren, um letztendlich digital wettbewerbsfähig zu sein. Nur wer Innovationen schnell genug umsetzen kann, agiert künftig erfolgreich. Hyperkonvergente Infrastrukturen (HCI), deren zweite Generation gerade auf den Markt gekommen ist, schaffen im Rechenzentrum die Basis, um agil Produkte zu entwickeln.

Unternehmen, die HCI nutzen, können die Cloud-Vorteile ins eigene Haus holen. Diese Systeme wirken sich im Betrieb so positiv wie die Cloud aus und befähigen die eigene IT, schneller die benötigen Ressourcen bereitzustellen.

Merkmale hyperkonvergenter Systeme

Warum HCI 2.0 den IT-Betrieb effizienter macht, verrät ein Blick in Aufbau und Funktionsweise: Alle Komponenten – Server, Speicher, Netzwerk und Virtualisierungstechnik – sind in einer Box vereint. Die Hardware besteht aus mindestens zwei Chassis mit zwei Rechen- und vier Speicher-Nodes, die vom Speicherbetriebssystem und Hypervisor gesteuert werden. Applikationen steht ein Pool an virtualisierten Rechen- und Speicher-Ressourcen zur gemeinsamen Nutzung zur Verfügung. Typische Rechenzentrumsfunktionen wie Hochverfügbarkeit, Replikation, Datensicherung, Deduplizierung, Komprimierung oder WAN-Optimierung sowie Backup und Recovery sind integriert.

Eine wesentliche Stärke solch eines Mikrorechenzentrums ist eine garantierte Performance, auch bekannt als Quality of Service (QoS). Für jede Applikation wird ein Minimal-, Maximal- und Burstwert an IOPS festgelegt, wodurch der Betrieb aller Anwendungen störungsfrei läuft – auch im Parallelbetrieb auf einem System. Administratoren fügen je nach Bedarf neue Rechen- und Speicherknoten hinzu – unabhängig voneinander. Ein zentrales Dashboard vereinfacht das Managen der einzelnen Komponenten. Automatisierte Standardaufgaben wie Backups oder die Inbetriebnahme einer virtuellen Maschine (VM) reduzieren den Verwaltungsaufwand noch weiter.

Integration in eine zentrale Datenmanagementplattform

Wenn die Anwendungen starten, müssen die Daten den Applikationen in dem Moment bereits zur Verfügung stehen. Der Verarbeitungsort, Cloud oder eigenes Rechenzentrum, darf da kein Hindernis darstellen. Das ortsunabhängige Datenmanagement setzt ein einheitliches Datenformat, eine einheitliche Datenübertragung und eine zentrale Datenmanagementplattform voraus. Diese Bedingungen erfüllt die NetApp HCI, die der Hersteller in sein Konzept der Data Fabric integriert hat. Ein Unternehmen ist dadurch in der Lage, Daten komfortabel zwischen verschiedenen Infrastrukturen und Speicherorten zu verschieben. In dem Fall unterstützen HCIs moderne Hybrid-Cloud- und Multi-Cloud-Umgebungen: Beispielsweise lassen sich die Daten für ein Disaster-Recovery-Szenario über hauseigene Schnittstellen direkt in die Cloud übertragen. Fallen Systeme im eigenen Rechenzentrum aus, wird einfach in der Cloud weitergearbeitet. Rechenleistung aus der Cloud zu beziehen, empfiehlt sich unter anderem für Business-Intelligence-Anwendungen, wenn diese nicht häufig laufen sollen. Lediglich die relevanten Daten werden für die Berechnung in die Cloud repliziert und die Ergebnisse abgeholt, wodurch sich Unternehmen die Hardware sparen. Wenn HCIs RESTful APIs intergiert haben, lässt sich auch ausschließlich Cloud-Computing im Sinne von Infrastructure as Code betreiben.

Zu den Cloud-Szenarien, für die sich HCIs besonders gut eignen, zählen Anwendungen für das Internet of Things (IoT). Gefragt ist in diesem Umfeld ein System, das sowohl über Rechenleistung als auch Speicher verfügt und sich mit wenig Aufwand in Betrieb nehmen und managen lässt. Deshalb bietet es sich an, eine HCI im Maschinenpark als Mikrorechenzentrum zu installieren. Die Box analysiert Daten bereits am Entstehungsort, leitet nur relevante Informationen an das zentrale Rechenzentrum weiter – und überträgt bei Bedarf auch Daten in einen Cloud-Speicher.

Die Plattform, die wie die Cloud funktioniert

Unternehmen können HCIs für verschiedene Cloud-Szenarien als Plattform installieren, die für einen stabilen und effizienten IT-Betrieb sorgt. Durch das flexible und unabhängige Skalieren von Compute und Storage sowie der garantierten Performance lassen sich auf den hochintegrierten Systemen anspruchsvolle Geschäftsanwendungen im Rechenzentrum ohne großen Aufwand betreiben – wie in der Cloud. Das bedeutet: Die IT wächst oder schrumpft – je nachdem, welcher Bedarf besteht.

Der Autor: Johannes Wagmüller ist Director Solutions Engineering bei NetApp, als welcher er seit 2010 den technischen Vertrieb des Storage-Herstellers und Datenmanagementspezialisten in Deutschland leitet.

Vorheriger ArtikelMillionen Fußballfans – 32 Mannschaften,11 Städte und ein Weltmeister: Haben Sie Ihre Lieferketten fitgemacht, um während der Fußball-WM bestehen zu können?
Nächster ArtikelViele Clouds für viele Aufgaben: Wie der Mittelstand die richtigen auswählt