Das „Internet der Dinge“ ist in aller Munde. Dabei handelt es sich um eine wilde Ansammlung und Verschmelzung von Daten von allem, was Daten erzeugen kann und über eine Internetverbindung verfügt. Unabhängig von ihrer Größe benötigen IT-Abteilungen eine Strategie, um diese Daten zu erfassen, zu sichern und für ihr Unternehmen nutzbar zu machen. Tatsächlich werden nach einer Erhebung von Commvault nur rund 25 bis 30 Prozent der Daten in Unternehmen aktiv genutzt. Der Rest versteckt sich im Sekundärspeicher, beispielsweise in Form von Sicherungskopien, und ist schwer zugänglich.
Vertikale Skalierung (Scale-up) war lange Zeit der Branchenstandard im Zusammenhang mit Backup- und Recovery-Architektur für größere Datenmengen. Steigende Kosten und schlechte Auffindbarkeit sind gute Argumente, davon abzurücken. Denn niemand speichert Daten um des Aufbewahrens Willen. Anwender möchten sie abrufen können, und zwar schnell. In traditionellen Scale-up-Umgebungen kann der Datenzugriff sehr komplex und zeitaufwändig sein. Denn zuerst müssen Nutzer herausfinden, wo die Daten gespeichert sind – was mancherorts nahezu unmöglich ist. Dann müssen sie diese erst wiederherstellen. Dies kann Stunden oder sogar Tage dauern. Die meisten Anwender haben aber weder die Zeit noch die Geduld für einen derart langwierigen Prozess. Sie fordern immer häufiger eine gut funktionierende Self-Service-IT. Verantwortliche müssen Richtlinien anpassen, Rechte vergeben, Servicelevel sicherstellen… Das alles wird schnell zu einer zeit- und kostenintensiven Herausforderung.
Immer mehr führende Unternehmen befassen sich daher mit der horizontalen Skalierung (Scale-out). Während der vertikalen Skalierung Grenzen gesetzt sind, da sich Rechner nicht endlos mit Hardware aufrüsten lassen, ist das Potential von horizontaler Skalierung schier unendlich, weil keine zusätzliche Appliances – externe Speichereinheiten aus Hard- und Software – nötig sind. Mit der passenden Scale-out-Technologie erhält man eine vollständige Hardware- und Softwarelösung in einem einzigen, benutzerfreundlichen Paket: Computing-, Speicher- und Netzwerk-Hardware sind dann nahtlos mit Datensicherungs-, Betriebssystem- und Virtualisierungs-Software integriert, so dass zahlreiche Kontaktpunkte zu einem einzigen reduziert werden. Dies minimiert Personal- und Verwaltungskosten, begrenzt übermäßiges Kopieren von Daten und vereinfacht die Anwendung von Richtlinien und Sicherheitskontrollen.
Skalierbarkeit ist nur von Vorteil, wenn die Nutzer auch einen webähnlichen Zugriff auf ihre Daten haben. Bei einem Scale-out-Ansatz bieten sekundäre Arbeitslasten ihren Nutzern und Anwendungen sofortigen Datenzugriff. Dies geschieht über eine Standardschnittstelle für alle verwalteten Daten, ob im Rechenzentrum oder in der Cloud. Selbst die anspruchsvollsten Anforderungen über mehrere Nutzer oder Anwendungen hinweg lassen sich unterstützen. So entsteht eine webähnliche Serviceverfügbarkeit. Durch die Verwendung integrierter Suchfunktionen können Anwender über Schlüsselwörter nach Dateien und Inhalten suchen – und neue Erkenntnisse schneller in Innovationen umsetzen.
Fazit
Die Digitalisierung durchdringt alle Branchen und Arbeitsbereiche, und das Datenvolumen steigt folglich ständig an. Die globalen Rechner- und Server-Infrastrukturen müssen mit dieser Entwicklung Schritt halten, und bislang gaben Internetgiganten wie Amazon, Facebook und Google dabei den Takt mit Hyperscale-Lösungen an. Unternehmen hatten anfangs Schwierigkeiten, Hyperscale in ihre Infrastruktur zu integrieren, jetzt kommt es aber auch im Mittelstand an. So stehen Unternehmen tatsächlich alle Daten zur Verfügung, wodurch sie Business-Intelligence-Lösungen bestmöglich für ihr Geschäft nutzen können.
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.