Die Innovationszyklen der IT und ihr gemeinsamer Nenner mit der heutigen digitalen Transformation

bei

 / 7. September. 2020

Nichts ist so beständig, wie der Wandel. Dieser Satz trifft besonders auf die Innovationszyklen der IT zu, wo sich seit Mitte des letzten Jahrhunderts wiederkehrende Transformationswellen abgespielt haben. Wie das Wechselspiel von Ebbe und Flut lösen sich dabei Strömungen von Zentralisierung und Dezentralisierung von Computing-Prozessen in Unternehmen ab. Im Zeitalter der digitalen Transformation steuert derzeit die nächste Welle des dezentralisierten Computings auf einen neuen Höhepunkt zu – wobei dieses Mal die Cloud im Mittelpunkt der Datenverarbeitung und -vorhaltung steht.

Der Blick zurück: Computing als zentraler Prozess

Ursprünglich war die Berechnung und Darstellung von Ergebnissen ein sehr kostspieliger Vorgang, bei dem komplexe, wiederkehrende Rechenaufgaben zentralisiert von Großrechenanlagen durchgeführt wurden. Im Lauf der 60er Jahre des letzten Jahrhunderts setzte der erste größere Entwicklungssprung ein, als man von Lochkarten abkam und durch Automatisierung optimierte Betriebsabläufen erzielte. Mainframe-Rechner übernahmen die Aufgaben der Massenverarbeitung von Daten und IBM ging mit seiner S/360 in Serienproduktion. Zu dieser Zeit mussten Anwender allerdings noch über Computer-Terminals auf die zentralen Großrechner zugreifen, um ihre Daten dort verarbeiten zu lassen.

Das Interesse an der elektronischen Datenverarbeitung stieg sprunghaft an, als die Prozesse für den User durch das Aufkommen von Personal Computern in den 80er Jahren vereinfacht wurden. Die erste Welle der Dezentralisierung von Rechenleistung setzte durch die wesentlich kleineren Computer auf Basis von Mikroprozessoren ein, die nicht nur die Arbeit erleichterten, sondern auch aufgrund von Kostenaspekten für Unternehmen interessant waren. Diese Arbeitsplatz- und Abteilungsrechner liefen den Mainframes kontinuierlich den Rang ab. Den flächendeckenden Durchbruch erlebte die dezentrale Datenverarbeitung in den 1990er Jahren, als die Personal Computer zu erschwinglicheren Preisen erhältlich wurden und mit intuitiven Benutzeroberflächen aufwarteten. Auch bei dieser Modernisierungswelle spielten Effizienzsteigerung und Kostenersparnis die entscheidende Rolle, um die Transformation der Infrastruktur in Gang zu setzen.

Das Netzwerk kommt ins Spiel

Was mit der Anbindung von einem Terminal mit überschaubarem Funktionsumfang an den Großrechner begann, wurde in seiner Entwicklung durch die Frage vorangetrieben, wie Informationen von einzelnen PCs untereinander ausgetauscht werden konnten. Die Idee des Netzwerks wurde geboren, wobei sich diese Verbindungen zwischen PCs zu Beginn auf das Local Area Netzwerk innerhalb der Unternehmensgrenzen beschränkten. Damit wurde der nächste Innovationschub losgetreten, denn die Vernetzung brachte mehr Möglichkeiten für die Clients mit sich. Und löste zeitgleich neue Überlegungen aus, die wieder einen gegenläufigen Prozess in Gang brachten. Die Welle schwappte zurück….

Denn Unternehmen begannen sukzessive damit, ihre Datenbestände in einem zentralen Rechenzentrum zu konsolidieren und dort Applikationen für den Zugriff durch die vernetzten Anwender bereitzustellen. Das Zeitalter der internen Serverfarmen war geboren. Ausgelöst durch diese erneuten Zentralisierungstendenzen war die Rechenpower auch nicht mehr am Anwender-PC gefordert und damit einhergehend kamen Thin Clients in Mode. Diese Systeme waren wiederum von den Servern abhängig, die für sie die komplexen Rechenoperationen übernahmen. Auch heute haben sich diese Art von Rechner ihre Nische erhalten, um einfache Aufgaben zu übernehmen. In Unternehmen entstanden durch die Vernetzung zunehmend komplexere IT-Infrastrukturen, die bald um Wide Area Netze erweitert wurden, um weltweit Standorte miteinander zu verbinden.

Durch die großflächige Vernetzung einzelner Rechner zum Informationsaustausch kam allerdings auch langsam die nächste große Welle ins Rollen. Denn je weitreichender sich die Unternehmensnetze erstreckten, umso komplexer gestaltete sich deren Administration und die Kosten schnellten in die Höhe. Nicht nur die Ausgaben für Verwaltung, sondern auch die MPLS-Kosten für den enormen Bandbreitenbedarf der Unternehmen. Schließlich war es seit jeher das Ziel der IT, jedem Anwender Zugang zu internen Applikationen zu gewährleisten, unabhängig davon, von welcher Niederlassung aus sie darauf zugreifen mussten.

Die letzte Welle zur digitalen Transformation

Das Internet brachte schließlich die letzte disruptive Welle ins Rollen und läutete zeitgleich wieder eine Dezentralisierung der Datenvorhaltung und -verarbeitung ein. Die Möglichkeiten des Internets ließen neue Service-basierte Geschäftsmodelle entstehen. Durch die ausufernden Kosten für die Bereitstellung der eigenen Hardware-Infrastruktur nahm der IT-Kostenanteil an der Wertschöpfung überhand. Unternehmen suchten nach Modellen, Kosten zu reduzieren und sich zeitgleich auf ihre Kernkompetenzen zu konzentrieren.

Das Konzept der Cloud, das die Auslagerung interner Anwendungen ermöglichte, fiel auf fruchtbaren Boden. Wenn Anwendungen und Daten nicht mehr lokal im Rechenzentrum vorgehalten werden müssen sondern zum Cloud Service Provider verlagert werden, entfällt der Kostentreiber des MPLS-Backbones und viel des Hardware-Administrationsanteils. Denn Anwender können mit Hilfe von SD-WAN direkt über das Internet auf ihre Applikationen in der Cloud zugreifen. Die notwendige Sicherheit dazu kommt dabei nicht mehr aus dem Rechenzentrum, sondern wird durch das Konzept des Secure Access Service Edge aus der Cloud bereitgestellt. Für den heutigen Anwender ist es demnach irrelevant ist, wo sich die Applikationen befinden. Auf diese Weise ist das Internet zum Unternehmensnetzwerk avanciert und die Cloud löst das ehemals interne Rechenzentrum ab, über das die Mehrzahl aller Geschäfte abgewickelt wird.

Transformation verhält sich wie Ebbe und Flut

Ein gemeinsamer Nenner kristallisiert sich bei diesen Wellenbewegungen der Zentralisierung und Dezentralisierung heraus: Der Kostenfaktor und die Hoffnung, Prozesse zu Gunsten des Wettbewerbsvorteils effizienter gestalten zu können. IT-Infrastrukturen intern vorzuhalten ging schon immer zu Lasten höherer Kosten und gesteigerter Komplexität. Der logische Schritt ist es demnach, nicht mehr die Infrastruktur bereitzustellen, sondern nur noch Zugriff auf die Anwendung. Mit der universellen Verfügbarkeit der Daten- und Anwendungsvorhaltung erfüllt die Cloud letztlich den langehegten Wunsch von Unternehmen: Anwender können jederzeit und von jedem Ort auf ihre benötigten Informationen zugreifen.

Bevor in Unternehmen allerdings die Bereitschaft bestand, sich jeder dieser einzelnen Transformationswellen zu unterwerfen, benötigte es Vorreiter, die den Wert der neuen Möglichkeiten und Technologien richtig einschätzen konnten. Durch die letzte Transformationswelle ist IT wieder einmal zu einem Service geworden, der flexibel bezogen werden kann. Ähnlich wie zu Beginn, als Rechenleistung in einer Großrechenanlage noch auf Zeit gemietet wurde.

 

Über den Autor:


Nathan Howe weist über 20 Jahre an Erfahrung in der IT-Sicherheit auf. Sein Wissen als IT-Architekt, Pen-Tester und Sicherheitsberater bringt er in Firmen ein, um mit ihnen die Herausforderungen des digitalen Wandels zu meistern. Seit 2016 arbeitet er für den Cloud-Security Spezialisten Zscaler.