KI auf Höchstleistung: GPU-Power trifft Cyber-Resilienz

Die zunehmende Integration von Künstlicher Intelligenz (KI) in unternehmerische Prozesse erfordert eine leistungsfähige und zugleich widerstandsfähige IT-Infrastruktur. Während Grafikprozessoren (GPUs) als zentrales Element für Training und Inferenz komplexer KI-Modelle etabliert sind, rücken zwei bislang häufig vernachlässigte Aspekte in den Vordergrund: die Durchsatzoptimierung externer Speichersysteme und die Cyber-Resilienz von KI-Plattformen. Moderne KI-Workloads stellen enorme Anforderungen an die Datenübertragung, was die Entwicklung skalierbarer, latenzarmer Speicherarchitekturen erforderlich macht. Insbesondere gewinnt objektbasierter Speicher an Bedeutung – nicht nur im Cloud-Umfeld, sondern zunehmend auch in GPU-nahen On-Premises-Implementierungen. Gleichzeitig steigen die sicherheitsrelevanten Risiken durch technologische Fortschritte wie GPU-Direct, insbesondere in virtualisierten Multi-Tenant-Umgebungen. Es bedarf daher eines integrativen Sicherheitsansatzes, der fein granulierte Zugriffskontrollen, durchgängige Datenverschlüsselung sowie softwaredefinierte Speicherlösungen mit integrierten Abwehrmechanismen umfasst. Der nachfolgende Beitrag argumentiert, dass nur eine Infrastruktur, die Hochleistung und Sicherheit gleichermaßen priorisiert, das volle transformative Potenzial von KI sicher und nachhaltig erschließen kann.
Von   Paul Speciale   |  Chief Marketing Officer (CMO)   |  Scality
11. August 2025

KI auf Höchstleistung:

GPU-Power trifft Cyber-Resilienz

Mit der fortschreitenden Transformation von Unternehmen durch Künstliche Intelligenz (KI) – von der Kundeninteraktion bis hin zur Produktinnovation – wächst die Nachfrage nach leistungsstarker und sicherer Infrastruktur. Eine zentrale Rolle in dieser Transformation spielen Grafikprozessoren (GPUs), deren Bedeutung bei der Bearbeitung von Workloads für das Training und die Inferenz von KI-Modellen weiter zunimmt. Der GPU-Markt wird in den kommenden Jahren voraussichtlich einen erheblichen Anstieg verzeichnen.
Allerdings gibt es zwei häufig übersehene Komponenten, die genauso entscheidend für die Leistung von KI-Plattformen sind: die Durchsatzkapazität von Speichersystemen sowie die Bereitschaft im Bereich der Cybersicherheit. Diese Elemente sind für die Sicherstellung einer insgesamt robusten KI-Infrastruktur unerlässlich.

Die Lücke schließen: Speichersysteme müssen mit der GPU-Geschwindigkeit Schritt halten

Moderne KI-Modelle verarbeiten gewaltige Datensätze, und ihre Effektivität hängt zunehmend davon ab, wie effizient Daten an GPU-Cluster geliefert werden können. GPUs, die mit umfangreichen internen Speicherkonfigurationen sowie Technologien für Hochgeschwindigkeitsnetzwerke ausgestattet sind, verdeutlichen die Notwendigkeit, dass externe Speichersysteme weit über das hinausgehen müssen, was traditionelle Lösungen leisten können. Da jede GPU typischerweise etwa 2 GB pro Sekunde an Daten Throughput liefern kann, erfordert eine Konfiguration mit 8 GPUs etwa 16 GB pro Sekunde – Anforderungen, die in größeren KI-Superclustern exponentiell steigen. Die Priorität liegt daher nicht nur auf der reinen Speicherkapazität, sondern auch auf der Effizienz des Datendurchsatzes.

Dateisysteme, Object Storage und GPU Direct

POSIX-konforme Dateisysteme stellen nach wie vor die Grundlage für KI-Workflows dar, insbesondere in Verbindung mit Technologien, die einen direkten Datenaustausch zwischen Speicher und GPU-Speicher ermöglichen und so CPU-Flaschenhälse vermeiden. Dennoch ist ein Wandel zu beobachten: Object Storage gewinnt zunehmend an Bedeutung – insbesondere in Cloud-Umgebungen, in denen hochskalierbare Anbieter Objektspeicher intensiv nutzen. Aufgrund der Skalierbarkeit und des geringeren Overheads im Vergleich zu traditionellen Dateisystemen deutet einiges darauf hin, dass bald ein object-native Zugriffsverfahren für GPU-Direct zum Standard wird.
Analysten haben in jüngsten Studien die Vorteile von Object Storage für die Verarbeitung von KI-Modellen thematisiert. Echtzeit-Inferenz-Workloads, die auf schnelle „In-Memory“-Verarbeitung von Modell-Tokens angewiesen sind, eignen sich jedoch weniger für groß angelegte externe Speichersysteme. Diese Anwendungen erfordern eine extrem niedrige Latenz sowie eine speichernahe Rechenleistung, was den Bedarf an Speicherarchitekturen unterstreicht, die auf spezifische Anwendungsfälle fein abgestimmt sind.

Speicher: (Noch immer) ein blinder Fleck in den Strategien von KI-Teams

Trotz seiner Allgegenwart wird Speicher oft von KI- und Data-Science-Teams weniger priorisiert. Viele Projekte verlassen sich weiterhin auf traditionelle Infrastrukturen, obwohl neuere Lösungen speziell für KI-Workloads entwickelt wurden. Da KI-Modelle zunehmend komplexer und datenintensiver werden, ist der Bedarf an skalierbarem, leistungsstarkem Speicher entscheidend. Disaggregierte Speicherarchitekturen, die Speichermodule von Rechenressourcen trennen, ermöglichen eine unabhängige Skalierung und eine effiziente Ressourcennutzung, die den hohen Leistungsanforderungen moderner KI-Anwendungen gerecht werden.

Der andere Engpass: Sicherheit in Hochleistungs-KI-Umgebungen

Während die Leistung im Vordergrund steht, wird die Sicherheitslage von KI-Infrastrukturen zunehmend wichtiger. Dies gilt insbesondere, wenn Workloads in Multi-Tenant- und Cloud-native Umgebungen migrieren. Technologien, die den Datendurchsatz steigern, können auch neue Sicherheitslücken eröffnen. So kann gemeinsam genutzter GPU-Speicher zu unbefugtem Datenzugriff (Leckage) führen und unautorisierten Zugriff zwischen verschiedenen Mandanten ermöglichen. Der direkte Zugriff auf Schnittstellen öffnet zudem Wege für Malware-Injektionen durch Ausnutzung von Speicherpuffer-Schwachstellen. In unzureichend isolierten Umgebungen kann ein kompromittierter Workload eines Mandanten die Integrität anderer bedrohen. Diese Risiken sind insbesondere in Cloud- und High-Performance-Computing (HPC)-Kontexten verstärkt, in denen Hardware virtualisiert und zwischen mehreren Nutzern geteilt wird.

KI-Workloads sichern: Ein strategischer Rahmen

Um KI-Workloads in HPC-Umgebungen effektiv zu sichern, müssen Unternehmen über statische, perimeterbasierte Sicherheitsmechanismen hinausgehen und auf infrastrukturell tiefgehende, arbeitslastenbewusste Sicherheitsstrategien setzen. Dies erfordert ein widerstandsfähiges Framework, das Sicherheit in den Kern der KI-Infrastruktur integriert. Zu den Schlüsselkomponenten gehört die Implementierung von granularen Zugriffskontrollen, die strikte, identitätsbasierte Richtlinien zur Steuerung des Zugriffs auf GPUs und Speicherressourcen durchsetzen.
Ebenso entscheidend ist der Einsatz umfassender Verschlüsselungsprotokolle, die Daten über den gesamten Lebenszyklus hinweg schützen – im Ruhezustand, während der Übertragung und, wenn technisch möglich, während der Verarbeitung – unter Verwendung fortschrittlicher Technologien wie homomorpher Verschlüsselung sowie Trusted Execution Environments (TEEs).
Darüber hinaus sollten Organisationen softwaredefinierte Speicherarchitekturen einführen, die von Natur aus widerstandsfähig sind und Cyber-Abwehrmechanismen wie Datenunveränderlichkeit, WORM-Funktionen (Write-Once-Read-Many) und Echtzeit-Anomalieerkennung integrieren. Schließlich sollten Object Storage-Lösungen mit Sicherheitsdesign Priorität genießen, insbesondere in Cloud-nativen Bereitstellungen, da sie native Telemetrie, integrierte Bedrohungserkennung und automatisierte Wiederherstellungsabläufe bieten, um die Datenintegrität und -verfügbarkeit unter widrigen Bedingungen sicherzustellen.

Schnell voran – aber mit Bedacht: Das Gleichgewicht zwischen Geschwindigkeit und Sicherheit

Während KI-Plattformen in Größe und Komplexität wachsen, muss der Kompromiss zwischen Leistung und Sicherheit neu gedacht werden. In der Realität können sich Unternehmen nicht mehr leisten, das eine auf Kosten des anderen zu priorisieren – vielmehr sind beide unentbehrlich. Die Zukunft der KI-Infrastruktur liegt in Hochdurchsatz-, Low-Latency-Speichersystemen, die zunehmend auf Object Storage-Paradigmen mit direkter GPU-Integration basieren und durch moderne, adaptive Maßnahmen der Cybersicherheit gehärtet werden. Nur Unternehmen, die ihre Strategien zur Infrastruktur tatsächlich mit dieser Vision in Einklang bringen, werden in der Lage sein, die transformative Kraft von KI sicher und nachhaltig zu nutzen.
Paul Speciale ist Chief Marketing Officer (CMO) bei Scality, einem Unternehmen, das sich auf cyber-resistente Datenspeicherlösungen spezialisiert hat. In dieser Funktion leitet er die globale Marketingorganisation des Unternehmens, die sowohl das Produkt- als auch das Unternehmensmarketing umfasst. Er verfügt über mehr als 20 Jahre Branchenerfahrung und hatte zuvor Führungspositionen bei Unternehmen wie Appcara, Amplidata und Savvis inne.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

52627

share

Artikel teilen

Top Artikel

Ähnliche Artikel