Sicherheit nicht in die Hand von Automaten legen

bei

 / 4. July. 2018

Warum künstliche Intelligenz nützlich, aber kein Allheilmittel ist

Kaum eine Diskussion über IT-Trends ohne das Thema künstliche Intelligenz (KI): Von autonomen Fahrzeugen über intelligente Chatbots bis hin zu smarter Cybersecurity wird die Zukunft in rosigen Bildern gemalt – während Probleme kaum zur Sprache kommen. Machine Learning oder künstliche neuronale Netze werden gewiss vieles verändern, doch eine Lösung für alle Probleme sind sie keineswegs. Erhalten solche Systeme zu viel Macht, könnte das sogar verheerende Folgen haben.

2017 hatte der Markt rund um künstliche Intelligenz einen Wert von rund 16 Milliarden US-Dollar. 2025 soll dessen Volumen laut Prognosen von MarketsandMarkets auf 190 Milliarden US-Dollar ansteigen. Das allein zeigt, welche immensen Erwartungen an die Technologie gestellt werden. Doch bleibt eine wichtige Erkenntnis auf der Strecke: Auch KI ist nur eine Technik, die neben vielen Vorteilen auch Fehler und Grenzen hat. Sie wird daher auch nicht alle unsere Probleme lösen – gut möglich, dass sogar ganz neue entstehen. Gerade in sicherheitskritischen Bereichen muss ganz klar festgelegt werden, an welche Schalter die KI ran darf und welche ihr verwehrt bleiben.

Das hat insbesondere zwei Ursachen: Einerseits ihre doppelte Rolle als Tool, das gleichermaßen von den Guten wie von den Bösen eingesetzt werden kann. Andererseits ihre undurchsichtigen Entscheidungsprozesse, die aufgrund ihrer Blackbox-Architektur immer einen gewissen Unsicherheitsfaktor darstellen. Denn von einer KI getroffene Entscheidungen sind von ihrer Entstehung her nicht zurückzuverfolgen. Horrorszenarien, wie sie der verstorbene Astrophysiker Stephen Hawking oder der Tech-Guru Elon Musk verlautbarten, sind eher unwahrscheinlich. Man sollte allerdings einen realistischen Blick bewahren und sich den Vor- sowie Nachteilen bewusst sein. Dann kann die Technologie auch in der Cybersicherheit einen sinnvollen Beitrag leisten.

Ein Schleier des Nichtwissens

Computerprogramme agieren traditionell nach fest vorgegebenen Mustern, je nachdem welche Regeln für ihre Algorithmen aufgestellt wurden. In diesem Rahmen ist ihre Entscheidungsfindung stark eingeschränkt, aber auch klar vorhersehbar. Künstliche neuronale Netze sind dagegen bereits in ihrem Aufbau wesentlichen komplexer. Eine Schicht von digitalen „Neuronen“ verarbeitet die ihnen zugeführten Informationen und leitet das Ergebnis an die nächste Schicht, die wiederum neue Schlüsse zieht. Der Vorgang kann hunderte Schichten umfassen – am Ende steht ein Ergebnis, das auf Tangens-, Sinus- und Cosinus-Berechnungen basiert und zudem von der Gewichtung der einzelnen Neuronen abhängt. Allein der Vorgang ist bereits überaus kompliziert. Hinzu kommt, dass diejenigen, die ein solches System nutzen, in der Regel nicht die gleichen sind, die es entworfen haben – so sind ihnen weder dessen Grenzen noch dessen Möglichkeiten bekannt. Und wie und weshalb ein bestimmtes Ergebnis zustande kam, ist demzufolge für sie auch nicht mehr nachvollziehbar.

Warum sollten wichtige, sicherheitskritische Entscheidungen einem System überlassen werden, deren Entstehungsprozess unbekannt ist? Da man sich hierbei ähnlich John Rawls Theorie in einem Schleier des Nichtwissens wiederfindet, ist es besser, kein allzu großes Risiko einzugehen. Denn selbst eine KI kann zu Vorurteilen neigen. Während die Benachteiligung dunkelhäutiger Frauen bei einer Misswahl sicher unangenehm aber noch eher unkritisch für die Sicherheit erscheint, können vorurteilsbehaftete Entscheidungen bei der Strafverfolgung gefährliche Konsequenzen haben: Wer der KI nach die „falsche“ Hautfarbe hat oder aus der „falschen“ Wohngegend kommt, gerät in den Fokus der Justiz, ohne etwas begangen zu haben. So ist ein offensichtlich rassistisch agierender Algorithmus keineswegs eine objektive Instanz. Auch in unseren Breitengraden findet bereits das sogenannte Predictive Policing statt – und macht Fehler. Wegen eines solchen Schleiers des Nichtwissens dürfen kritische Entscheidungen erst gar nicht in die Hände einer künstlichen Intelligenz gelangen.

Maschine gegen Maschine

Eine zweite Gefahr KI blauäugig für die Cybersecurity zu nutzen, liegt darin, dass Technologie immer von beiden Seiten genutzt werden kann – Sicherheitsteams auf der einen und Hacker auf der anderen Seite. So weist auch der gemeinsam von 26 Wissenschaftlern verfasste Bericht „The Malicious Use of Artificial Intelligence“ auf diese Gefahren der Technologie hin. Das bereits stattfindende Wettrüsten in der IT-Sicherheit würde ganz neue Dimensionen erreichen: Nicht nur IT-Experten stünden sich dann gegenüber – auch deren KI-Systeme würden sich erbittert bekämpfen. Erhielten diese dann womöglich noch freie Hand, wäre die Dynamik der Folgen überhaupt nicht absehbar.

Denkbar wäre etwa eine Hacker-KI, die die hauseigene KI in die Irre führt: Mit einem einfachen Trick wie einer virtuellen Brille könnte diese beispielsweise die Gesichtserkennung der Mitarbeiter manipulieren – und damit womöglich den Einlass verwehren. Ebenfalls möglich wäre eine KI, die in einer bereits kompromittierten Umgebung zum Einsatz kommt und diesen Zustand als „normal“ einstuft. Sie dürfte dann probieren, im Rahmen ihrer Möglichkeiten den Status Quo irgendwie zu erhalten. So könnte selbst das interne Sicherheitsteam bei dem Versuch, Änderungen am System vorzunehmen, als Feind eingestuft werden. Und da keine Organisation absolut sicher sein kann, nicht bereits gehackt worden zu sein, ist mit toxischen Infrastrukturen jederzeit zu rechnen.

Zauberlehrlinge in der IT-Sicherheit

Es gehört eigentlich zur traurigen Realität der IT-Security, dass die beiden Ursachen für die meisten Probleme seit etlichen Jahren wohlbekannt sind. So sorgt ein unzureichendes Patch-Management dafür, dass Lücken nicht zur rechten Zeit geschlossen werden. Daneben offenbart wieder einmal der aktuelle Verizon Data Breach Investigations Report 2018, dass gestohlene Zugangsdaten (Passwörter) mit weitem Abstand die Hauptursache für Kompromittierungen darstellen. Man kann es nicht oft genug wiederholen: Passwörter waren schon immer unsicher und werden in Zukunft sogar immer unsicherer. Sie sind häufig leicht zu erraten, wie das Hasso-Plattner-Institut für 2017 anhand der Lieblingspasswörter der Deutschen wieder eindrucksvoll bestätigte, oder sie sind für wenige Dollar im Darkweb zu kaufen – samt E-Mail-Adresse und Benutzername. Nicht zuletzt verraten User leichtfertig ihre Passwörter mittels Social Engineering. Glücklicherweise haben einige Anbieter – darunter etwa E-Mail-Betreiber wie Gmail oder Yahoo sowie Social-Media-Portale wie Facebook oder Twitter – die Gefahr mittlerweile erkannt und bieten ihren Kunden eine Zwei-Faktor-Authentifizierung (2FA) an.

Würden jedoch Formen der Multi-Faktor-Authentifizierung (MFA) endlich flächendeckend und zwingend zum Einsatz kommen, könnten damit bereits die meisten Datenlecks verhindert werden: Es ist deutlich schwieriger, einen weiteren Faktor zu knacken, der beispielsweise in Form eines Hardware- oder Softwaretokens nur im Besitz des autorisierten Nutzers ist. Stattdessen wird versucht, mittels populär-klingender Technologien wie KI ein Problem zu lösen, das längst ohne große Schwierigkeiten mit bewährten Methoden behoben werden könnte. So nehmen einige die Gefahr in Kauf – gleich Goethes Zauberlehrling – die Geister, die sie riefen, womöglich nicht mehr los zu werden.

Der Mensch hat die Leitung, die KI assistiert

Neben den Problemen und Schwierigkeiten, die aus dem schlecht durchdachten Gebrauch von künstlicher Intelligenz entstehen, gibt es absolut sinnvolle und kluge Anwendungsmöglichkeiten der Technologie. Als Hilfsmittel kann sie hervorragende Dienste leisten. Die Analyse großer Datenmengen ist beispielsweise ein Bereich, den schlaue Algorithmen besser erledigen als jeder Mensch. Nur am Ende sollten wieder Experten aus Fleisch und Blut die Entscheidung treffen, wie die Ergebnisse der Analyse zu bewerten sind. Auch im Kampf gegen Viren, Malware oder andere Cyberschädlinge kann die Technologie wertvolle Unterstützung bieten, indem sie Gefahren erkennt und wichtige Hinweise liefert.

Als Assistenzsysteme leisten KI-Lösungen auch in vielen anderen Bereichen beeindruckende Arbeit: vom Autopilot im Flugzeug über die Spurhaltung beim PKW bis hin zu Zelluntersuchungen in der Medizin. Solange jedoch Unbekannte wie die Blackbox-Problematik nicht gelöst sind, Algorithmen aus ungefilterten Daten Diskriminierung lernen und bereits minimale Abweichungen zu völlig falschen Einschätzungen führen, sollten Menschen das Steuerrad nicht aus der Hand geben. Im Zweifelsfall ist der gesunde Menschenverstand zusammen mit dem Bauchgefühl ein besserer Ratgeber als ein seelenloser Algorithmus, der uns noch nicht einmal verraten kann, weshalb er zu einer bestimmten Einschätzung gekommen ist.

Der Autor: Dr. Amir Alsbih ist Geschäftsführer von KeyIdentity. Das Unternehmen mit Sitz in Weiterstadt wurde 2002 gegründet und bietet hoch skalierbare und schnell einsetzbare Identity- und Access-Management-Lösungen (IAM) für die Absicherung und Verwaltung digitaler Identitäten in Netzwerk- und Cloud-Umgebungen. Vor seiner Tätigkeit bei KeyIdentity lehrte Dr. Alsbih unter anderem mehrere Jahre an der Albert-Ludwigs-Universität Freiburg in den Bereichen der angewandten Informationssicherheit und digitalen Forensik.

Vorheriger ArtikelCEBIT 2018: erfolgreicher Neustart?
Nächster ArtikelKünstliche Intelligenz: Möglichkeiten und Grenzen