IoT und AI: Eine Co-Evolution

bei

Internet der Dinge (IoT)
 / 20. February. 2018

Das Internet der Dinge und künstliche Intelligenz gehören zu den beherrschenden Innovationstrends der letzten Jahre. Beide haben aufgrund der schnellen technologischen Entwicklung einen gewissen Reifegrad erreicht und zu ersten praktischen Anwendungen geführt, kämpfen aber nach wie vor mit diversen Herausforderungen und Unzulänglichkeiten. Obwohl beide Trends in aller Ausführlichkeit diskutiert werden, wird der enge Zusammenhang dieser Technologien seltener betrachtet. Dabei könnten gerade die Wechselwirkungen für ihren Erfolg entscheidend sein.

Internet of Things: Der mühsame Weg von der Vision zur Realität

Die Kernidee hinter dem Internet der Dinge ist, dass sehr kleine und miteinander vernetzte Computer zu Bestandteilen von Gegenständen und der Umgebung werden. Damit wird letztlich der Computer als Gerät verschwinden.

Umgekehrt könnte man auch sagen, dass Computer als integrale Komponenten in der menschlichen Umwelt allgegenwärtig werden (Ubiquitous Computing). Diese aus den 90er Jahren stammende Vision wird zunehmend real. Die steigende Rechenleistung ist einer der Treiber dieser Entwicklung. Auch die verbesserte Energieeffizienz und die allgegenwärtige Konnektivität tragen dazu bei. Schließlich verfügen wir heute über eine neue Generation von hochintegrierten und multimodalen Sensoren, Big-Data-Systemen sowie leistungsfähiger Cloud-Dienste.

Es gibt aber noch viele Probleme zu lösen. Sicherheitsprobleme, fehlende Standards oder mangelnde Kompatibilität durch proprietäre Protokolle gehören dazu. Zudem wird der beschränkte Gesamtnutzen der momentan meist noch inselartigen Lösungen kritisch betrachtet. So spricht mancher aktuell gar vom „Internet of Shitty Things“.

Ein wirklich funktionierendes und sinnhaftes Netz der Dinge ist enorm komplex: Es besteht nicht nur aus vielen unterschiedlichen Komponenten, sondern ist vor allem auch dezentral organisiert. Zudem erfordert es vielfältige neue Formen der Interaktion mit Menschen.

Herkömmliche Nutzerinterfaces – wie Touchscreens – sind häufig kein gangbarer Weg mehr. Dies liegt zum einen schlicht am benötigten Platz und dem vergleichsweise hohen Stromverbrauch solcher Komponenten. Zum anderen sind natürlichere Interaktionsformen das erklärte Ziel. Dafür müssen IoT-Lösungen intelligent agieren, unter anderem in dem sie Kontext verstehen. Diese Erwartung äußert sich auch darin, dass das Wort „Smart“ in praktisch allen Anwendungsfällen von IoT auftaucht: Man spricht auf Netzebene beispielsweise von Smart Grids, Smart Cities, Smart Mobility, Smart Home oder Smart Manufacturing und auf Geräteebene von Smart Speakern, Smart Wearables und Smart Phones.

Artificial Intelligence: Der erste Sommer

Der aktuelle Hype ist nicht der erste in der mittlerweile fast siebzigjährigen Geschichte der künstlichen Intelligenz. In der Vergangenheit gab es immer wieder kurzfristige Erfolge in Laborsituationen, die zunächst für Durchbrüche gehalten wurden, sich dann aber in der praktischen Anwendung als herbe Enttäuschung erwiesen. Dies hat anschließend immer wieder zur weitgehenden Einstellung der Forschungsaktivitäten geführt – den sogenannten AI-Wintern. Die Situation ist diesmal anders: Der massive Fortschritt der sogenannten neuronalen Netzwerke hat zum ersten Mal in der Breite zu praktisch anwendbaren Lösungen geführt. Insbesondere in der Bilderkennung (Computer Vision), der Sprachverarbeitung (Speech Recognition) und dem Textverstehen (Natural Language Understanding) sind diese Technologien sogar bereits in den Wohnzimmern angekommen – beispielsweise in Form von Smart Speakern. So kann heute jedermann mit dem Amazon Echo Look nicht nur sprechen. Dieser kann sein Gegenüber sogar sehen und daher auf Basis des aktuellen Outfits Modetipps geben.

Diese Technologie ist universell einsetzbar und wird unter anderem erfolgreich zum Data Mining, zum Erlernen von Spielen (z.B. Googles AlphaGo) und zum Verbessern oder Erzeugen von Bildern genutzt. Es geht hierbei aber nicht um künstliche „Intelligenz“ im eigentlichen Sinne, sondern um einen kleinen Teilbereich der AI – nämlich um maschinelles Lernen (ML).

Neue Architekturen für neuronale Netzwerke, sogenannte Deep Neural Networks (DNNs), verbunden mit der mittlerweile zur Verfügung stehenden Rechenleistung und der Speicherkapazität, haben zu einem Paradigmenwechsel geführt: Hartnäckige, komplexe und hochdimensionale Probleme, die die Informatik trotz jahrzehntelanger Anstrengungen bisher algorithmisch nicht zufriedenstellend in den Griff bekam (z.B. Spracherkennung), können jetzt plötzlich gelöst werden. Und zwar indem ein System mit Beispielen trainiert wird und so selbstständig Zusammenhänge erlernt. Daraus resultierend kann dieses System anschließend auch für unbekannte Eingaben die richtigen Ergebnisse liefern. Aber genau in diesem Training steckt auch eine der Herausforderungen der neuen Technologien – sie benötigen Unmengen an qualitativ hochwertigen Trainingsdaten.

AI braucht IoT

Eine der zentralen Voraussetzungen für Machine Learning ist also die Verfügbarkeit von digitalen Daten. Nicht umsonst gehört beispielsweise die Bilderkennung zu den ersten erfolgreichen Anwendungsgebieten: Es gibt mittlerweile unzählige kategorisierte oder mit Text annotierte, digitale Bilder – z.B. aus den sozialen Netzwerken oder Suchmaschinen. Ebenfalls gehören Übersetzungen zu den Vorreitern des Machine Learning. Digital vorliegende Texte, wie etwa die Dokumente der Europäischen Union mit ihren 23 Amtssprachen, können als Trainingsdaten genutzt werden.

Der erfolgreiche Einsatz von KI in anderen Bereichen wie dem autonomen Fahren hängt ebenfalls von der verfügbaren Datenmenge ab – zum einen für das Training der Modelle, zum anderen aber auch für die Steuerung des Fahrzeugs in Echtzeit. Dafür werden unterschiedlichste Sensoren benötigt, die solche Daten in benötigter Menge, Geschwindigkeit, Qualität und Auflösung liefern können. IoT-Netzwerke gehören damit zu den wichtigsten Enabler für den Einsatz von künstlicher Intelligenz im physikalischen Raum.

IoT braucht AI

Auch ein funktionierendes Internet der Dinge ist ohne einen gewissen Grad an „künstlicher Intelligenz“ schwer vorstellbar oder würde letztlich nur enttäuschend einfache und starre – weil programmierte – Anwendungsfälle ermöglichen. Doch große Datenmengen zu verarbeiten, darin Zusammenhänge und Muster zu erkennen und komplexe Steuerungen zu realisieren, sind die Paradedisziplinen von Machine Learning. Um IoT intelligenter zu machen, können diese Funktionalitäten auf verschiedenen Ebenen des Systems zur Anwendung kommen:

  1. Verarbeitung von Sensordaten
    Moderne, hochintegrierte Mehrfachsensoren sowie Kameras und Mikrofone liefern viele Rohdaten, aus denen idealerweise schon im entsprechenden IoT-Gerät die entscheidenden Informationen gefiltert oder vorverarbeitet werden können (z.B. Entfernungssensoren, die bereits Messfehler glätten oder Überwachungskameras, die nicht mehr ein Bild, sondern strukturierte Daten über erkannte Objekte liefern). Das macht nicht nur die Nutzung von schmalbandigen Verbindungen effizienter, sondern verhindert auch Latenzen – also Verzögerungen, die entstehen, wenn große Datenmengen an eine zentrale Instanz übertragen werden müssen. Diese Instanzen müssen diese Daten dann noch verarbeiten, Entscheidungen treffen und Steuerungsbefehle in die umgekehrte Richtung geben – das addiert sich schnell zu Zeiten, die aufgrund des Echtzeitcharakters vieler IoT-Systemen problematisch sind. Je intelligenter die Komponenten eines Netzwerkes sind, desto robuster und schneller kann es funktionieren und desto mehr Anwendungsmöglichkeiten gibt es.
  2. Steuerung des Gesamtsystems
    Da ein wesentlicher Mehrwert von IoT in der Zusammenarbeit seiner Komponenten besteht, müssen Daten zusammengeführt und darin Muster und Zusammenhänge erkannt werden. Die einzelnen Komponenten liefern nur Informationen über einen kleinen Teilaspekt der Welt. Deshalb ist ein Kontext zu bilden, in dem eingehende Informationen interpretiert und basierend darauf Aktionen ausgelöst werden können.
  3. Neue Benutzerschnittstellen
    Da Rechner miniaturisiert und etwa in Alltagsgegenstände integriert werden, sind – wie bereits erwähnt – herkömmliche Nutzerinterfaces keine adäquaten Lösungen mehr. Stattdessen tritt die unmittelbare Interaktion des Nutzers mit dem Gerät in den Vordergrund, beispielsweise durch Annäherung, Positions- oder Lageänderung, Gestik oder Mimik oder auch durch sprachbasierte Interfaces. Gerade letztere haben großes Potenzial, weil sie universell sind und über Dialoge komplexe aber natürliche Interaktion ermöglichen – sogar über eine gewisse Distanz. Zudem sind Conversational Interfaces auch relativ einfach in kleineren Geräten integrierbar.

Das Internet der Dinge wird nur erfolgreich sein, wenn grundlegende Probleme wie Interoperabilität und Sicherheit gelöst werden. Vor allem aber muss es letztlich tatsächlich „smart“ sein. Die aktuellen Entwicklungen der AI liefern dafür neue Möglichkeiten und Werkzeuge. Insbesondere, weil Machine Learning optimal geeignet ist, um Zusammenhänge und Muster in großen Datenmengen zu erkennen und bereits ausgereifte Technologien für IoT-kompatible Benutzerschnittstellen zur Verfügung stellen. Umgekehrt steht AI vor dem entscheidenden Sprung von der rein virtuellen zur realen, physikalischen Nutzung, die erst durch IoT-Systeme möglich gemacht wird. Diese Co-Evolution beider Technologien wird sehr wahrscheinlich zu einer Beschleunigung der Entwicklung in beiden Bereichen führen.

Uwe Weber, Autor des Artikels über Edge Computing.

Der Autor: Felix Heimbrecht ist Senior Director Technology bei Publicis.Sapient und Co-Lead des Innovationslabors „Emerging Experiences“. Der Experte für die Konzeption und Implementierung digitaler Services hat langjährige Erfahrungen im Bereich Produkt- und Serviceinnovation und eine besondere Leidenschaft für Rapid Prototyping.

Vorheriger ArtikelIndustrial Internet of Things: Wie der Fertigungsablauf mittels Edge Computing intelligent gesteuert wird
Nächster ArtikelIoT – neue Handlungsfelder für die Landeshauptstadt München