Ist durch Quantum Computing eine „Artificial general intelligence“ in absehbarer Zeit realistisch?

Von   Alexander Eser   |  Co-Founder & Managing Director   |  kaufberater.io
21. Juni 2019

Quantencomputer sind eine relativ neue Technologie, die wegweisende Wissenschaftler, Forscher und Unternehmer auf der ganzen Welt versuchen zu kommerzialisieren. Im Januar 2019 stellte IBM zum Beispiel mit dem „Q System One“ [1] den ersten eigenständigen Quantencomputer für wissenschaftliche und kommerzielle Zwecke vor. Durch die Quantencomputer beschleunigt sich der Fortschritt in der Entwicklung der künstlichen Intelligenz (KI). Quantencomputer verbessern nicht nur die Leistung der Informationsverarbeitung, sie machen auch KI-Techniken wie „Deep Learning“ und „Machine Learning“ erst möglich.

(Bild: TheDigitalArtist / Pixabay.com)

Quantencomputer, künstliche Intelligenz und Big Data

Quantencomputer verwenden eine Technologie, die auf den Prinzipien der Quantentheorie basiert, welche die Natur von Energie und Materie auf atomarer und subatomarer Ebene erklärt. Es beruht auf der Existenz quantenmechanischer Phänomene wie Überlagerung und Verschränkung. Erwin Schrödingers berühmtes Gedankenexperiment aus den 1930er Jahren, bei dem eine Katze gleichzeitig tot und lebend war, sollte die scheinbare Absurdität der Überlagerung hervorheben. Nach diesem Prinzip können Quantensysteme gleichzeitig in mehreren Zuständen existieren, bis sie beobachtet oder gemessen werden.

Heutzutage enthalten Quantencomputer Dutzende von Qubits (Quantenbits), die genau dieses Prinzip nutzen. Jedes Qubit existiert in einer Überlagerung von Null und Eins. Das heißt, die Wahrscheinlichkeiten haben eine Null oder Eins, bis das Qubit gemessen wird. Die Entwicklung von Qubits hat Auswirkungen auf den Umgang mit riesigen Datenmengen und das Erreichen eines bislang unerreichten Recheneffizienzniveaus, das das verlockende Potenzial des Quantencomputers darstellt.

Während Schrödinger über Zombie-Katzen nachdachte, beobachtete Albert Einstein ein Phänomen, das er als „spukhafte Fernwirkung“ bezeichnete: Partikel, die scheinbar schneller als mit Lichtgeschwindigkeit kommunizieren. Was er sah, waren verschränkte Elektronen in Aktion. Verschränkung bezieht sich auf die Beobachtung, dass der Zustand von Partikeln aus demselben Quantensystem nicht unabhängig voneinander beschrieben werden kann. Auch wenn sie weit voneinander entfernt sind, sind sie immer noch Teil desselben Systems. Wird ein Teilchen gemessen, scheint der Rest diese sofort zu wissen.

Der Fortschritt im Bereich der Informatik hängt entscheidend von der Rechenleistung ab. Die rechnerischen Anforderungen der Big-Data-Analyse belasten Computersysteme derzeit erheblich. Seit 2005 wurde der Fokus auf die Parallelität mit mehreren Kernen anstelle eines einzigen schnellen Prozessors verlagert. Viele Big-Data-Probleme können jedoch nicht einfach durch die Verwendung von immer mehr „Cores“ gelöst werden. Zur Aufteilung der Arbeit werden mehrere Prozessorkerne verwendet, die Implementierung ist jedoch komplex. Die Probleme müssen nacheinander gelöst werden, wenn der vorangehende Schritt ebenso wichtig ist.

Der Unterschied zwischen klassischen Computern und Quantencomputern

Klassische Computer [2] sind binär. Das heißt, bei ihnen kann ein Bit nur zwei Zustände annehmen: 0 oder 1. Nimmt man das Beispiel mit Schrödingers Katze, können subatomare Teilchen gleichzeitig unzählige Zustände aufweisen. Stellt man sich eine Kugel im binären Zustand vor, wäre der obere Pol zum Beispiel eine 1, während der untere Pol durch eine 0 dargestellt wird. In einem Qubit kann die gesamte Kugel unzählige andere Zustände enthalten. Die Zuordnung dieser Zustände auf verschiedene Qubits machen Quantencomputer für eine Vielzahl spezifischer Aufgaben geeignet, die mit klassische Computern nicht möglich sind.

Beim Large Hadron Collider (LHC) am CERN in Genf werden Teilchen beschleunigt und bewegen sich mit fast Lichtgeschwindigkeit innerhalb eines 27-km-Rings. Dabei finden in einer Sekunde 600 Millionen Kollisionen stattfinden, bei denen nur eine der 1 Millionen Kollisionen für die Vorauswahl ausgewählt wird. Bei der Vorauswahl wird nur 1 von 10.000 Ereignissen an ein Raster von Prozessorkernen weitergeleitet, die weiterhin 1 von 100 möglichen Ereignissen auswählen, wodurch der Datenprozess bei 10 GB/s erfolgt. Bei LHC werden pro Sekunde 5 Billionen Datenbits erfasst. Nachdem 99% der Daten verworfen wurden, werden immer noch 25 Petabyte Daten pro Jahr analysiert.

Zu den Stärken der Quantencomputer gehört die Verarbeitung riesiger Datenmengen, doch bei den derzeitigen Ressourcen steckt die Anwendung von Big Data noch in den Kinderschuhen. Wenn es technisch möglich ist, wären Quantencomputer für die Berechnung für bestimmte Aufgaben sehr nützlich, zum Beispiel beim:

  • Factoring großer Zahlen
  • Kryptographie
  • Wettervorhersagen
  • Künstliche Intelligenz
  • Schnelles Durchsuchen großer unstrukturierter Datensätze
  • Finden und identifizieren von Mustern und Anomalien

Die Entwicklungen bei Quantencomputern könnte die Verschlüsselung im Handumdrehen überflüssig machen. Mit der Rechenleistung eines Quantencomputers wäre es möglich, große Datensätze zu erstellen, die wahrscheinlich vollständige Informationen enthalten, wie zum Beispiel die genetische Daten eines jeden Menschen, die existieren. Algorithmen für maschinelles Lernen können Muster in den Eigenschaften dieser Menschen finden und gleichzeitig die Identität von Menschen schützen. Auch das Clustering und die Klassifizierung von Daten wäre eine sehr schnell zu lösende Aufgabe.

Quantum Computer lösen komplexe Probleme sehr schnell

Führende Technologie-Firmen sind kurz davor kommerziell einsetzbare Quantencomputer herzustellen. Mit diesen Quantencomputern ist es möglich, Berechnungen in Sekundenschnelle durchführen, für die heutige Computer tausende von Jahren benötigen würden. Bereits jetzt entwickelt Google einen Quantencomputer, der angeblich 100 Millionen Mal schneller ist als alle heutigen Systeme. Dies wird entscheidend sein, wenn wir die enorme Datenmenge verarbeiten und sehr komplexe Probleme lösen können.

Der Schlüssel zum Erfolg ist die Umsetzung unserer Probleme in die Quanten-Sprache. Künstliche Intelligenz und besonders maschinelles Lernen werden von den Fortschritten der Quanten-Technologie und die schnelle Analyse riesiger Datenmengen enorm profitieren. Während heute Programmierer den Code anpassen muss, um optimale Ergebnisse zu erzielen, entscheiden KI-Algorithmen selbst, ob ein Ergebnis richtig oder falsch ist.

Quantencomputer und künstliche Intelligenz

Fast täglich erreichen uns Meldungen über Fortschritte bei der Entwicklung von Quantencomputern. Es gibt kaum ein wichtiges IT-Unternehmen, das nicht auf diesem Gebiet forscht. Dieses Geschäft werden sich die Technologie-Giganten nicht entgehen lassen. Nach acht Jahren Arbeit hat eine 25-köpfige Gruppe von Google-Ingenieuren einen neuen Quantenchip hergestellt, deren Leistungsfähigkeit sie bis Ende 2019 demonstrieren wollen. Bei Erfolg wird dies ein Benchmark für alle anderen Quantencomputer sein. Seit mehr als 10 Jahren arbeiten Ingenieure bei Microsoft und Intel an einem Quantencomputer auf Silizium-Basis.

Auf dem Quantencomputer IBM Q System One werden bereits erste Quanten-Algorithmen getestet. Das kanadische Unternehmen D-Wave hat bereits erste Quantencomputer an Industrie-Unternehmen verkauft. Auch in Deutschland gibt es zahlreiche IT-Firmen, Universitäten und Forschungsinstitute mit einer hohen Kompetenz im Bereich Quanten-Computing.

Mit einem Quantencomputer, der 100 Millionen Mal leistungsfähiger ist als herkömmliche Computer, könnten wir beispielsweise den gesamten Körper eines Menschen digital simulieren und maßgeschneiderte Medikamente für spezielle Erkrankungen erstellen. Noch wichtiger ist jedoch, dass Forscher einige KI-Agenten auf diesen Quantencomputern erstellen und sie dazu veranlassen, bessere Instanzen ihrer selbst zu schaffen. Quantencomputer öffnen die Tür zur künstlichen Intelligenz.

Der D-Wave Quantencomputer basiert auf einem 512 Qubit-System. Der Chipsatz für die KI muss jedoch nicht von einer großen oder bekannten IT-Firma stammen. Startups versuchen, KI-Chips zu entwickeln, die für künstliche Intelligenz optimiert sind, um ein Stück von diesem Kuchen zu bekommen.

Die Komplexität und Größe unserer Datensätze wächst schneller als unsere Computerressourcen und stellt daher eine erhebliche Belastung für unsere Computerstruktur dar. Während die heutigen Computer Schwierigkeiten haben oder nicht in der Lage sind, bestimmte Probleme zu lösen, können dieselben Probleme durch leistungsfähige Quantencomputer in Sekundenschnelle gelöst werden. Die Quanten-Technologie bewegt sich mit einer unglaublichen Geschwindigkeit und es ist realistisch, dass in naher Zukunft Technologie-Giganten noch leistungsfähigere Quantencomputer auf den Markt bringen werden. Diese könnten dann ihrerseits zur Verbesserung dieser Systeme eingesetzt werden. Das würde die gesamte KI-Landschaft nachhaltig verändern.

Quellen und Referenzen

[1] https://www.research.ibm.com/ibm-q/system-one/

[2] https://www.computerbibel.de/

 

 

Alexander Eser gründete nach seinem Studium in Berlin, Oslo und Rotterdam das digitale Verbraucher-Magazin Kaufberater.io. Neben digitalen Geschäftsmodellen und Statistik, interessiert er sich vor allem für Fitness, Snowboarden und Reisen.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

21520

share

Artikel teilen

Top Artikel

Ähnliche Artikel