Die Reichweite von Algorithmen

Von   Prof. Dr. Imre Koncsik   |  Professor für Systematische Theologie   |  Phil.-Theol. Hochschule Benedikt XVI. Heiligenkreuz/Wien.
21. Januar 2022

Was ist ein Algorithmus?

1936 war in der Geschichte der Informationstechnologie ein besonderes Jahr: Alan Turing verfasst seinen maßgeblichen Beitrag zum sog. Entscheidungsproblem[1]. Er beweist die prinzipielle Berechenbarkeit von Problemstellungen, die in einer mathematischen Symbolsprache formulierbar sind, durch eine Rechenmaschine. Im selben Jahr baut Konrad Zuse seinen ersten Rechner (Z1), den er noch mit 80 Jahren aus dem Gedächtnis nachbaut[2]. Damit war der theoretische und praktische Grundstein für eine algorithmische Software und Hardware gelegt: das Rechnen erfolgt nach klar definierten Regeln, die den Rechenvorgang determinieren.

Doch was ist ein Rechen-Algorithmus überhaupt? Nach gängiger Definition ist er eine „Handlungsvorschrift“ oder eine „Vorgehensweise“, um ein mathematisches Problem zu lösen. Dabei handelt es sich um ein Regelwerk, das einzelne Regeln zu einer Meta-Regel zusammenfasst. Auf der basalen binären Ebene eines Rechenvorgangs passiert dabei nicht sonderlich viel: eine 0 bleibt eine 0 oder sie wird zu einer 1 umgeschrieben, und eine 1 bleibt eine 1 oder wird zu einer 0 umgeschrieben. Die mathematische Information wird also binär kodiert und nach diesen vier basalen Regeln verarbeitet.

Das gilt auch für Quantenalgorithmen, die grundsätzlich binär arbeiten – unter Ausnutzung von spezifischen Quantenphänomenen, insbes. die Prinzipien der Superposition, der Verschränkung und der instantanen bzw. parallelen Änderung von Quantenzuständen. Dennoch bleibt es dabei: auch der Quantenalgorithmus ist grundsätzlich binär – man denke an die sog. „Nullte Quantisierung“ von Carl Friedrich von Weizsäcker, die binär ist –, weshalb sich folgende grundsätzliche Überlegungen zu Algorithmen auch auf sie generalisieren lassen.

Ein Algorithmus ordnet in diesem generellen Sinn die vier basalen Regeln und fasst sie zu einem Regelkomplex bzw. zu einer Meta-Regel zusammen. Diese Zusammenfassung verschiedener Regeln bzw. Algorithmen hierarchisch zu Meta-Regeln kann prinzipiell weitergeführt werden, so dass sich verschiedene Hierarchieebenen ergeben können. Man beachte dabei die Top-Down-Hierarchisierung bzw. -Determination: die oberste Hierarchieebene bestimmt und ordnet das, was in der darunter liegenden benachbarten Hierarchieebene passiert. Der übergeordnete Meta-Algorithmus ist – in Anlehnung an die Begrifflichkeit von Werner Heisenberg – der „zentrale Ordner“ des informationsverarbeitenden Systems.

Das Problem der Emergenz

Diese oberste Hierarchie-Ebene emergiert nun nicht „von allein“, sie entsteht nicht „aus Nichts“, sondern muss durch den Programmierer vorgegeben werden. Im Unterschied dazu wird von Emergenz immer dann gesprochen, wenn sich ein irreduzibles kollektives Verhalten quasi „aus Nichts“ bzw. „von selbst“ etabliert: so emergiert eine Wasserwelle aus der raum-zeitlich geordneten Synergie der Bewegung von Wassermolekülen als irreduzible oberste Hierarchie-Ebene. Ein weiteres Beispiel für Emergenz ist die erheblich komplexere biologische Zelle, deren komplexe Ordnung und „holistische“ (ganzheitlich-umfassende) top-down Steuerung aus dem raum-zeitlichen Zusammenwirken von Photonen, Atomen, Molekülen und Organellen als oberste Hierarchie-Ebene emergiert.

Hermann Haken, der Vater der Synergetik, spricht dabei bekanntlich von „enslavement“ (Versklavung) der tieferen Hierarchie-Ebene durch die höhere Hierarchie-Ebene i.S. einer „Top-Down Causation“[3]. Das von ihm ursprünglich benutzte Beispiel war das kollektive Verhalten der energetisch angeregten Elektronen beim Laser[4]. Die emergierte höhere Hierarchie-Ebene „wirkt“ per Information, indem es das Zusammenwirken bzw. die Synergie der Systemelemente der unteren Hierarchie-Ebene nicht chaotisch und nicht zufällig ordnet. Umgekehrt erfolgt auch die Emergenz der obersten Hierarchie-Ebene aus der Synergie der Systemelemente geordnet. Das, was demnach geordnet wird, wären bei der Wasserwelle die Wechselwirkungen zwischen den Wassermolekülen bzw. ihre raumzeitliche Bewegung, d.h. ihre Wirkung als Produkt aus Energie und Zeit bzw. Ort und Impuls.

Die Wirkung kann ihrerseits als Informationsübertragung und – verarbeitung durch einen binären Algorithmus formalisiert und abgebildet werden. Bei komplexen biologischen Systemen tritt u.U. eine parallel dazu ablaufende Informationsverarbeitung auf der Quantenebene hinzu, das durch Quantenalgorithmen beschrieben werden kann: vorgeschlagen wurde etwa von Seth Lloyd ein „quantum random walk“ Algorithmus bei der Photosynthese[5].

Ein wichtiges Stichwort wäre hier „Quantum Life“[6]: demnach gibt es bei biologischen Systemen eine verborgene Quantenordnung, die sich durch noch unbekannte Vermittlungswege meso- und makroskopisch manifestiert (sog. „up scaling“-Effekte). Diese Quantenordnung unterliegt den Gesetzen eines dekohärenz-freien Subraums („decoherence free subspace“) inkl. holistischer (i.e. räumlich ausgedehnter), synergetischer (i.e. parallel ablaufender) und synchroner (i.e. gleichzeitiger) Eigenschaften.

Ohne einen emergierten zentralen Ordner bzw. ohne eine verborgene Ordnung, die permanent ein „reverses Feedback“ an die untere Hierarchiebene gibt, kommt es bei komplexen Systemen zum Chaos bzw. zur Un-Ordnung: ein geordnetes kollektives Verhalten kann sich nicht einstellen[7]. Anders ausgedrückt: es kommt nicht zur Emergenz eines „sinnvoll“ ordnenden Meta-Algorithmus „aus dem Nichts“ bzw. aus der Synergie der Algorithmen der unteren Systemebene.

Die Zahl der Möglichkeiten der Emergenz „holistischen“ kollektiven Verhaltens ist dabei astronomisch hoch: sie ist abhängig von der Zahl der Interaktionen, von der Taktfrequenz maximal möglicher Interaktionen und von der Architektur der Vernetzungen. Weitere Parameter sind die Anzahl der Systemkomponenten, die miteinander wechselwirken, sowie die Linearität oder Nicht-Linearität der Interaktionen. Nichtlineare Interaktionen ermöglichen innovatives kollektives Verhalten qua Emergenz. Dafür muss man mit Algorithmen nichtlineares Systemverhalten simulieren.

Geordnete vs. chaotische Emergenz

Edelman und Tononi haben bezogen auf das komplexeste biologische System, das wir kennen: das Gehirn als Produktzustand aus einem neuronalen Netz, aus Gliazellen sowie aus elektrochemischen und biochemischen Steuerungen der neuronalen und zellulären Aktivität, die „Theorie der neuronalen Gruppenselektion“ vorgeschlagen[8]. Die myriaden Möglichkeiten der Emergenz einer komplexen Ordnung begreifen sie als Chance, um zwischen ihnen – nach basalen Regeln, d.h. anhand von Algorithmen – geeignete Möglichkeiten zu selektieren.

Dabei versucht man, die zufällige Selektion durch allgemeine Prinzipien zu kanalisieren, insbes. durch das Ökonomie-Prinzip als Abwandlung des physikalischen Prinzips der kleinsten Wirkung[9] sowie durch das Stabilitätskriterium[10]. Es wird die Möglichkeit positiv selektiert, die die physikalische Wirkung (als Produkt aus Energie und Zeit bzw. aus Ort und Impuls) minimiert und die maximal stabil ist bzw. sich selbst stabilisiert – durch eine komplexe informationelle Ordnung der Wechselwirkungen zwischen den Systemelementen.

Algorithmen allein jedoch können im genannten Sinn nicht zur Emergenz eines solchen Meta-Algorithmus bzw. einer Meta-Ordnung führen: das Ergebnis einer rein zufälligen und chaotischen (nicht top down geordneten) Emergenz ist ein chaotischer Zustand, der weder die Wirkung minimiert noch stabil ist. Er entsteht nicht spontan zusammen mit dem geordneten kollektiven Verhalten und wirkt nicht ordnend darauf zurück. Vielmehr muss ein ordnender Algorithmus vom Menschen a priori vorgegeben werden. Das zentrale Problem dabei ist, dass die grundsätzlichen Möglichkeiten des Systemverhaltens vom Programmierer nicht vollständig antizipiert werden können: es kann immer wieder eine unvorhersehbare neue Situation eintreten, bei der das algorithmische KI-System versagt.

Prinzipielle Voraussetzungen der Anwendbarkeit von Algorithmen

Algorithmen stoßen also bei komplexen Systemen an prinzipielle Grenzen, bes. wenn es um die Erweiterung der KI geht. Das ergibt sich auch aus weiteren grundsätzlichen Grenzen der Anwendung von Algorithmen:

  • Vollständige Abbildbarkeit mathematischer Formalismen durch Algorithmen auf Basis des Berechenbarkeitspostulats: hier kann in Anlehnung an den Unvollständigkeits- bzw. Unentscheidbarkeitsbeweis Kurt Gödels auf grundsätzliche Grenzen der Mathematik und somit von Algorithmen hingewiesen werden[11]: eine vollständige, rekursive und endogene Selbstbegründung finiter Systeme istunmöglich. Die Anwendung von Algorithmen bleibt prinzipiell unvollständig.
  • Das Scheitern des Hilbert-Programms[12], wonach sich die konventionelle Sprache mathematisch nicht vollständig und nicht hinreichend eindeutig formalisieren lässt: daher kann Sprache durch einen Algorithmus auch nicht vollständig und eindeutig abgebildet oderbearbeitet werden.
  • Das sog. Halteproblem der theoretischen Informatik, das ein Analogon der gödelschen Unentscheidbarkeit bezogen auf die Berechenbarkeit darstellt. Auch hier zeigen sich grundsätzliche Grenzen der Anwendung von Algorithmen.
  • Es besteht eine essentielle Differenz zwischen der Beschreibung eines Systems durch Algorithmen (deskriptive Ebene), der Begründung der beschriebenen Realität (kausale Ebene) und der artifiziellen Erzeugung einer Realität. Besonders deutlich wird das nach Edelman bezogen auf das Bewusstsein, dessen hinreichende physikalische und evolutionäre Bedingungen zwar formalisiert und angegeben werden können; dennoch ist das Beschreiben der Emergenz des Bewusstseins nicht dasselbe wie dessen Erzeugung oder Begründung. Insofern sich Algorithmen nur auf die deskriptive Ebene beziehen, impliziert auch das eine prinzipielle Grenze[13].
  • Binäre – oder bei der DNA: quartäre – Kodierung von Information: Ja-Nein-Alternativen können keine Qualia und auch keine (ontologischen) Inhalte abbilden oder erfassen. Daher reichen formalisierende algorithmische Regeln ebenfalls nicht aus, die Qualia resp. die realen Inhalte vollständig abzubilden.
  • Symmetrie vs. Ordnung: Algorithmen bilden physikalische und mathematische Symmetrien ab. Sie können jedoch nicht die Ordnung komplexer Systeme darstellen. So konstituiert eine ungeordnete Ansammlung von DNA-Komponenten, Vesikeln, Molekülen etc. noch keine biologische lebendige Zelle. Ihre komplexe Ordnung ist von einer einfachen Symmetrie grundverschieden. Sie ordnet die Dynamik der nicht zufälligen und nicht chaotischen Selbstordnung der ca. 11 Mrd. Moleküle, die nichtlinear miteinander interagieren. Der erforderliche zentrale Ordner einer biologischen Zelle scheint durch Algorithmen nicht abbildbar zu sein[14].
  • Ein weiteres zentrales Thema ist die Adaptation und Selbstbewertung von Aktionen in der KI: Reinforcement Learning – das sich selbst verstärkende „Lernen“ – konnte die Erwartungen an zugeordnete Algorithmen nicht erfüllen. Eine Selbstbewertung setzt scheinbar mehr voraus als eine noch so geschickte Kombination von Algorithmen und Meta-Regeln; bei neuronalen Netzen geschieht das Reinforcement auf Basis der Back-Propagation bzw. von Bewertungsfunktionen, die extern vom Menschen mit realer Intelligenz dem KI-System vorgegeben werden müssen.
  • In diese Richtung orientiert sich auch die bekannte Grundsatzkritik am sog. „Computerdenken“ von Sir Roger Penrose[15]: letztlich zeigt er auf, dass ein mathematischer Beweis auf einem nicht-algorithmischen und nicht berechenbaren Prozess der geistigen Intuition beruht. Demnach scheint nach Jack Tuszynski das Gehirn kein Computer zu sein – trotz seiner Fähigkeiten zum Rechnen.
  • Schließlich ist zum Sprachverstehen ein nicht-algorithmischer Prozess erforderlich – man denke an das sog. „chinesische Zimmer“ von Searle[16]. Sprach-Algorithmen können eine sprachmächtige Intelligenz nur „schwach“ und begrenzt simulieren. Ein Indiz für die nicht-algorithmische Charakteristik des Sprachverstehens ist auch die Beobachtung, dass – im Gegensatz zur regional begrenzten Aktivität des Gehirns bei syntaktischen Verarbeitungsprozessen – die semantischen Verarbeitungsprozesse beide Gehirn-Hemisphären fast vollständig aktivieren und damit quasi holistisch verlaufen.

Eine trans-algorithmische Zukunft der KI?

Angesichts der aufgezeigten Grenzen der Applikation von Algorithmen – was nicht die Sicht auf ihre enormen Potenziale verstellen soll – können einige Hinweise gegeben werden, in welche Richtung sich KI mittelfristig orientieren kann. Als Beispiel diene die Frage nach dem Verständnis der Emergenz neuronaler Aktivitätsmuster in einem neuronalen oder neuromorphen Netz. Nach Wolf Singer sind im Gehirn „pluripotente Verarbeitungsalgorithmen“ realisiert, die für das Zustandekommen komplexer Muster verantwortlich sind. Sie sollen der Lösung kombinatorischer Probleme dienen[17]. Ähnlich argumentiert Gerald Edelman, der sich der Theorie der neuronalen Gruppenselektion verschrieben hat. Selektion kann algorithmisch abgebildet werden, solange die Selektion zufällig erfolgt. Ebenso kann die Entstehung höherdimensionaler Muster, die mit den neuronalen Aktivitätsmustern oder mit der Anzahl der Aktionspotentiale pro Neuronenpopulation korreliert sind, prinzipiell algorithmisch dargestellt werden.
Doch genau an dieser Stelle könnte man einhacken, da die Emergenz komplexer Systemzustände und -hierarchien in der physikalischen und biologischen Realität nicht durch rein zufällige Selektion zwischen Myriaden Möglichkeiten zu funktionieren scheint. Es bedarf einer massiven Begrenzung der Möglichkeiten emergenter Systemzustände – etwa durch die Definition eines Möglichkeitsraums – sowie der Konvergenz auf sinnvolle Ordnungs-Muster, die die Synergie, d.h. das Zusammenwirken der Systemelemente steuern und koordinieren[18]. Das kann möglicherweise die sog. komplexe Informationsverarbeitung leisten, die sich holistischen, holografischen, nichtlinearen und adaptiven (kreativen und flexiblen) Prinzipien verschreibt[19]. Geleitet wird die Selektion durch das o.g. Ökonomie- und Stabilitätsprinzip, wobei u.U. fraktale Muster die konvergierenden Trajektorien komplexer Systeme und die Kompetition zwischen alternativen Ordnungsmustern ihre treibende Kraft sind. Gesucht sind daher sich selbst ordnende Regeln und Algorithmen, die weder „abstürzen“ noch ein ungeordnetes Chaos produzieren, kurz: eine neue Klasse dynamischer Algorithmen. Sie werden wohl Prinzipien der Quantentheorie benutzen, womit die Zukunft in komplexen und nichtlinearen Quantenalgorithmen liegen könnte.

Quellen und Referenzen

[1] Alan Turing: On computable numbers, with an application on to the Entscheidungsproblem (Proceedings of the London Mathematical Society, 1936, p. 230-265)

[2] Friedrich L. Bauer: Origins and Foundations of Computing (2009). In Cooperation with Heinz Nixdorf Museumsforum. Springer Science & Business Media. p. 78

[3]Jan Vossholz; Markus Gabriel: Top Down Causation and emergence, Springer Online Ressource, 2021

[4] Robert Grahen (Hg.): Lasers and Synergetics. A Colloquium on Coherence and Self-organization in Nature, Berlin-Heidelberg 1987

[5] M. Mohseni, P. Rebentrost, S. Lloyd, A. Aspuru-Guzik: Environment-Assisted Quantum Walks in Energy Transfer of Photosynthetic Complexes, in: J. Chem. Phys. 129, 174106 (2008); arXiv:0805.2741

[6] Die Idee zu „Quantum Life“ hat bereits Erwin Schrödinger 1944 in seinem berühmten Büchlein „What is life“ geäußert (Erwin Schrödinger: Was ist Leben? Die lebende Zelle mit den Augen des Physikers betrachtet. Aus dem Engl. von L. Mazurcak. Einf. von Ernst Peter Fischer, München-Zürich 1999

[7] Ingenieure fürchten daher bekanntlich die Interaktion von zu vielen Systemkomponenten bzw. Programmen, weil das zur sog. „Resonanzkatastrophe“ führen kann. Zu viele (meist nichtlineare) Wechselwirkungen bedingen einen top-down Kontrollverlust.

[8] Gerald Edelman; Giulio Tononi: Gehirn und Geist. Wie aus Materie Bewusstsein entsteht, München 2004

[9] Man denke an Ockhams Rasiermesser: die Natur ist nie unnötig kompliziert. Vgl. Uwe Meixner: Metaphysische Begründungen, oder: wie rational ist „Ockhams Rasiermesser“?, in: Julian Nida-Rümelin (Hg.): Rationalität, Realismus, Revision (Perspektiven der Analytischen Philosophie, 23), Augsburg-Berlin 2000, p. 407-415.

[10] So ist eine turbulente Strömung bzw. eine Wirbelstraße instabil, eine laminare Strömung jedoch stabil. Bei biologischen komplexen Systemen jedoch scheint die Stabilisierung anders zustande zu kommen: eine biologische Zelle stabilisiert sich durch die sehr komplexe und dynamisch sich verändernde Ordnung der durch sie koordinierten Wechselwirkungen.

[11] Wolfgang Stegmüller: Unvollständigkeit und Unentscheidbarkeit. Die mathematischen Resultate von Gödel, Church, Kleene, Rosser und ihre erkenntnistheoretische Bedeutung, Wien 1970

[12] Wilfried Sieg: Hilbert’s programs and beyond, Oxford 2019; Klaus Mainzer: Die Berechnung der Welt. Von der Weltformel zu Big Data, München 2014

[13] Das ist damit eine Absage an die These der „starken KI“, wonach die artifizielle Beschreibung bzw. Simulation eines natürlichen Systems identisch mit diesem ist.

[14] Das Problem stellt sich analog in der synthetischen Biologie, wo z.B. die Selbstordnung einzelner RNA-Fragmente zu einer komplexeren RNA-Struktur nicht reproduzierbar ist.

[15] Roger Penrose: Computerdenken. Die Debatte um Künstliche Intelligenz, Bewusstsein und die Gesetze der Physik (engl. Orig.: The emperor‘s new mind), Heidelberg-Berlin 2002

[16] Martin Dresler: Künstliche Intelligenz, Bewusstsein und Sprache: das Gedankenexperiment des „chinesischen Zimmers“, Würzburg 2009

[17] Wolf Singer: Gehirn und Bewusstsein. Heidelberg u.a. 1994

[18] Ordnungsmuster können die neuronalen Aktivitätsmuster etwa als Projektionen höherdimensionaler Muster (gerichtete Graphen aus Simplices) interpretieren oder auch als Abbildung der Anzahl von Aktionspotentialen des Gehirns oder als formalisierte Repräsentationen von sensorischen oder motorischen Programmen verstanden werden.

[19] Imre Koncsik: Unser Gehirn – ein biologischer Quantencomputer? Die verborgene geistige Ordnung, Göttingen 2019

Prof. Dr. Imre Koncsik ist seit 1996 im Hochschuldienst aktiv (Uni Bamberg 1996-2002, LMU München 2002-2014, HS Heiligenkreuz/Wien seit 2014). Derzeit ist er Professor für Systematische Theologie mit dem Schwerpunkt Natur- und Technikphilosophie. Er veröffentlichte über 60 Fachbeiträge, 17 Monografien (Synergetische Systemtheorie. Ein hermeneutischer Schlüssel zum Verständnis der Wirklichkeit, Berlin 2011, Der Geist – ein komplexes Quantensystem? Interdisziplinäre Skizze einer „theory of mind“, Wiesbaden 2015 (Springer Essentials), Die Entschlüsselung der Wirklichkeit. Ist das Universum ein Programm und Gott der Programmierer? Berlin, Heidelberg 2016 (Springer Spektrum), Quantum Mind. Dem Geheimnis „Geist“ auf der Spur, Göttingen 2017, Unser Gehirn – ein biologischer Quantencomputer? Göttingen 2019). Auch gehört er zur interdisziplinären QPP-Gruppe unter der von Jack Tuszinsky (U Alberta) / http://www.quantumbionet.org/eng/ . Sein Schwerpunkt ist die Steuerung von klassischen Systemen durch sog. makroskopische komplexe Quantensysteme.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

24742

share

Artikel teilen

Top Artikel

Ähnliche Artikel