Die deutsche KI-Forschung hat einen guten Ruf und liefert in schneller Folge neue Entwicklungsergebnisse. Der Transfer in die Praxis ist unser eigentliches Problem. China und die USA führen den globalen KI-Wettbewerb an. Es stellt sich die Frage, ob Deutschland mit seinem KI-Forschungsbudget (s.u.) gegen das Programm Chinas, das mit 300 Mrd.US$ dotiert ist, mithalten kann. Auch beim Wettbewerb um die führenden Köpfe kann Deutschland kaum gegenhalten: In den USA liegen bereits die Einstiegsgehälter für KI-Forscher bei 300.000 bis 500.000 US-Dollar. In Deutschland beträgt das Spitzengehalt von Professoren (W3-Professur) knapp über 100.000 Euro. Der europäische KI-Verbund ist schwach und spiegelt nicht die hohe Entwicklungsdynamik der Forschung wider. Auch das EU-Forschungsbudget von 20 Mrd. Euro für die kommenden 10 Jahre verspricht nicht, dass wir gegenüber den USA und China den Rückstand einholen und (!) – wie industriepolitisch zu fordern ist – in Schlüsselanwendungen die weltweite Führung übernehmen können. Doch bieten sich Entwicklungsfenster, die wir systematisch identifizieren und fokussiert verfolgen sollten.
Ausgangspunkt: das Programm der deutschen Bundesregierung
Derzeit gibt es in Deutschland nach Schätzung des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) 126 Universitäts-Professuren und 29 Fachhochschul-Professuren, die sich mit KI beschäftigen [1]. 2019 verabschiedete die Bundesregierung ein Budget von 3 Mrd. Euro für Forschung und Entwicklung auf dem Gebiet künstlicher Intelligenz. Diese Gelder sollten vor allem zur Finanzierung von 100 Junior-Professoren eingesetzt werden. Um sicherzustellen, dass diese Forschung nachhaltig erfolgt gibt es Überlegungen, wie man dies am besten organisiert. 20 bis 30 von insgesamt etwa 100 Professuren sollen bis 2024 allein an der Alexander von Humboldt Universität, entstehen, damit sich dort ein KI-Cluster bildet. Als erste Humboldt-Professoren für Künstliche Intelligenz wurden der Neurowissenschaftler Peter Dayan und der Informatiker Daniel Rückert ausgewählt [2]. Das Vorhaben ist ambitioniert, der Hochlauf aber zeitaufwändig. Dennoch führt an Clusterungen kein Weg vorbei, denn KI-Forschung kann keine Einzelaufgabe sein und ausgesprochene Alleingänge dürften kaum Durchbrüche erzielen. Es muss sich allerdings in der Praxis zeigen, wie die Universitäten mit dem Thema umgehen und wie sie sich organisatorisch dafür möglichst optimal aufstellen.
Freiheit der Forschung versus Vernetzung
Die Freiheit der Wissenschaft ist auch auf der KI-Forschung zu gewährleisten. Dennoch gibt es gesellschaftliche Verpflichtungen, etwa dass die Professoren in gesamtgesellschaftlichem Interesse handeln. Die Komplexität der gesamten KI-Feldes (sofern man hier überhaupt von einem definitiv abgrenzbaren „Feld“ sprechen kann) und deren Vernetzung mit den unzähligen informationstechnischen, industriellen, administrativen, privaten und sonstigen Anwendungen ist unüberschaubar. Damit besteht ein hoher Bedarf der ständigen Prüfung jeglicher Forschung nach ihrer Lokalisierung und Ausrichtung im „Feld“ und im Verbund mit anderen Forschungsaktivitäten.
Das „Wie“ der Vernetzung ist entscheidend. Wer die „Ob“-Frage stellt, ist schon fehl am Platz. In keiner Technologiegeneration war dies von so hoher Bedeutung wie in der jetzigen, in der „Industriegesellschaft 5.0“. Hier setzt sich ein Trend fort, den wir bereits seit mehreren Forschergenerationen beobachten und der sich wie folgt zusammenfassen lässt:
-
-
-
- Steigende Komplexität der Aufgabenstellung für den „Einzelforscher“,
- Zunehmender Erfolgs- und Zeitdruck,
- Zunehmende (Zufall oder nicht) Parallelforschungen an vielen Stellen der Welt (bekannt oder nicht),
- Zunehmender Informationsbedarf über alle Medien weltweit, explosionsartiges Anwachsen der Informationsflut,
- Somit schwer beherrschbare Zielkonflikte des einzelnen Forschers zwischen Zeit- und Materialaufwand für externe Informationsbeschaffung (Abstimmungen…) versus Fokussierung auf „interne“ Forschungs- und Entwicklungsarbeiten,
- Zur Bewältigung dieses Konfliktes Einbindung in einen größeren Verbund / eine größere Organisation, die auch Arbeitsteiligkeit in der Forschung bietet sowie Zuarbeiten und weitestmögliche Freihaltung von tertiären Aufgaben (Verwaltung, Versorgung…).
-
-
Größenfragen: Schlagkraft versus Agilität
Im Extremfall müssen weltweite Verbünde geschaffen werden, um die großen Forschungs- und Entwicklungsaufgaben unserer Zeit noch bewältigen zu können. Ein Beispiel ist die bereits laufende Arbeit am 6G-Netz der Zukunft, an dem deutsche, amerikanische und chinesische Forschergruppen zusammenarbeiten.
Forschungserfolg darf also nicht an nationale Grenzen stoßen. Umgekehrt führen zu große Organisationen, zu hohe Schwellen (etwa bei Sprachen, Verhaltensweisen, Normen, geografischen Abständen), bei zu formalistischem Abstimmungs- und Koordinationsbedarf zu Schwerfälligkeiten, die sich als nicht mehr beherrschbar erweisen. Aktuelles Beispiel ist die Preussische Kulturstiftung, die nicht einmal mehr umgebaut werden kann sondern schlichtweg zerlegt werden muss. Neben die Forschungsqualität (etwa zu messen an der Innovationshöhe, multipliziert mit dem „Impact“ auf Gesellschaft und Wirtschaft) gesellt sich als Erfolgsfaktor die Qualität des (übergeordneten) Forschungsmanagements.
Dahinter verbergen sich wiederum Zielkonflikte, die nicht einfach beherrschbar sind: gewisse Größen einer Forschungsgruppe oder eines Clusters erscheinen als unterer „Schwellwert“ wichtig. „Übergrößen“ belasten und beschweren die Dynamik. Wäre dem nicht so, dann könnten ja etwa mittelgroße (forschungsgetriebene) Unternehmen gar nicht gegen die (forschenden) Konzerne bestehen. Erst die relative „Underperformance“ der „Großen“ gibt kleineren ihre Existenzmöglichkeiten.
Ökosysteme in der Forschung
Übertragen auf das heute vielfach verwendete Modell der (aus der Physik bzw. aus der Biologie abgeleiteten) Digitalen Ökosysteme bedeutet dies aber auch, dass je nach der Größe der ökologischen Nische kleinere und größere Einheiten nebeneinander und voneinander profitierend und voneinander abhängig ihre Existenzberechtigungen und Existenznotwendigkeiten haben.
Auf den vorliegenden Fall der KI-Entwicklung angewendet bedeutet dies, das verschiedenste Forschungs-„Aggregate“ nebeneinander und miteinander vernetzt, verbunden, voneinander abhängig tätig werden müssen- aber keiner von ihnen vollkommen unabhängig, quasi im „luftleeren Raum“!
Für Deutschland bedeutet dies auch, dass alle KI-Aktivitäten im internationalen Verbund zu sehen sind. Nationale Alleingänge und Nabelschau haben Deutschland schon immer geschadet [3].
Unter den Gesichtspunkten der Marktgrößen, der Bündelung und Budgets von Forschungsgeldern, der geografischen Reichweite und der enormen Breite des Forschungs- und Entwicklungsfeldes spielt für uns der europäische Raum, insbesondere die EU eine entscheidende Rolle. Dies auch aus den Gewichtsverhältnissen heraus, die wir gegenüber unseren Konkurrenten USA und China (die gleichfalls auch Verbündete in den FuE-Programmen sein können und auch müssen) auf die Waagschale legen können.
Forschen im Verbund
Auf der operativen Ebene der KI-Forschung bzw. der KI-Forschungsverbünde ist eine Reihe von Fragen hinsichtlich Optimierung der Ressourcen-Allokation und somit ihrer Steuerung angebracht. Dies betrifft vor allem:
-
-
-
- die Suche und Auswahl der Arbeitsfelder, insbesondere: gezielte Findung von Lücken, bewusste Redundanzen, verfahrensmäßige Komplementaritäten,
- Einordnung und Verbindung mit angrenzenden Feldern,
- Bezüge zwischen Aufwand und Nutzen zunächst wertfrei feststellen (hiervon ist niemand ganz frei, auch bei großzügigster Auslegung des Begriffs der „freien“ Forschung),
- Machbarkeit, insbesondere in Bezug auf Mittel / Ressourcen / Vernetzungsbedarf / Forschungsmanagement. Hierbei spielen Größe und Strukturen der (übergeordneten) Forschungseinrichtung eine tragende Rolle: mal können kleine Einheiten von Vorteil sein, manchmal große Institutionen und -Verbünde – ganz im Sinne der o.g. Ökosysteme.
-
-
Hierbei spielen -neben der fachlich-wissenschaftlichen Kompetenz auch Motivationen, soziale Verhaltensweisen und Kulturen eine entscheidende Rolle. Vieles hängt von den persönlichen Netzwerken der Forscher ab. Dabei ist ein gewisses Maß an Überlappungen ihrer Aktivitätsfelder durchaus wünschenswert, denn dies schärft einerseits den Wettbewerb, kann anderseits komplementäre Pfade öffnen und zu unterschiedlichen Ergebnissen führen. Auch die Ausgangsstrukturen spielen eine Rolle und der „Fit“ des Einzelnen im übergeordneten Verbund ist zu betrachten. Dabei kann im Einzelfall der „Anpasser“ von Vorteil für das Vorhaben sein (etwa zur Nutzung von Erfahrungen aus dem betreffenden Institut) im anderen Fall der oder die „unangepasste“ Forschungs-Persönlichkeit.
Koordination der KI-Projekte noch ungenügend
Eine übergeordnete Koordination der verschiedenen Forschungsprojekte und der passenden Instrumente dazu gibt es derzeit noch nicht. Aktuell etabliert sich in Deutschland gerade ein Modell, das in den USA bereits verbreitet ist. So wird zum Beispiel am Einstein-Zentrum Digitale Zukunft [4] (ECDF) in Berlin in einer Public-private-Partnership eine hochschulübergreifende und interdisziplinäre Forschungsumgebung für die Digitalisierung bereitgestellt. An diesem Zentrum sind alle Berliner Universitäten, die Charité-Universitätsmedizin sowie zahlreiche außeruniversitäre Forschungseinrichtungen und Hochschulen beteiligt. Vor allem sind hier von der Wirtschaft angestoßene Forschungsfelder etabliert, die durch die Wirtschaft finanziert werden. Die Politik steuert dann die gleiche Summe bei. In den Forschungsfeldern werden Forschungsgruppen für einzelne Disziplinen finanziert. So wird auch domänenspezifische KI-Forschung unterstützt. Besagte Forschungsgruppen haben automatisch eine koordinierende Funktion, damit ein Austausch zwischen allen Beteiligten stattfindet. Auf diese Weise sollen größere Forschungscluster und -Netzwerke entstehen. Private Kooperationspartner finanzieren den Großteil der neuen (Junior-) Professuren [5]. Neben der Förderung des wissenschaftlichen Nachwuchses macht dies auch planerisch Sinn – denn Finanzierungen auf Zeit geben den Instituten größeren Freiraum. Solche Professuren sind auch als Sprungbrett für weitere wissenschaftliche Karrieren geeignet. Folglich sind die Universitäten eher geneigt, temporäre KI-Professuren zu ernennen, damit sie keine langfristigen finanziellen Verpflichtungen eingehen müssen.
Auf diese Weise kann die Forschung breit gestreut und gezielt auf viele verschiedene Domänen ausgerichtet werden. Die wirtschaftspolitischen Schwerpunkte setzt die Industrie, die auch ein hohes Maß an Domänenwissen beiträgt. So könnten diese Bereiche mit der Kompetenz der Datenanalyse und der Entwicklung von Algorithmen kombiniert werden.
Die KI-Plattform „Lernende Systeme“ in Deutschland
Einen Überblick über die KI-Forschung in Deutschland bietet die Plattform „Lernendes Systeme“, die vom Bundesministerium für Bildung und Forschung (BMBF) unter Förderung des Bundesministeriums für Wirtschaft und Energie (BMWi) eingerichtet wurde [6]. Auf dieser ist eine Landkarte deutschlandweiter KI-Forschung verfügbar, die informiert, wo oder in welchen Städten an künstlicher Intelligenz geforscht wird und wie Künstliche Intelligenz die Wirtschaft und den Alltag bereits heute und künftig transformiert: so zeigt die Plattform Lernende Systeme Anwendungen und Entwicklungsprojekte, in denen KI-Technologien in Deutschland heute und in naher Zukunft zum Einsatz kommen – über sämtliche Branchen, Einsatzfelder und Unternehmensgrößen hinweg.
EU-Initiativen zur KI-Forschung
Am 28. Mai 2019 fand in Brüssel ein Match-Making-Brokerage-Tag statt, zu dem die Exzellenzzentren des Europäischen Netzwerks künstlicher Intelligenz (KI) eingeladen wurden. Die Europäische Kommission hatte um Einreichung von Forschungsvorschlägen aufgefordert. Dadurch sollten die besten Forschungsteams und die bekanntesten Experten auf dem KI- Gebiet mobilisiert werden. Darüber hinaus bot die Veranstaltung Gelegenheit zum Networking für Vertreter von Exzellenzzentren [7].
Aus den Vorschlägen wurden fünf Gewinnerkonsortien ausgewählt. Diese bewarben sich mit zum Teil bis zu 70 Partnern für große Themenblöcke, welche jeweils koordiniert arbeiten und so im Verbund miteinander an diesen Themen forschen sollen. Die Finanzierung der Vorschläge zur KI-Forschung und Datenstrategie sollen aus dem Programm für das Digitale Europa [8], der Connecting Europe Facility 2 [9] und dem Forschungsprogramm Horizon Europe [10] im neuen EU-Haushalt bereitgestellt werden [11].
Übertragung von Theorie in die Praxis
Aus globaler Perspektive ist die KI-Forschung ausgesprochen vielseitig und sehr lebendig. Es wird außerordentlich viel veröffentlicht und die Review-Zyklen sind extrem kurz, und. Das kann auch Qualitätsprobleme zur Folge haben, da die Prüfungen nicht immer ganz solide sein dürften. Das größte Problem ist aber, dass die Praxis nicht hinterherkommt. Die Übertragung von der Forschung in die Anwendung ist die größte Herausforderung. So fehlen Instrumente übergeordneter Koordination und Nachverfolgung. Als Gründe hierfür werden unter anderem kognitiv-technische Anforderungen genannt wie etwa ein gemeinsames Verständnis, wie sich KI definiert: was dazu gehört und was nicht. Auch die Anwendungspraxis ist eher diffus. Beispielsweise nutzen nur wenige Menschen die Funktion eines Robo Advisors im Bereich Finanzanlagen. Viele vertrauen dem System nicht, lassen sich aber gleichzeitig von Google Maps navigieren. Auch Infrastrukturthemen sind zunehmend KI-getrieben und-müssen weiterentwickelt werden. Hierbei lässt sich KI großvolumig einsetzen. Längerfristig wird KI als Treiber und Facilitator von Infrastrukturen sogar eine entscheidende Rolle spielen. So soll das vorgenannte zukünftige 6G-Netz, an dem bereits internationale Teams aus China, den USA und Deutschland zusammenarbeiten, in hohem Maße durch „eingebaute“ KI gesteuert werden. Die hohe Komplexität, dies alles zusammenzubringen und für Menschen verkraftbar zu machen, erweist sich dabei als außerordentlich schwierig.
Die Monetarisierung ist kritisch
In Deutschland haben wir grundlegende Probleme in der Monetarisierung der KI-Forschung, also der Übertragung in marktfähige Produkte, aus deren Erträgen dann die Forschungsgelder zurückgezahlt, Löhne, Unternehmensgewinne und Steuern finanziert werden können. Dazu sind auf der Anwendungsseite die Reifegrade der unternehmerischen Applikationen zu evaluieren und bei der Umsetzung zu berücksichtigen. Gut funktioniert in der Regel die Entwicklung von Prototypen. Ein einzelner Demo-Case in einer Fabrik lässt sich relativ leicht und zuverlässig entwickeln. Problematisch ist dagegen die Skalierbarkeit, also die reproduzierbare Nutzung auf vielfältigen Einsatzfeldern weltweit. China ist hierbei viel weiter und besser als wir Deutschen. Man sieht dies am Beispiel Corona. So nutzt China zum Beispiel Chatbots, um pro Sekunde bis zu 1.500 Personen nach Symptomen oder Kontakten automatisiert abzutelefonieren. In Deutschland diskutieren wir dagegen über Personalaufbau in Gesundheitsämtern, weil wir konventionelle Befragungsmethoden ohne KI-Hinterlegung einsetzen. Dies ist beileibe kein Einzelfall. China hat sowohl in der Breite der Entwicklung als auch in der praktischen Umsetzung von KI einen deutlich höheren Reifegrad für KI-Applikationen erreicht.
Europa als kritische Marktgröße für KI
Das KI-Forschungsnetzwerk wird aktuell über ganz Deutschland gespannt. Dies reicht aber nicht, wenn wir zur Größenordnung unserer Hauptwettbewerber, der USA und Chinas, aufschließen wollen. Entscheidend ist der europäische Verbund, sowohl in der Forschung als auch bei den Applikationen, sei es die industriellen, im administrativen Sektor oder bei den Konsumenten. Insider berichten von positiven Beispielen in der Vernetzung deutscher mit französischen Forschern. Die europäischen Wissenschaftler stehen im globalen Wettbewerb gut da, insbesondere was KI-Patente mit hohen Nutzungsgraden betrifft. So blicken auch die Chinesen und die Amerikaner aufmerksam nach Europa und vergeben gern auch Forschungsaufträge an die hiesigen renommierten Institute.
Dagegen wird aber auch Kritisches berichtet. So sollen sich die von den EU-Mitgliedern benannten KI-Forschungsinstitute programmgemäß nur einmal pro Halbjahr treffen. Man weiß also nicht, was in anderen europäischen Ländern in der Forschung ganz aktuell gerade passiert. Ein Kritikpunkt am KI-Weißbuch zur Künstlichen Intelligenz, das im Februar diesen Jahres vorgestellt wurde [12], ist, dass die Vernetzung, Koordination und Kommunikation darin zu kurz kommt.
Fehlende Visionen -systematische Suche
Was aber auch im Weißbuch fehlt, ist eine klare Vision. Mit welchen Technologien können wir uns von anderen unterscheiden oder absetzen? Ein akutes und sogar spezifisch europäisches Problem ist zum Beispiel unsere Vielsprachigkeit. Daher wäre beispielsweise ein Real-Time-Übersetzungstool strategisch wichtig -direkt von jeder europäischen Nationalsprache in jegliche andere – ohne etwa in einem „Sternschalte-Modell“, wie es teilweise realisiert ist, in einem Zwischenschritt über das Englische zu gehen. „Lost in Translation“ und Zeitverluste limitieren diesen Pfad. Gerade der europäische Integrationsprozess könnte von einer für alle Sprachen angebotenen automatisierten Direktübersetzungslösung erheblich profitieren. Aktuell aber fehlt dies. Somit könnte wir hier sowohl hohen Nutzen stiften als auch ein Feld voranbringen, dass uns weltweit eine Alleinstellung bieten könnte: eine Win-win-Chance sondersgleichen. Und das dürfte nicht das einzige Feld sein. Im Weiteren ist vertieft darauf einzugehen. Wir sollten solche Felder systematisch suchen und forciert, in länderüberreifenden Programmen konzertiert entwickeln. Nur gemeinsam sind wir stark und schnell.
Innereuropäische Barrieren
Dagegen haben wir Europäer grundlegende Kultur- und Verhaltensprobleme. Dies zeigt sich bereits seit Dekaden darin, dass wir in der Konsolidierung unserer Industrien nicht in ausreichendem Maße vorankommen. So unterhalten wir Europäer über 60 national verteilte „Champions“ im Verteidigungssektor, wogegen die USA mit nur etwa 6 Spitzenspielern auskommen. Dadurch zersplittern wir unsere FuE-Ressourcen, landen bei hohen Kostennachteilen in der Produktion und müssen uns noch mit jahrzehntelang wirkender Fragmentierung in der Logistik herumschlagen. Wenn wir endlich ein quasi-europäisches System fertig entwickelt haben sind die Amerikaner schon eine Generation weiter und es fällt schwer, dann die Angebote aus den USA auszuschlagen.
In der „digitalen Welt“ fallen die Nachteile des europäischen Verhaltens noch stärker ins Gewicht. Im Vergleich zu uns adaptieren die US-amerikanischen GAFA, also (Google, Amazon, Facebook, Apple) und chinesischen BAT (Baidu, Alibaba, Tencent) Konzerne KI-Themen in rasanter Geschwindigkeit, gern auch über unvollkommene Pilotanwendungen in Versuchsmärkten. Wir halten uns dagegen mit Diskussionen über Risiken und Verträglichkeiten auf, bevor wir überhaupt zu Programmstarts kommen.
Mangelnder unternehmerischer Mut
In Deutschland ist der forscherische Wagemut viel schwächer ausgeprägt als etwa in den USA. Während sich die GAFAs ihre Start-up Kulturen aus der Anfangszeit weitgehend erhalten haben und geradezu „nervös“ jegliches neues und vielversprechendes Thema angehen – dabei auch bereit sind, die bisherigen unternehmerischen Grenzen zu sprengen (man denke zum Beispiel daran, dass Google die Tochter „Wymo“ hervorgebracht hat, die heute Weltmarktführer beim Autonomen Fahren ist. Wo stehen dagegen die deutschen OEMs?). Zuallererst kommen in Deutschland die Bedenkenträger zu Wort. Da gibt es bei jeder neuen Automatisierungslösung viele Gründe, die dagegen sprechen, etwa Datenschutz, überkommende Regularien, Gewöhnung an alte Prozesse, Pfründen die verloren gehen könnten und vor allem das fehlende Vorstellungsvermögen, dass es ganz anders ginge, viel billiger, viel schneller und sogar viel gerechter als überkommene „Hands-on-Lösungen“. Dies ist nicht nur ein deutsches sondern geradezu ein „Europäisches Kulturproblem“, das uns auf traurige Weise eint. Je größer das Land, desto rückständiger. Wir Deutsche liegen im OECD-Vergleich bei der digitalen Transformation ganz hinten, unsere kleineren Nachbarn sind alle (!) besser und am weitesten vorn liegen die Baltenstaaten, die eben weniger von althergebrachten Strukturen und Vorstellungen belastet sind.
Zersplitterung Europas
Eigentlich bräuchten wir in der EU einen engen Schulterschluss unter den Mitgliedsländern, insbesondere auch länderübergreifende Netzwerke zwischen Theorie und Praxis. Nur so ließen sich Mittel anhäufen, um gegen die konsolidierten „Monostrukturen“ der Amerikaner und der Chinesen gegenhalten zu können. Die europäische Wirklichkeit ist dagegen eine andere: weiterhin eher zersplitterte Interessen, Komplexitäten durch Förderwildwuchs, Sprachbarrieren, nationalistische Denke, unterschiedliche Arbeitsweisen und abweichende Ziele: so , wie es heute läuft, holt Europa nicht auf sondern fällt gegenüber den USA und China noch weiter zurück – Länder, die überzeugt sind, jeweils das „leistungsfähigere“ politisch-wirtschaftliche System zu vertreten. Wir glauben dagegen, eine „moralisch“ bessere Welt zu repräsentieren. Wenn diese aber unter dem Außendruck von USA und China sowie unter dem Wirken innerer Implosionskräfte zusammensackt, dann hilft uns dies wenig.
Die deutsche KI-Forschung kommt voran
Auf der Positivseite ist aber auch zu vemerken: wir haben einen enormen Forschungszuwachs, und es rollt eine riesige Informationsflut auf Unternehmen zu, die es zu bewältigen gilt. Zudem steigt die Komplexität, weil DeepTech- [13] und KI-Innovationen heute häufig außerhalb des eigenen Unternehmens in globalen Innovationszentren und deren Netzwerken stattfinden. Trotz dieser Herausforderungen sind auch in Europa viele spannende und werthaltige KI-Ventures zu beobachten. Viele davon sind universitäre Ausgründungen oder Spin-Offs europäischer Forschungszentren. Für viele ist jedoch die anwendungsorientierte KI und deren Kommerzialisierung noch ein weiter Weg, auf dem vor allem praxistaugliche und Domain-spezifische Daten benötigt werden. Deutsche Unternehmen sitzen auf einem Schatz an Daten, die jungen Unternehmen neben Kapital und Infrastruktur zur Verfügung gestellt werden müssen, damit diese ihre Algorithmen trainieren können. Es gibt allerdings jede Menge Vorurteile im Bereich des Datenschutzes und der Datenethik, wie wir es kürzlich bei der Entwicklung und Einführung der deutschen Corona Tracing-App erlebt haben [14]. Obwohl es, vor allem im medizinischen Bereich, eben auch eine Ethik der Nicht-Datennutzung geben muss, müssen wir anwendungsorientierte KI in Europa immer im Kontext unseres Wertekanons denken. Die Möglichkeiten und die konkreten Chancen, die mithilfe künstlicher Intelligenz erschlossen werden können, sind enorm. Diese sollten in Anwendungen überführt werden, die unsere Wirtschaft, Gesellschaft und unsere Verwaltung voranbringen und die uns wieder auf Augenhöhe mit den USA und China bringen. Das kann nur im europäischen Verbund erfolgen, in möglichst hoher Durchlässigkeit unter den Staaten und vor allem auf Grundlage unserer europäischen Prinzipien und Verhaltensregeln.
Pilotprojekte offenbaren Schwierigkeiten
Auch die Erfahrungen mit der digitalen Patientenakte liefern ein eher kritisches Beispiel. Diese steht exemplarisch für bereits verfügbaren Techniken. Erste Pläne für eine solche Akte gab es schon zu Beginn des Jahrtausends. In zahlreichen Pilotprojekten [15] wurden Anwendungen definiert, Datenschutz, Datensicherheit und hoher Nutzen nachgewiesen. Dennoch kommt Deutschland nicht recht voran. Entwicklungen werden immer wieder neu aufgesetzt, immer wieder wird neu verhandelt und erneut gestartet. Ab Jahresbeginn 2021 sollten fast alle Akteure des Gesundheitswesens vernetzt werden. Dies sieht zumindest das Gesetz vor, das Gesundheitsminister Spahn durchgeboxt hat [16]. Doch der Streit um Datenschutzregeln sorgt für Zweifel an dem Starttermin. Denn das Bundesjustizministerium, das Bundesamt für Sicherheit in der Informationstechnik (BSI) und der Bundesdatenschutzbeauftragte pochen auf weitere Schutzregelungen. So wird wohl die angestrebte Einheitslösung, die alle Länder und alle Player einbezieht, kaum plangemäß zur Umsetzung kommen. Einigungen in der fragmentierten deutschen Landschaft der Anbieter, der Kassen, der Betreiber und Länder sind eben außerordentlich schwierig und zeitraubend. Das ist ein grundlegendes deutsches Problem. Wir sind beflissen, es allen Protagonisten und allen Datenschützern recht zu machen, verlieren Jahr um Jahr, geben deshalb sogar das eine um das andere „kritische“ Projekt auf.
Die europäische Ebene: große Hebel, hohe Komplexität
Das Beispiel des von der EU-Kommission verabschiedeten „Once-Only-Prinzips“ illustriert den Spannungsbogen zwischen hohem Nutzeffekt und großen Hürden bei der Implementierung. Once Only ermöglicht, dass gesicherte Information, die Bürger und Unternehmen an eine Stelle einer Behörde geben, auch von anderen Ämtern abgerufen werden kann, und zwar europaweit. Damit sind erhebliche Einsparungen an Zeit und Mitteln sowohl auf Seite der „Kunden“ (Bürger und Unternehmen) als auch auf Anbieterseite (Behörden und Verwaltungen untereinander) zu erwarten. Somit ist dies ein „Basiskonzept“, das in fast alle Melde- und Verwaltungsprozesse hineinreicht und damit enorme Wirkungen auf die Harmonisierung von Strukturen und Prozessen hat. Damit wurde das Once Only-Prinzip vor allem zu einer Grundlage des europäischen e-Government Actions Plans (TOOP) für Unternehmen von 2016 bis 2020. Die TOOP-Projektplanung ging von einer Umsetzung zwischen 1.1.2017 bis 30.6.2019 aus und hatte zum Ziel, 50 Partner aus 21 Ländern mit 60 Informationssystemen zu verbinden. Vorreiter bei der Umsetzung wurden dabei Dänemark, Großbritannien und Frankreich [17].
Deutschland hinterher
Deutschland hinkt bei der Umsetzung hinterher. Bis Dato werden alle von Bürgern und Unternehmen abgegebenen Daten lokal in den Verwaltungen abgespeichert. Der Aufbau einer Infrastruktur, welche Once-Only ermöglicht, ist zeitintensiv. Hinderlich ist unsere föderale Struktur, die bezüglich Once-Only wohl eine weitere gesetzliche Grundlage bezüglich Standards der Datenhaltung verlangt. Im E-Government Gesetz des Bundes ist die Möglichkeit für das Once-Only-Prinzip [18] zwar hinterlegt, in Deutschland stellen jedoch die hohen Datenschutzanforderungen eine besondere Hürde dar. Außerdem befürchtet unsere Regierung, dass die Einführung auf hohe Akzeptanzrisiken bei den Bürgern trifft und sogar skandalisiert wird. Somit braucht es Zeit und Mittel, die Bürger besonders aus Aspekten des Datenschutzes, der Datensicherheit und Datensouveränität zu überzeugen. Auch wenn die Mehrheit der Deutschen offensichtlich positiv oder neutral gegenüber dem Datenaustausch [19] zwischen Behörden steht, muss die Bevölkerung doch gänzlich von den Vorzügen des Prinzips überzeugt werden [20]. Da haben es unsere kleinen Nachbarn leichter. Sie kommen qua geringerer Komplexität und flexiblerem Umgang mit Datenschutzregeln schneller voran und Deutschland gerät wieder einmal ins Hintertreffen.
Der Einsatz spezieller Algorithmen und künstlicher Intelligenz wird ein Schlüssel sein, um die Konflikte zwischen Informations-Durchlässigkeit und Datenrechten zu lösen. Dies ist aus heutiger Kenntnis machbar. Insofern liegt auch hier die Haupt-Hürde – nicht bei der Technik sondern bei Akzeptanz und Strukturen.
Sprengung von Datenmonopolen: eine spezifische Chance für Europa?
Dahinter liegt auch ein weiteres grundsätzliches Problem, das uns auf vielen Gebieten begegnet: das Eigentum der Daten ist ungelöst, der plattformübergreifende Datenzugriff ist derzeit nicht möglich. Es bräuchte eine „Meta-Ebene“, etwa nach dem Muster von e-Mails. Das betrifft zahlreiche Anwendungsfelder, vor allem in der Verwaltung und übergreifendem Management unter Einbezug von Kunden (Bürgern) sowie den dezentralen Entwicklern, die die Apps für unzählige Lösungen schreiben. Der Besitz der Daten sollte dabei – im Gegensatz zur Struktur bei den „Big Five“ der US-Amerikanischen Internet-Industrie (Microsoft, Apple, Alphabet-Google, Amazon und Netflix), die die Daten der Bürger abgreifen und monopolisieren – im Eigentum und ihren Rechten bei den Bürgern bleiben.
Die Bundesregierung hat dieses grundlegende Problem erkannt und kürzlich dazu das Projekt „GAIA X“ ausgerufen.GAIA-X zielt auf den Aufbau einer leistungs- und wettbewerbsfähigen, sicheren und vertrauenswürdigen Dateninfrastruktur [21] für Europa, die von der Bundesregierung [22], der Wirtschaft und Wissenschaft getragen wird [23]. Vision des Projektes ist die Erhaltung einer europäischen „Datensouveränität“ gegen Oligopole in der Plattformökonomie, insbesondere die Reduzierung der Abhängigkeiten von global operierenden Anbietern.
Ziel des Projektes ist nach eigenen Angaben: „GAIA-X ermöglicht …modulare Lösungen. Anwender können…über die vertrauenswürdige Dateninfrastruktur auf KI-Anwendungen und Datenpools zugreifen. Auf Basis von Standardisierungsvorgaben und den unterschiedlichen Steuerungsmöglichkeiten der Datenübertragung können Daten über…Unternehmen hinweg ausgetauscht, mit weiteren Daten verknüpft, aufbereitet, ausgewertet und zur Monetarisierung in Wertschöpfungsnetzwerken genutzt werden. Durch die Möglichkeiten des Daten- und Serviceaustauschs können Innovationen gefördert, Synergien genutzt und neue Geschäftsmodelle entwickelt und skaliert werden“ [23].
In den Medien und in der Fachöffentlichkeit werden die Erfolgsaussichten dieses Projektes jedoch noch überwiegend skeptisch beurteilt [24]. DIE ZEIT schreibt:“ Eine Cloud-Infrastruktur zu schaffen, die an den europäischen Datenschutz gebunden ist, könnte dabei noch die einfachste Aufgabe sein… Es muss Schnittstellen geben, auf die im besten Fall Partner aus allen europäischen Ländern Zugriff haben, ohne dafür erst ihre IT-Systeme umrüsten zu müssen. Offen ist bislang auch, ob der Wechsel zu einem europäischen System möglicherweise finanziell unterstützt wird“ [25]. Der Wettbewerb bei Web Services ist etabliert. Marktführer Amazon Web Services (AWS) ist in seiner jetzigen Form seit 2006 aktiv. Etwa zeitgleich starteten YouTube und Facebook. Amazon konnte in diesem Markt organisch mitwachsen und hat ihn aktiv mitgestaltet. Die mit GAIA-X angestrebte europäische Datenarchitektur muss sich für die Anwender rechnen und der Übergang muss barrierearm gestaltet werden.
Europa begegnet den Herausforderungen der USA und Chinas
Das GAIA-X-Konzept könnte sich jedoch prinzipiell als erfolgreich erweisen. Sein Potenzial ist unbestreitbar, vor allem unter Einbindung zahlloser dezentraler Entwickler – dann könnte dies die digitale Welt, wie sie heute besteht, revolutionieren. Dann könnte Europa die Monopole der US-Amerikaner brechen. Dann könnten wir unseren Kontinent sogar neu platzieren. Zweifellos werden sich Amerikaner mit aller Kraft dem entgegenstellen. Von China ganz zu schweigen, die sich durch ihre „digitale chinesische Mauer“ gegen jegliche Information aus dem Ausland wehren und ihre Digitalindustrie weiter schützen. Die „digitale Seidenstraße“ ist eine Einbahnstraße: Daten und Produkte gehen aus China heraus, aber nichts läuft nach China hinein. Dieses Phänomen wird China letztlich schwächen, genauso wie das Digital-Kartell den Amerikanern letztlich auf die Füße fallen könnte.
Europa hätte dagegen durch die Entwicklung einer offenen, harmonisierten „Meta-Plattform“ die Möglichkeit, quasi unser freiheitlich-demokratisches politisches System auf die Internet-Welt zu übertragen und die mittlerweile bedrohlichen Monopole und Barrieren zu brechen. Die Technologien haben wir bereits, die Pilotanwendungen -siehe Patientenakte und auch Patientenmanagement – gibt es auch.
Innereuropäische Barrieren -und deren Bewältigung
Dagegen könnte sich aber ein Phänomen einstellen, dass wir in den letzen 10 bis 20 Jahren immer wieder beobachtet haben: die Basistechnologien sind da, die Konzepte und Visionen auch, das Potenzial ist erkannt. Aber (!!!): die Protagonisten können sich nicht einigen, vor dem Hintergrund der Uneinigkeit und zeitlicher Verzögerungen bringen sich die Gegner in Position, die da sind: Egoismen von Behörden, Sicherung alter Pfründen, internationale Barrieren, die ewigen „Gutmenschen“, die Datenschutz, Datensicherheit, persönliche Freiheiten vorschieben und damit Innovationen bremsen und behindern. Damit landen wir in der altbekannte Schleife: vor lauter Problemdiskussion beginnen wir gar nicht erst mit Lösungsversuchen, mit Forschung und Entwicklung. Dabei wissen wir genau, dass sich diese Probleme durch sorgsamen Einbau von Algorithmen und Hürden lösbar und automatisierbar sind. Wir müssen nur den Prozess umdrehen: erst (!) mutige Forschung und Entwicklung und dann (!) an den passenden Meilensteinen Forderung und Entwicklung und Bau der Lösungsarchitektur, um die berechtigten Schutzansprüche einzubauen. Mit der Covid 19-App ist uns das in kürzester Zeit gelungen, und zwar auf ganz einfache Weise. Dies unter dem enormen Handlungsdruck zur Bekämpfung der Pandemie. Aus dieser jüngsten Erfahrung sollten wir Mut ziehen und zur schnellstmöglich zur Entwicklung schreiten. Um Zeitverlust zu minimieren sollte dies praktisch gleichzeitig auf allen politischen Ebenen (von den Bundesländern bis zur Europäischen Kommission) in allen Gruppierungen (Industrieverbände, Forschungsverbünde, Regierungen und Ministerien) gleichzeitig angeschoben werden. Die anwendungsorientierte Nutzung von KI steht dabei im Mittelpunkt. Deutschland hat bei der Entwicklung gerade angefangen, die europäischen Verbünde liegen in der Bewertung zwischen „schwach“ und „nicht existent“. Ohne große Überzeugungsarbeit, ohne den Schulterschluss aller werden wir das nicht schaffen. Aber wir müssen es schaffen – Europa hat gar keine andere Wahl!
Entstehung eines homogenen europäischen „KI-Markplatzes“
Wie bereits ausgeführt liegt die kritische Bruchstelle bei der Überführung von KI-Entwicklungen in die praktische Anwendung. Die Nachfrage bestimmt auch hier den Markt. Nachfrage auf der Ebene der Unternehmen und der Verwaltung wird aber nur dann generiert, wenn die Sinnhaftigkeit und der Nutzen von KI erkannt und ermessen werden. Hierzu sind bereit im Vorfeld von Praxisanwendungen Kontakte zwischen den KI-Entwicklern (i.W. Institute und Startups) und den potenziellen KI- Nutzern (i.W. Konzerne, Mittelständler, Behörden und Verwaltungen) erforderlich. Somit stellt sich die Forderung nach einem „KI-Marktplatz“ oder einer „KI-Börse“, an der neben bereits existierenden Lösungsangeboten auch Lösungsperspektiven gehandelt werden können. Denn: viele Anwender wissen gar nicht, was es alles gibt und was die Zukunft bringen wird und bringen kann.
KI-Marktplätze etablierten sich bereits vor Jahrzehnten in den USA, etwa im Umfeld der Stanford-Universität und bei den „Big Five“ der US-Internet-Industrie (Microsoft, Apple, Alphabet-Google, Amazon und Netflix) und ihrem Umfeld.
In Deutschland hat sich mittlerweile eine ganze Landschaft von Marktplätzen oder auch sogenannten (Internet-basierten) Plattformen etabliert. Im Sektor industrieller Anwendungen sind etwa zu nennen: der KI-Marktplatz des Fraunhofer IEM, das Heinz-Nixdorf-Institut, das Institut für industrielle Informationstechnik (inIT) in Lemgo und das Exzellenzcluster Cognitive Interaction Technology (CITEC) aus Bielefeld. [26] Auf vielen anderen Sektoren haben sich digitale und KI-getriebene Marktplätze und Plattformökonomien etabliert. Neben dem Consumer-Markt (B2C), angeführt von Amazon, gibt es zahleiche Plattformen im B2B-Bereich, der für Deutschland angesichts der Breite des professionellen Anbieterfeldes hochinteressant ist.
Das Aufgabenspektrum von „KI-Marktplätzen“
Die grundlegende Aufgabe dieser Marktplätze liegt nicht nur darin, konkrete Anfragen und Angebote zu sichten und Projektpartner zusammenzubringen, sondern auch die Skalierung von Ideen und Lösungen zu fördern. Hierzu gehören Kapitalbeschaffung, Datenzugänge, Bereitstellung von Infrastrukturen und die Suche nach weiteren Partnern, sodass sich auch ganze digitale Ökosysteme unter Einbindung von weiteren Kompetenzträgern und Anwendern bilden können. „Skalierung“ lautet die Devise, ein Thema, das gerade für unseren eher fragmentierten (im Vergleich mit den USA und China) europäischen Markt von besonderer Bedeutung ist. Damit wachsen solche Marktplätze auch überregionale, länderübergreifende und europäische Bedeutungen zu.
Dabei hilft unter anderem auch der KI-Park Deutschland, eine „offene Initiative zur Förderung anwendungsorientierter KI in und aus Deutschland“. [27] Dies ist ein offenes Netzwerk aus „Köpfen aller Branchen, (die) gemeinsam daran arbeiten, künstliche Intelligenz voranzubringen…“ mit dem Ziel, bestehende Initiativen zum Thema KI in Deutschland zu verbinden. [27] Hierzu soll das Potenzial von KI unter marktwirtschaftlichen Bedingungen zu konkretem Nutzen geführt werden. Auch diese Initiative versteht sich als Plattform zur Zusammenführung von Start-ups, die KI-Lösungen entwickeln, mit etablierten Unternehmen und dem öffentlichen Sektor, die KI-Anwendungsfelder erkennen und nach Lösungen suchen.
Angriffsflächen und Differenzierungspotenziale im Digitalen Ökosystem
Der „Wettlauf um die Digitalisierung“ wird von der Überzeugung getragen, dass der Schnellere und der technologisch Führende auch die wirtschaftliche Ernte davonträgt und den Weltmarkt dominiert. Das „System USA“ und das „System China“ haben jeweils auf Ihre Weise vorgeführt, wie das geht: die USA mit ihrem „Kartell der Fünf“, in dem jeglicher Datenschutz ignoriert und das „Datenmonopol“ bei den Konzernen liegt. China hat sich vom Welt-Informationsnetz abgekoppelt, ein nationales „Intranet“ geschaffen und seine Industrie vor dem Ausland geschützt. Nur Europa ist offen: wichtigster Zielmarkt der Amerikaner und am liebsten auch von den Chinesen, die ihre „Neue Seidenstraße“ im Sektor der datengetriebenen Geschäfte als reine „Einbahnstraße“ von Ost nach West verstehen.
Suchrahmen, zu Europäischen Führungspositionen bei KI
Vor diesem Hintergrund ist schwer vorstellbar, dass Europa seinen Rückstand in den Internet-getriebenen Branchen und auch bei den KI-Anwendungen aufholt und sich in die Lage versetzt, China und die USA auch noch (in ausgewählten Feldern) zu überholen. Als besondere Last haben sich dabei der Datenschutz und die Datensicherheit erwiesen, zweifellos inhärent verankert in unserer freiheitlich-demokratischen Grundordnung. Da stellt sich dann die Frage nach den Technologien, nach den Märkten und Anwendungen, die vor dem Hintergrund unseres Ordnungsrahmens bestehen können und gleichzeitig der spezifischen Situation Europas besonderen Nutzen bringen. Denn: ein besonderer Mark erfordert besondere Lösungen. Diese Lösungen können in einem späteren Schritt möglicherweise auch auf andere Weltregionen übertragen werden. Dieses Denkmuster könnte geradezu zu einer Blaupause werden, um spezifisch „europäische“ Führungspositionen hervorzubringen. Zurückkommend auf das Beispiel der europäischen Sprachvielfalt wird dies nachfolgend vertieft illustriert:
Europäische Integration mithilfe von KI-Anwendungen am Beispiel der Multilingualität
Die sprachlich-kulturelle Vielfalt Europas ist zweifellos ein hoher Wert und von großem Reiz. Die daraus resultierenden Barrieren verhindern jedoch die von großen Industriegesellschaften geforderten Barrierefreiheiten. Unsere Märkte sind noch weitgehend fragmentiert, unterschiedliche Normen und Standards bilden „virtuelle Grenzen“, abseits von Schengen. Am stärksten hörbar, sichtbar, lesbar ist dies an der Sprachenvielfalt. Rein rechnerisch braucht es ja von jeder Sprache zu jeder anderen ein doppeltes [28] Übersetzerteam. Bereits im Juli 2013 stieg die Anzahl der Amtssprachen der EU auf 24 [29]. Mit jedem Neuzutritt kamen seitdem neue Sprachen hinzu. Gleichwohl konnte die Zahl der Amtssprachen auf 24 begrenzt werden. Jeder EU-Bürger hat das Recht, bei der Korrespondenz mit den Organen der EU eine der 24 Amtssprachen zu verwenden und eine Antwort in derselben Sprache zu erhalten [30]. Da diese Anzahl an Übersetzern nicht im Parlament untergebracht werden kann, bedient es sich den sogenannten Relaissprachen, vor allem Englisch, Deutsch, Französisch, Spanisch, die als „Brücke“ dienen und von denen aus in die Einzelsprachen weiterübersetzt wird [31]. So wird diese hohe Gesamtzahl der Sprachen „nur“ in die Dokumente übersetzt (sodass jeder Beschluss in jeder Sprache nachgelesen werden kann) und in der Korrespondenz mit den jeweiligen Bürgern verwendet, denn jeder EU-Bürger hat das Recht, mit den EU-Behörden in seiner Muttersprache zu kommunizieren [32]. Um Komplexität und Aufwand zu verringern kam vor einigen Jahren die Diskussion auf, man solle doch vom Deutschen als Relaissprache Abstand nehmen. Der Vorschlag kam natürlich nicht von uns. Erwartungsgemäß erhob sich quasi ein „parlamentarischer“ Aufstand, denn man könne ja dem größten europäischen Land, das die größte Anzahl von Muttersprachlern vertritt und der größte Nettozahler ist, nicht zumuten, auf seine sprachliche Rolle zu verzichten.
Chancen für KI-hinterlegte automatisierte Direktübersetzung
Die enormen Kosten für die europäische Vielsprachigkeit [33] und die hohen Barrieren, die in der Gesamtkommunikation unter EU-Bürgern, Verwaltungen und Unternehmen bestehen, verlangen nach neuen Lösungen. Dies könnte die automatisierte und KI-hinterlegte Übersetzung bieten.
Die maschinelle Übersetzung (engl. machine translation, MT) bezeichnet die automatische Überführung von einer Sprache in die andere durch ein Computerprogramm. Die maschinelle Übersetzung wird als Teilbereich der KI in der Computerlinguistik erforscht. [34] Seit 2016 werden für Übersetzungsprogramme zunehmend künstliche neuronale Netze eingesetzt, die das Leistungsvermögen deutlich steigerte. Beispiele sind DeepL, Google-Übersetzer sowie der Bing Translator. Im März 2018 teilte Microsoft mit, durch eine KI chinesisch-englische Übersetzungen mit der Qualität eines professionellen menschlichen Übersetzers zu erreichen. Das sei ein Durchbruch bei der maschinellen Übersetzung [34]. Durch den Technologieschub steigt der Markt für maschinelle Übersetzungen stark an. Derzeit verdoppelt sich der Mark für Übersetzungen alle vier Jahre. Die globale Vielfalt und insbesondere die Multilingualität Europas weisen auf ein enormes Wachstumspotenzial.
Eine wesentliche Grundlage für die Entwicklung von automatisierten Übersetzungsprogrammen ist die Verfügbarkeit von Referenztexten, konkret: das Vorliegen von Texten im Original sowie deren Übertragungen in eine andere Sprache durch einen professionellen Übersetzer. Hunderttausende von Texten aus Büchern und anderen Publikationen waren die Grundlagen und lieferten die „Referenzgrößen“ für die Entwicklung automatisierter Übersetzungsprogramme. Zunächst liefen diese Programme über „Relaissprachen“, analog der obigen Beschreibung der Übersetzungspraxis in der EU, also etwa mittels des Englischen. Mit dem Anwachsen der Nachfrage und der wachsenden Verfügbarkeit von Referenzübersetzungen ist es möglich, zunehmend Direktübersetzungsprogramme für weitere Sprachen zu schaffen.
Europa mit seinen 24 Amtssprachen, das heißt mit den vorgenannten 552 notwendigen Direktübersetzungs-Teams [35], ist eine neue Herausforderung. Nicht jeder „Pfad“ ist gleich wichtig, dennoch aber EU-rechtlich relevant. Der Vorteil für uns ist, dass wir auf eine gewaltige Menge von Direktübersetzungen auf allen Pfaden allein in den EU-Behörden zurückgreifen können und dass wir mit dem Personal an Dolmetschern und Übersetzern ein gewaltiges Kompetenz-Reservoir haben [36].
Sprachkompetenzen und Automatisierte Übersetzung als Wettbewerbsvorteil
Mithilfe des Natural Language Processing (NLP), könnte ein echter Wettbewerbsvorteil für Europa entstehen. Mehrsprachigkeit bietet per se viele Vorteile. Bilingual aufwachsende Kinder verfügen unter anderem über ein besseres Leseverstehen. Die IT-technisch mögliche „Harmonisierung“ aller EU-Sprachen würde uns darüber hinaus den Homogenitätsvorteil bringen, von dem die (weitgehend [37]) einsprachigen Länder wie die USA und China bereits profitieren. Während die meisten KI-Systeme heutzutage Spezialitäten sind — sie können nur eine Sache gut, und das meistens nur in einer Sprache — beobachten wir immer größere Vorteile mehrsprachiger KI-Systeme. Hier liegt somit eine besondere Herausforderung für Europa vor und ein besonders hoher Nutzen, der einen Entwicklungsschub bringen könnte.
Bildung und Ausbildung ist die Brücke zur KI
Zurück zur Kernfrage: wie können wir KI zum Nutzen führen, vor allem in der Breite der Bürger. Der europäische Weg im Bereich KI lautet Bildung. Als Beispiel sei hier der in Finnland frei verfügbare Online Kurs Elements of Artificial Intelligence genannt, der von der finnischen Regierung gefördert wird und von der DIHK gemeinsam mit appliedAI ins Deutsche übersetzt wurde. Wir müssen das Grundwissen zu KI möglichst vielen Menschen zur Verfügung stellen und damit die Voraussetzung zur breiten Akzeptanz in unserer Gesellschaft legen. Auch dies entspricht unserem Weltbild, nämlich dass kompetente Bürger besser in der Lage sind, freie und positive Entscheidungen zum Einsatz von Technologien zu tragen. Unser europäisches Ziel sollte ja sein, dass Entscheidungen zu neuen Technologien von der Breite der Gesellschaft getragen werden. Nur dann kann diese in Industrie und Verwaltung eingesetzt werden und damit Wertbeiträge für den Mittelstand und für die Verwaltung erzeugen.
Der Mittelstand ist skeptisch
Im Mittelstand gibt es leider noch viele Vorbehalte gegenüber KI und der Einsatz von Automatisierungsanwendungen beschränkt sich häufig auf Big Data-Analytics. Der Mittelstand steht neben der „Upskilling“-Aufgabe vor der Herausforderung, zu identifizieren, was genau aus der Flut an KI-Forschungsergebnissen für die Industrie, das Unternehmen oder den konkreten Anwendungsfall wichtig ist. Ein Problem ist, dass KI oftmals nur eine Art Marketing-Label ist. Am Ende handelt es sich dann normativ nicht um KI, und das Wertversprechen kann nicht erfüllt werden. Die Lösung kann nur sein, erste explorative Schritte im Einklang mit der individuellen KI- und Datenstrategie für werthaltige Nutzeranwendungen zu wagen. Wir müssen uns daran gewöhnen, auch bei größter Komplexität in einer bestimmten Domäne den ersten Schritt mit KI zu wagen und dabei auch auf externe Kooperationen nicht zu verzichten, selbstverständlich auf Basis vorhergehender Prüfungen, um nicht auf jeden Marketing-Gag hereinzufallen. Dabei ist es sinnvoll, weniger im „freien Raum“ spekulativ zu experimentieren, sondern sich mehr auf das belastbare Erfahrungen und Potentiale künstlicher Intelligenz in konkreten und unternehmensspezifischen Anwendungsfällen zu konzentrieren. Diese sind dann unter marktwirtschaftlichen Bedingungen nutzbar zu machen.
Konnektivität
Wir benötigen mehr Vermarktung und Brückenschläge, damit es nicht zu einer Entkopplung kommt und der Mittelstand nicht bei diesem Thema abgehängt wird. Der Mittelstand findet oftmals kaum passendes Personal für KI in der Praxis. Der spannendste Blue Print hierfür ist Singapur, insbesondere das Programm „100 Experiments“ (100 E). So nennt sich das „flagship program“, um die Herausforderungen der Industrie in Bezug auf künstliche Intelligenz in den Griff zu bekommen. Unternehmen können „100 E“-Projekte vorschlagen, für die es noch keine standardmäßigen „off-the-shelf“- Lösungen gibt. Die daraus resultierenden KI-Projekte im Mittelstand werden zu 50% staatlich unterstützt. Dabei soll über den Zeitraum von einem halben Jahr der Wissensaufbau in Kombination mit der Entwicklung von Prototypen vorangetrieben werden [38]. An internationalen Beispielen können wir also viel lernen, unter anderem auch von Kanada. Die Nordamerikaner haben früh in KI-Technologie investiert. Heute bringt Kanada Wissenschaft und Wirtschaft zusammen und ist Vorbild für Deutschland [39]. Beide Länder haben kluge Strategien, die zudem mit verhältnismäßig wenig Ressourcen auskommen. Globales Benchmarking ist angesagt.
Forcierung des Europäischen KI-Marktes: gleichzeitig Druck aufbauen und Sogwirkungen erzeugen
Insgesamt gibt es in Deutschland viele Initiativen, die Forschungstransfer fördern, unter anderem die KI-Mittelstandszentren des Bundeswirtschaftsministeriums. Weiterhin gibt es den KI-Park, eine Innovationsplattform für Künstliche Intelligenz, die Start-ups mit Unternehmen aus dem öffentlichen Sektor vernetzt [40], und die appliedAI-Initiative, die die Anwendung von KI in Europa fördert und dabei große Partner wie Google, SAP und Siemens einbindet [41]. Dazu gibt es immer mehr Bildungsmaßnahmen, um KI-Kompetenz aufzubauen. Viele Familienunternehmen und Hidden Champions haben noch wenig Verständnis im Bereich KI. Dort ist vor allem Weiterbildung für das mittlere und obere Management gefordert. Wissen zu Themen wie neuronale Netze und deren Bedeutung für das Unternehmen bedürfen der Aufklärung. Jedoch ist dies weniger eine Aufgabe der Forschung. Das Bundesfinanzministerium hat im letzten Jahr eine Initiative in Form eines Marktplatzes gestartet, damit KI-Artefakte, wie zum Beispiel Codes, handelbar werden. Somit werden Barrieren für den Mittelstand gesenkt, damit Kapazitätsengpässe für Entwickler zumindest etwas kompensiert werden.
Künstliche Intelligenz könnte einen enormen Beitrag für die Entwicklung in Deutschland und die europäische Integration leisten. Bislang ist die Zusammenarbeit in der Forschung noch gering, aber der Weg ist klar.
Weißbuch Künstliche Intelligenz der Europäischen Kommission
Am 19. Februar 2020 hatte die Europäische Kommission ihr Weißbuch zur Künstlichen Intelligenz vorgelegt. Dies umfasst wichtige Stellgrößen, um die Potenziale Künstlicher Intelligenz zu erschließen und etwaigen Risiken zu begegnen. Zielvorstellung der Europäischen Kommission ist ein auf europäischen Werten und Regeln basierenden KI-Ökosystems, das der gesamten europäischen Gesellschaft und Wirtschaft die Vorteile dieser Technologie erschließt. Enge Zusammenarbeit der Mitgliedstaaten ist dabei unabkömmlich. Eine zentrale Bedeutung wird der bereits vorgestellten deutsch-französischen Initiative für eine dezentrale europäische Dateninfrastruktur zugewiesen, die unter dem Projektnamen GAIA-X geführt wird. Dieses soll zukünftig zusammen mit weiteren Mitgliedstaaten weiterentwickelt werden. Die entsprechenden Programme der EU-Kommission im neuen mehrjährigen Finanzrahmen, etwa „Digitales Europa“ und „Horizont Europa“, aber auch aus den Europäischen Struktur- und Investitionsfonds sollen mit entsprechenden finanziellen Mitteln ausgestattet werden. Das Programm „Digitales Europa“ als neues Sektorprogramm des nächsten mehrjährigen Finanzrahmens (MFR) sollte einen thematischen Schwerpunkt auf Hoch- und Höchstleistungsrechnern sowie auf KI legen. Gundsätzliche Überlegungen zum Aufbau einer europäischen Governance-Struktur für KI sollen in Form eines Rahmens für die Zusammenarbeit der zuständigen nationalen Behörden aufgenommen werden. Dabei sollte sichergestellt sein, dass die Mitgliedstaaten jeweils eine koordinierende Institution benennen, welche die Maßnahmen des europäischen KI-Netzwerks auf nationaler Ebene koordiniert, die jeweiligen nationalen Behörden einbezieht und bei ihren Aufgaben unterstützt [42].
KI im Corona-Konjunkturprogramm der Bundesregierung
Bundestag und Bundesrat hatten am 29. Juni 2020 das Corona-Steuerhilfegesetz beschlossen und damit erste zentrale Elemente des Konjunkturpakets der Bundesregierung auf den Weg gebracht. Die Maßnahmen sind Teil eines bisher beispiellosen, umfassenden Konjunkturprogramms im Volumen von rund 130 Milliarden Euro, auf das sich der Koalitionsausschuss am 3. Juni verständigt hatte. Mit dem Zukunftsprogramm werden zudem im Bereich Digitalisierung Investitionen in Wirtschaft und Verwaltung gestärkt:
- Die geplanten Investitionen bis 2025 in Künstliche Intelligenz (KI) werden von 3 Milliarden Euro auf 5 Milliarden Euro erhöht. Damit wird ein wettbewerbsfähiges europäisches KI-Netzwerk unterstützt.
- Für den Bau von mindestens zwei Quantencomputern durch geeignete Konsortien stellt der Bund die nötigen Mittel bereit.
- Zum Aufbau eines flächendeckenden 5G-Netzes bis 2025 soll die neue Mobilinfrastrukturgesellschaft mit 5 Milliarden Euro ausgestattet werden.
- Um bei künftigen Kommunikationstechnologien wie 6G in der Weltspitze als Technologieanbieter eine führende Rolle zu spielen, investiert der Bund in die Erprobung neuer Netztechnologien.
- Die Digitalisierung der Verwaltung wird gefördert, u.a. damit Verwaltungsleistungen online zur Verfügung gestellt werden [43].
Resümee
Der Handlungsdruck, der sich zur Forschung, Entwicklung und Implementierung von Künstlicher Intelligenz in Deutschland und Europa in den letzten Jahren immer weiter aufgestaut hat, wurde durch die Nachrichten aus dem vordringenden China und zuletzt durch die Zwänge, die uns aus der Corona-Epidemie auferlegt wurden, der deutschen Öffentlichkeit und Politik zunehmend deutlicher. Die teils dramatischen Rückstände werden sichtbarer und offener diskutiert. Das Weißbuch der europäischen Kommission und die Programme, die die Bundesregierung zur KI-Förderung aufgesetzt hat, lassen hoffen. Dennoch sind dies vor allem vollmundige Worte. Die bislang vorgewiesenen Taten sind im Vergleich zu den verbalen Verpflichtungen immer noch sehr schwach oder sogar realitätsfern. Kritisch zu verweisen ist beispielhaft auf die (umstrittene) Ernennung von 100 KI-Professuren, von der nur ein kleiner Bruchteil eingestellt wurde, das hoch gepriesene KI-Cluster der Humboldt-Stiftung, dem bis heute nur zwei neu ernannten Professoren zugewachsen sind.
Die entscheidenden Schritte zur Überführung von KI in cash-bringende Geschäfte liegen noch vor uns. Wie aufgezeigt gibt es dazu eine Vielfalt von Initiativen, mehr oder weniger miteinander verwoben. Die paneuropäische Vernetzung ist dabei eklatant schwach. Den beschönigenden Worten und blumigen Versprechen müssen Taten folgen, die in knallharte wirtschaftliche Erfolge münden. Voraussetzung ist, dass uns die gesellschaftliche Transformation gelingt. Das ist ein langer und dornenreicher Prozess des kulturellen Wandels, der auch viel Geld kosten wird, das noch gar nicht budgetiert wurde.
Die Verhandlungen über das Post-Corona-Konjunkturprogramm im Juli 2020 haben gezeigt, wie schnell die von der EU-Kommission vereinbarten Budgets zur Digitalisierung gekippt werden können, um Unwillige zur Zustimmung zu bewegen. Die weiteren Abstimmungsprozesse werden schwierig und mühsam. Hoffen wir, dass die Vernunft obsiegt. Ohne führende Positionen auf KI-basierten Geschäften, ohne den Übergang in eine (auch) KI-getriebene neue Wissensgesellschaft kann die EU weder zusammenwachsen noch seine Hoffnungen und Ansprüche auf Wohlstand in einer freiheitlich-demokratischen Sozialgesellschaft realisieren.
Quellen und Referenzen
[1] Rede Andreas Steier vor dem Deutschen Bundestag, Sept. 2019. https://www.andreas-steier.de/ki abgerufen 24.7.2020
[2] Stiftungsbericht „Neue Alexander von Humboldt-Professuren für Künstliche Intelligenz“ https://www.humboldt-foundation.de/web/65734972.html Abgerufen 24.7.2020
[3] Zu benennen ist hier als Beispiel der Untergang der deutschen Telekom-Industrie, als eine der grundlegenden Branchen für die aktuelle digitale Transformation. Dies ging auf die verengte gegenseitige Orientierung zwischen Siemens als Hauptlieferant und der Deutschen Post (später Deutsche Telekom) zurück, die gemeinsam der Überzeugung waren dass sich das Package Switching in der Sprachübertragung nicht durchsetzen würde. Diese Fehleinschätzung zwang Siemens schließlich zum Rückzug aus der Telekommunikation.
[4] https://www.digital-future.berlin
[5] https://www.einsteinfoundation.de/personen-projekte/einstein-zentren/einstein-zentrum-digitale-zukunft/ Abgerufen 24.7.2020
[6] https://www.plattform-lernende-systeme.de/ki-in-deutschland.html Abgerufen 24.7.2020
[7] https://ec.europa.eu/digital-single-market/en/news/h2020-call-european-network-artificial-intelligence-excellence-centres-information-and Abgerufen 24.7.2020
[8] https://ec.europa.eu/digital-single-market/en/news/digital-europe-programme-proposed-eu92-billion-funding-2021-2027
[9] https://ec.europa.eu/digital-single-market/en/news/connecting-europe-facility-2021-2027-have-your-say-cef2-digital
[10] https://ec.europa.eu/info/horizon-europe-next-research-and-innovation-framework-programme_en
[11] https://ec.europa.eu/germany/news/20200219digitale-zukunft-europas-eu-kommission-stellt-strategien-fuer-daten-und-kuenstliche-intelligenz_de Abgerufen 24.7.2020
[12] Weißbuch zur Künstlichen Intelligenz –Ein europäisches Konzept für Exzellenz und Vertrauenhttps://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_de.pdf Abgerufen 24.7.2020
[13] Deep-Tech steht für hochkomplexe Technologien, die auf wissenschaftlicher Forschung oder technischen Neuerungen basieren und die digitale Transformation befeuern.
[14] Zur Diskussion über die Entwicklung, Nutzen und Datenschutz siehe z.B. https://www.deutschlandfunk.de/corona-tracing-app-so-funktioniert-die-deutsche-corona-warn.2897.de.html?dram%3Aarticle_id=473614 abgerufen 14.7.2020
[15] Etwa mit dem Pilotprojekt der AOK Mecklenburg-Vorpommern, gestartet im Oktober 2017. Siehe dazu: https://www.kaden-verlag.de/ueber-uns/nachrichten/neues-detail/aok-pilotprojekt-zur-digitalen-patientenakte-startet/?tx_felogin_pi1%5Bforgot%5D=1Abgerufen 14.7.2020
[16] Siehe dazu: https://www.handelsblatt.com/politik/deutschland/digitalisierung-des-gesundheitswesens-der-start-der-elektronischen-patientenakte-droht-sich-zu-verzoegern/25339008.html?ticket=ST-6447355-oR9okj6dvnwl4UOSJPzA-ap1 Abgerufen 14.7.2020
[17] Siehe dazu: https://www.it-planungsrat.de/SharedDocs/Downloads/DE/Fachkongress/5FK2017/26April_II_once-only-prinzip.pdf?__blob=publicationFile&v=3 Abgerufen 14.7.2020
[18] https://www.gesetze-im-internet.de/egovg/__5.html
[19] https://initiatived21.de/publikationen/egovernment-monitor-2019/
[20] Weiteres zur Diskussion: https://publicplan.de/blog/verwaltung-once-only-prinzip Abgerufen 18.7.2020
[21] https://de.wikipedia.org/wiki/Digitale_Infrastruktur
[22] https://de.wikipedia.org/wiki/Bundesregierung_(Deutschland)
[23] https://www.bmwi.de/Redaktion/DE/Dossier/gaia-x.html Abgerufen 234.7.2020
[24] https://de.wikipedia.org/wiki/GAIA-X Abgerufen 18.7.2020
[25] https://www.zeit.de/digital/internet/2019-10/gaia-x-peter-altmaier-europaeische-cloud-zentrale-datensammlung-firmen/seite-2Abgerufen 24.7.2020
[26] https://www.wirtschaft-regional.net/branche/internet-technologie/digitaler-marktplatz-fuer-kuenstliche-intelligenz/ Abgerufen 20.7.2020
[27] Zitiert aus der Einführung zur Homepage: https://www.kipark.de/about/ Abgerufen 20.7.2020
[28] Jeweils in einer Sprachrichtung ein Team, d.h. zwischen zwei Sprachen zwei Teams, somit rechnerisch bei heute in der EU 24 Amtssprachen: 24 x 24 Teams minus 24 = also 552 Übersetzerteams.
[29] https://www.europarl.europa.eu/news/de/faq/21/welche-sprachen-werden-im-parlament-verwendet Abgerufen 20.7.2020
[30] https://europa.eu/european-union/about-eu/eu-languages_de Abgerufen 20.7.2020
[31] In der Regel arbeiten alle Dolmetscher und Übersetzer in ihrer jeweiligen Muttersprache. Bei 24 Amtssprachen ergeben sich laut EU die vorgenannten 552 Kombinationen, jeweils ein Muttersprachler-Team in der Zielsprache voraussetzend. Um all diese Sprachkombinationen zu bewältigen, nutzt das Parlament ein System von „Relais-Sprachen“, bei dem zunächst in die gebräuchlichsten Sprachen (Deutsch, Englisch oder Französisch) gedolmetscht bzw. übersetzt und dann aus diesen in andere Sprachen übertragen wird. https://www.europarl.europa.eu/news/de/faq/21/welche-sprachen-werden-im-parlament-verwendet Abgerufen 20.7.2020
[32] Weiteres zur Sprachverwendung und Sprachkompetenz im EU-Raum siehe: https://www.europarl.europa.eu/news/de/headlines/society/20170705STO79028/infografik-mehrsprachigkeit-in-europa Abgerufen 22.7.2020
[33] Bereits in 2005 wurden die Übersetzungskosten in der EU mit 511 Mio. € veranschlagt. https://www.welt.de/welt_print/article965083/EU-Uebersetzungen-kosten-511-Millionen.html Abgerufen 22.7.2020
[34] Näheres siehe Kai Lucks: Der Wettlauf um die Digitalisierung, Schaeffer-Poeschel-Verlag 2020, S. 216-217.
[35] Das heißt nach offizieller EU-Rechnung, dass von jeder Sprache direkt in jede Sprache in jeweils beiden Richtungen ein Team eingesetzt werden muss, weil für die jeweils andere Richtung je ein anderer Muttersprachler einzusetzen ist. Rechnerisch ergibt sich daraus, wie oben beschrieben, die Formel N quadrat minus N. Diese Übersetzungslogik trifft auch für die automatisierte Übersetzung zu, die „auf derselben Sprachverbindungs-Achse“ in jeweils unterschiedlicher Richtung unterschiedlich auszustatten ist.
[36] Das Europaparlament beschäftigte nach eigenen Angaben in 2005 ca. 270 verbeamtete Dolmetscher, hinzu kommen noch über 1.500 externe und akkreditierte Dolmetscher.
[37] Zu differenzieren ist aber, dass auch in den USA und China wesentliche Teile der Bevölkerung aus anderen Muttersprachen stammen als dem Englischen (USA, hier also Spanisch für die Hispanics) und in China neben dem hochchinesischen Mandarin etwa Kantonesich. Innerhalb der Haupt-Sprachfelder sind die Dialekte hierbei so unterschiedlich das sich etwa Mandarin-Sprecher aus Nordchina und Südchina nicht verstehen können.
[38] https://www.aisingapore.org/industryinnovation/100e/ Abgerufen 24.7.2020
[39] https://www.handelsblatt.com/unternehmen/it-medien/ki-foerderung-was-deutschland-beim-thema-kuenstlicher-intelligenz-von-kanada-lernen-kann/24012194.html?ticket=ST-12747398-By7IqNOKZTcRdUMmqagc-ap2 Abgerufen 24.7.2020
[40] Diese Plattform erreicht 12.000 KI-Start-ups und 40.000 KI-Experten weltweit. https://www.kipark.de/ abgerufen 25.7.2020
[41] https://www.golem.de/news/initiative-applied-ai-ki-verstehen-und-ihren-gesellschaftseinfluss-diskutieren-1804-133787.htmlAbgerufen 25.7.2020
[42] Auszug aus der Stellungnahme der Bundesregierung gegenüber dem KI-Programm der Europäischen Kommission. https://www.bmjv.de/SharedDocs/Downloads/DE/News/Artikel/Stellungnahme_BReg_Weissbuch_KI.pdf;jsessionid=EF846E34E9D3F4ED974E9CD0A826EECD.1_cid334?__blob=publicationFile&v=1 zu finden in: https://www.bmjv.de/SharedDocs/Artikel/DE/2020/062920_BReg_Weissbuch_KI.html Abgerufen 24.7.2020
[43] https://www.bundesfinanzministerium.de/Content/DE/Standardartikel/Themen/Schlaglichter/Konjunkturpaket/2020-06-03-konjunkturpaket-beschlossen.html Abgerufen 25.7.2020. Die Bullet-Points sind wörtliche Wiedergaben aus dem Programm
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.