Künstliche Intelligenz und Governance

Von der Personalabteilung im Unternehmen über Krankenversicherungen und Kreditinstitute bis hin zu staatlichen Institutionen wie Finanzämtern oder Rentenversicherung: An immer mehr Stellen unterstützen KI-gestützte Werkzeuge Sachbearbeiter bei Fallentscheidungen, nehmen Vorauswahlen oder Scorings vor. Doch viele Beispiele zeigen, dass es dabei – vor allem wegen mangelnder Datenqualität – zu Voreingenommenheiten, ungerechten und inhaltlich fragwürdigen Entscheidungen kommen kann. Wie dies vermieden werden kann, ist das Thema dieser Folge unserer Serie „KI: Thoroughly explained“.
Interview von Intelligente Welt
17. August 2022
Interviewpartner

Dr. Leon Tsvasman

Dr. Leon Tsvasman ist ein erfahrener Dozent, Instruktionsdesigner und Autor und arbeitet als pädagogischer Berater an mehreren staatlichen und privaten Universitäten in Deutschland. Seine Forschung bezieht sich auf Complexity Cybernetics, künstliche Intelligenz, Psychology of Information, Ethics of Leadership und Innovation.
Interviewpartner

Leon TSVASMAN, Dr.phil/PhD

Hochschuldozent bei Dr. Tsvasman Academic Consulting

Dr. Leon Tsvasman, ein philosophischer Medientheoretiker, verbindet gerne authentische Einblicke mit interdisziplinärem Scharfsinn. Seine Forschung geht über die Akademie hinaus und fundiert Reflexionen über die Komplexitäten einer ethisch stagnierenden nach dem Sinn suchenden Zivilisation. Sein Einfluss erstreckt sich von der Gelehrtenwelt bis zum Bereich der digitalen Transformation und prägt maßgeblich den zeitgenössischen Diskurs mit. 1968 in eine musikalisch und medizinisch geprägte Familie hineingeboren, hat sich Leon Tsvasman in KI, Ethik und interdisziplinärer Forschung mit einem Vordenkeransatz profiliert. Sein rebellischer Gemüt und kreative Energie, begleitet von Neugier auf menschliche Erkenntnispotenziale, fruchteten in eigenen literarischen und künstlerischen Experimenten. Seine Jugendjahre waren außerdem geprägt von einer Faszination für Science-Fiction von Autoren wie Isaac Asimov, Stanisław Lem, Ray Bradbury und den einfallsreichen Essays von Jorge Luis Borges, die sein Interesse am Zusammenspiel von Zukunftskonzepten und menschlicher kreativer Intelligenz entzündeten. Auf seiner intellektuellen Wanderschaft durch die Lehren von Kant und Hegel fand Tsvasman einen gangbaren Weg in das komplexe Gebiet der Kybernetik, angeleitet von Denkern wie Norbert Wiener, Heinz von Foerster, Humberto Maturana und Ernst von Glasersfeld. Die Kombination aus künstlerisch-literarischer Experimentierfreude und wissenschaftlicher Strenge definierte Tsvasmans polymathischen Ansatz und positionierte ihn als visionären Wegbereiter in den Bereichen KI, Ethik und interdisziplinäre Forschung, in denen er nuancierte, humanistische Einsichten mit technologischer Affinität verbindet. Nach ersten Studienerfahrungen in Medizin und Journalismus war Dr. Tsvasman erleichtert, die Traumata seiner von totalitärer Zwangsprägung gekennzeichneten Sozialisation hinter sich zu lassen. Er wandte sich den Geisteswissenschaften zu und fand sich in der erfrischend aufregenden, jedoch völlig unbekannten sprachlichen und kulturellen Landschaft von Deutschland 1990er Jahre wieder. Rasch erlangte er seinen Magister in Kommunikation, Medien, Linguistik, Sozial- und Politikwissenschaft an den Universitäten Bonn und Essen. Diese Übergangsphase gipfelte in seiner Promotion an der Universität Münster, woraufhin er die anspruchsvolle Rolle eines freiberuflichen Dozenten übernahm. Bewusst verzichtete er auf einen lukrativen Karriereweg und konzentrierte sich stattdessen auf die Entwicklung seines Konzepts einer hochgradig individualisierten, potenzialorientierten Ethik in der Hochschuldidaktik. Dr. Tsvasmans akademischer Weg wurde maßgeblich durch seine Zeit an der damals renommierten Lomonossow-Universität geprägt, ebenso wie durch seine Zusammenarbeit mit Professoren aus der Schule von Gerold Ungeheuer, einer herausragenden Persönlichkeit in der deutschen Kommunikationswissenschaft, an den Universitäten Bonn und Essen. Diese reiche und vielfältige Bildungsetappe nährte Dr. Tsvasmans einzigartigen Ansatz und förderte eine kritische Perspektive, die eine Vielzahl von akademischen Disziplinen und Systemen umspannt. Nach seiner Promotion bei Siegfried J. Schmidt, einer führenden Figur im deutschen konstruktivistischen Diskurs, ging Leon Tsvasman seiner enzyklopädischen Neigung nach. Sein für konzeptionelle Vorzüge von Kritik und Studierenden empfohlenes Medien- und Kommunikationslexikon ('Das Große Lexikon Medien und Kommunikation', 2006) legte einen systemisch-konstruktivistischen Grundstein in den Fächern mit Kommunikation, Information und Medien. Dieses selbstinitiierte Projekt, inhaltlich unterstützt von damals führenden Professoren in diesen Disziplinen und gelobt von Gelehrten wie Professor Ernst von Glasersfeld (University of Massachusetts) für seine außergewöhnliche Intelligenz, markierte einen bemerkenswerten Wandel im einschlägigen akademischen Diskurs. Das Lexikon verschob den traditionell soziologisch orientierten Fokus von Kommunikation und Medienstudien hin zu einem breiteren, universell anwendbaren systemisch-kybernetischen Ansatz, der insbesondere deren Praktikabilität für kreative und informationstechnologische Unterfangen verstärkte. Es aktualisierte grundlegende Konzepte wie Intersubjektivität und Medialität neu und trug so zur Diversifizierung und Integration in medienbezogenen akademischen Disziplinen bei. Dieser Wandel markierte die Neupositionierung von bis dato oft allzu heterogenen Medienfächern in der akademischen Landschaft. In ähnlicher Weise verwendet Tsvasman in seinen eigenen Schriften dialektisch präzise, kontextuell angepasste Definitionen, die für ihre interdisziplinäre Robustheit bekannt sind und auf sorgfältiger Prüfung beruhen. Als inspirierter Polymath und Mentor aus Berufung setzt sich Dr. Tsvasman für skalierbare und lebensbegleitende KI-gestützte Wissensinfrastrukturen ein. Er priorisiert das Streben nach inspirierender Bedeutung, eine Abkehr von der Trivialisierung reiner Werkzeugabhängigkeit. Seine essayistischen Experimente bieten nuancierte Perspektiven und interoperable Lösungen, die sich mit globalen Komplexitätsherausforderungen befassen. Diese Arbeiten integrieren erkenntnistheoretische, anthropologische und kybernetische Dimensionen und schaffen so eine einzigartige Perspektive auf das datengesteuerte Zeitalter. 'The Age of Sapiocracy' (2023) skizziert eine Vision für konsequent ethische, datengesteuerte Governance, während 'Infosomatische Wende' (2021, auf Deutsch) die Zivilisation neu denkt und radikale Innovation als entscheidend für eine widerstandsfähige, wissensreiche Gesellschaft fördert. Das dialogisch-experimentelle 'AI-Thinking' (2019, auf Deutsch) vertieft sich in die Auswirkungen generativer KI, hinterfragt verbreitete Ängste und Missverständnisse und erforscht ihren Einfluss auf die menschliche Identität. Diese Veröffentlichungen wurden zu einer Quelle zahlreicher Aphorismen, die in sozialen Medien und deutschen Aphorismen-Archiven zirkulieren. In seinem Ansatz, der auf humane Innovation basiert, harmonisiert Dr. Tsvasman systemische Sichtweisen auf Liebe und Inspiration mit gesellschaftlich ermöglichten Konzepten in Kunst und ethisch robuster, skalierbarer Wissensbildung. Seine Philosophie navigiert durch Unsicherheiten, verankert in einer Wahrheitsorientierung, gestärkt durch KI-gestützte, naturintegrierte Zivilisationsentwürfe, die von selbstregulierenden biosoziotechnologischen Infrastrukturen getragen werden. Diese Sichtweise steht in fundierter Konkurrenz zu den Paradigmen des Transhumanismus, die zum Mainstream geworden sind. Im digitalen Bereich ist Tsvasmans Diskurs über die gesellschaftlichen Auswirkungen der Digitalisierung, insbesondere seine Strategien zur Prävention von Machtverzerrungen im Zivilisationsdesign, zunehmend einflussreich. Seine Präsenz auf sozialen Publikationsplattformen als Disruptor mit originellen Perspektiven zieht ein kritisches Publikum an. Seine Beiträge lösen oft Innovationen durch "Aha"-Momente aus und infizieren Denkweisen mit einfallsreichen Impulsen. In seiner nuancierten, dialogorientierten Publizität navigiert Leon Tsvasman durch Themen wie strategische Intelligenz, Kybernetik multipler Ordnung, KI, globale Governance und Medienethik, aber auch Hochschuldidaktik mit fruchtbaren Praxisimpulsen und Konzeptkunst mit kollaborativen kuratorischen Experimenten. Mit Beiträgen für Plattformen wie dem Digitale Welt Magazin der Universität München verbindet er Tiefe mit Klarheit. Als Pionier in progressiver Bildung integriert er generative KI in die Akademie und setzt sich für eine sinnorientierte Wirtschaft ein, indem er ethisches Bewusstsein in Wirtschafts- und IT-Disziplinen einfließen lässt. Sein aphoristischer Stil verkörpert aufklärerisches Schrifttum. Er hält gerne Keynotes und nimmt an Podiumsdiskussionen auf Konferenzen und Tagungen teil.

Alle Beiträge anzeigen

Bereits 2014 testete Amazon den Einsatz von KI-Werkzeugen bei der Vorauswahl von Bewerbungen. Die HR-Sachbearbeiter freuten sich, dass sie mehrere hundert Eingangsbewerbungen nicht mehr von Hand durcharbeiten mussten, sondern von der KI die vermeintlich am besten passenden Kandidaten vorausgewählt bekamen. Bis sie feststellten, dass die Auswahl weiße Männer bevorzugte. Frauen und Angehörige anderer Ethnien wurden systematisch benachteiligt. Die Analyse der Entscheidungsprozesse zeigte, dass das Machine-Learning-System beim Training erkannte, dass in der Vergangenheit überwiegend weiße Männer im Unternehmen Karriere machten – und bildete dieses unbeabsichtigte Ungleichgewicht in seinen Entscheidungen ab. Das problematische Tool wurde schnell wieder abgeschafft [1].

Ein anderes Beispiel aus den technikaffinen USA geht in eine ähnliche Richtung: Das staatliche Gesundheitssystem ließ eine KI einschätzen, welche Patienten einen besonderen Pflegebedarf hatten. Eine im Oktober 2019 erschienene Studie [2] wies allerdings nach, dass Afroamerikanerinnen und Afroamerikaner bei gleich schwerer Krankheit vom System seltener für die zusätzliche Pflege vorgeschlagen wurden. Offenbar hatte der Algorithmus die Risikohöhe der Patienten anhand der zu erwartenden Kosten für die weitere Behandlung berechnet. Da im US-Gesundheitssystem in der Vergangenheit mehr Geld für die Behandlung von Weißen beziehungsweise umgekehrt weniger Geld für die Behandlung von Afroamerikanern ausgegeben wurde, wurde genau diese vorurteilsbedingte Daten-Historie zur selbsterfüllenden Prophezeiung.

Aber auch hierzulande gibt es Beispiele, dass Scoring-Systeme wie etwa die Prüfung von Kreditwürdigkeit durch Banken Ungerechtigkeiten produzieren, indem sie etwa die Solvenz eines Antragstellers auf Basis der Wohngegend der angegebenen Adresse einschätzen – und somit die Kreditwürdigkeit des Beurteilten an der seiner Nachbarn.

Unintelligente KI kann sehr problematische Konsequenzen haben

Die Beispiele zeigen, dass vermeintlich „intelligente“ Systeme zu unintelligenten Ergebnisse führen können, die dann möglicherweise sehr problematische Konsequenzen zeigen. Umso schlimmer ist dies, wenn die Betroffenen – und oft nicht einmal die Nutzer – solche Verzerrungen und Fehlentscheidungen gar nicht erkennen.

Wie lässt sich dies überhaupt erkennen und im nächsten Schritt verhindern? Diese Frage stellten wir dem aus den bisherigen Folgen bereits wohlbekannten KI-Experten und Philosophen Dr. Leon R. Tsvasman [3]. „Daten sind schlecht, wenn sie unvollständig sind“, so der Experte. „Also liegt das Problem in der reduzierten Komplexität – der spezifisch menschlichen Neigung, komplexe Zusammenhänge zu vereinfachen – sie zu verkürzen, zu pauschalisieren, zu trivialisieren.“

Das Problem liege also darin, wie sich die an der Datenaufbereitung [4] beteiligten Menschen organisieren und verständigen. Die Datenquellen, so Dr. Tsvasman, werden ja im Auftrag von Unternehmen oder Organisationen bereitgestellt, die Systeme entsprechend im Auftrag solche Instanzen trainiert. „Wenn sich ein Mensch mit einem anderen Menschen verständigt, um gemeinsam etwas zu tun – was direkt oder indirekt wohl immer der Fall ist – vereinfacht man gerne, um zügig zu Ergebnissen zu kommen.“

Wohin dies führt, ist an vielen Beispielen klar zu erkennen: „Umwelt? Nachhaltigkeit? Alles schön und gut und auch irgendwie relevant. Aber eigentlich müssen wir Autos verkaufen.“

Die meisten wirklichen Probleme sind nicht so eindeutig wie Komplexitätsreduktion nahelegt

Mit einem anderen Beispiel unter dem Eindruck der Fußball-EM verdeutlicht der KI-Experte seine Einschätzung: „Ein Dichter, der sich – frei von Verständigung zwecks gemeinsamer Zielerreichung –den Nuancen eines Moments widmet, erkennt darin eine ungeheurere Vielfalt und Komplexität, und würdigt sie entsprechend. Aber ein Fußballspieler sieht nur den Ball, die Mit- und Gegenspieler, die Situation auf dem Feld usw. Die Poesie des Fußballs mag auch spannend sein – aber weniger relevant, wenn man vor dem Tor steht. Wenn Sie einen Spieler trainieren, der ein Spiel gewinnen soll, sind Sie auf die Pragmatik des konkreten Spiels und des angestrebten Siegs fokussiert. Der Mensch als Spieler ist deshalb nicht der ,ganze Mensch‘ mit allen seinen Potenzialen. Ebenso ist eine konkrete KI-Lösung nur ein Problemlösungsinstrument für ein konkret definiertes Problem.“

Doch die meisten wirklichen Probleme der Welt, betont Dr. Tsvasman, seien eben selten so eindeutig wie in der symbolisch reduzierten Wirklichkeit des Spiels. Und genau dies stehe stellvertretend für die meisten Situationen, die Menschen als problematisch sehen. Vereinfacht arbeitende KI-Werkzeuge führen dann auch nur zu vereinfachten und verzerrten Lösungen.

Hinzu komme ein weiterer Aspekt: Alle aktuell verfügbaren Daten kommen nicht „sauber“ von ihren menschlichen Urhebern, sondern beinhalten immer noch – in die semantische (also begriffliche) Hülle unserer Sprachen und Begriffswelten verpackt – die Setups und Arrangements der bestehenden gesellschaftlichen Verhältnisse.

Zeitdruck kostet uns Wahlmöglichkeiten

„Das Lückenhafte der vorhandenen Daten hat immer den Stempel einer konkreten menschlichen Aktualität in sich. Und die Muster dieser Lücken sind vielfältig, weil sie in den konkurrierenden Machtinteressen medialisiert und somit verzerrt werden – durch diverse tradierte und zum Teil auch willkürliche Verfahren, Filter, Abläufe, Bedenken, Vorurteile, Ängste und Glaubenssätze. Dies passiert schon lange bevor diese Daten für die Verarbeitung durch KI-Systeme verfügbar gemacht werden.“

Der Philosoph und Medienforscher führt weiter aus: „In jedem von Menschen aus seiner konkreten Aktualität stammenden ,Fakt‘ stecken Anteile von Visionen, Machtkonstellationen oder Ungewissheit. Solche Fakten sind nicht identisch mit Daten, die KI nachhaltig zum Lernen befähigen können.“ Wir seien es gewohnt, unter Zeitdruck zu handeln, und uns dabei – oft leider ziemlich willkürlich – auf das Wesentliche zu reduzieren. „Unsere eigenen Potenziale zugunsten einer allzu eng skalierten Aktualität opfernd, überwältigen wir uns selbst oder unsere Mitmenschen. Eine globale KI müsste das nicht – es sein denn, ihr wird es mehr oder weniger durch missverständliche Vorenthaltung oder systemische Verzerrung von Daten im Sinn willkürlicher Paradigmen aufgezwungen.“

Ein Mensch könne die ethische Maxime der Kybernetik („Handle stets so, dass die Anzahl deiner Wahlmöglichkeiten steigt.“) kaum umsetzen, weil er die Komplexität seiner Wahlmöglichkeiten gar nicht zu überblicken vermag. „Das menschliche Gehirn wäre dazu zwar in der Lage – das Ergebnis würde uns als Intuition erscheinen –, könnte aber nicht bewusst mit Begriffen in seiner konkreten sozialen Aktualität kommunizieren. Die meisten von uns würden nicht einmal nachvollziehen, dass man bessere Wahlmöglichkeiten hat, wenn die anderen sie auch haben. Aber selbst wenn man diese Zusammenhänge indirekt versteht, hat man in seiner Aktualität nicht die Bedenkzeit, adäquat in diesem Sinne zu handeln.“

KI muss von interessengeleiteten Verzerrungen befreit werden

Wie aber könnte eine Lösung dieses Dilemmas aussehen? Hierzu verweist Dr. Tsvasman auf einen Gedanken aus seinem jüngst erschienenen Buch „Infosomatische Wende“: „Es wird zunehmend offensichtlich, dass alle beschreibenden, klassifizierenden oder zuweisenden Differenzbegriffe unter Beachtung höherer Komplexität im übergreifenden Aktualitätsdiskurs tendenziell diskriminierend sind, weil Bedeutungen der meisten Wörter die Chimären tradierter Aktualität auf undefinierbare Potenzialitäten realer Subjekte übertragen. Wie kann also etwas aus den Daten getilgt werden, was schon unter den Menschen, die die Daten liefern, nicht ausreichend geklärt ist, dass die begrifflichen Limits aufgebrochen werden?

Aber eins ist sicher, und davon dürfen wir ausgehen: Wenn sich Algorithmen anhand von tendenziell vollständigen und nicht durch Interessen oder im Auftrag von Unternehmen, Organisationen oder Menschengruppen verfälschten oder ignorierten Daten in Echtzeit anpassen, womit die Mensch-KI-Intersubjektivität priorisiert wird, gibt es weniger Diskriminierung als in allen bisherigen Regulationen, an denen Menschen unmittelbar beteiligt sind. Und es ist auch wenig bedenklich, wenn einige Datenschleifen dabei aufgrund der Komplexität zunehmend oder gar exponentiell KI-intern ablaufen und somit in sich hermetisch werden, also zwar von internen Routinen, aber nicht mehr von Personen-im-Auftrag kontrolliert werden.“

Analog zur Medizin soll auch KI zunächst einmal keinen Schaden zufügen

Um Missverständnisse zu vermeiden, unterstreicht Dr. Tsvasman: „Kontrolle durch Personen-im-Auftrag – etwa im Auftrag von Organisationen oder Unternehmen – meint NICHT die Kontrolle durch den Menschen, sondern im Interesse von komplexitätsreduzierter Sinnproduktion trivialisierten systemischen Strukturen, die keine Wahrheit besitzen und nicht mal danach streben, sondern eine mehr oder weniger verkürzte, vereinfachte und kurzfristige Relevanz verkörpern.

Echte Kontrolle durch den Menschen ist an die menschliche Potenzialität gekoppelt – die Daten entstehen aus echten, lebenden sich orientierenden und sich änderndem Menschen in Echtzeit. Diese Menschen sind nicht irgendwelchen externen Parametern aus einer tradierten Aktualität heraus („du sollst“), sondern der echten gelebten hochkomplexen Subjektivität verpflichtet, die in einer realen Intersubjektivität aufgeht. Oder anders gesagt: In einem dynamischen Äquilibrium von intersubjektiven Wirklichkeitskonstruktion, die laufend aktualisiert wird.“

Der KI-Experte fährt fort: „Solange es verkürzte, das heißt komplexitätsreduzierte und kurzfristige Interessen gibt – und die gab es im Rahmen der Mensch-Mensch-Intersubjektivität immer schon –, bestimmen auch Intrigen und Machtkämpfe die Relevanz. Also geht es kurz- bis mittelfristig nicht darum, menschliche Akteure mit Kontroll-Interessen von der KI-Regulation fernzuhalten, sondern diese in einem vorsichtigen Ansatz so zu berücksichtigen, dass möglichst wenig unumkehrbarer Schaden in Form von Verzerrungen, die das Leben von Menschen und die Natur betreffen, erzeugt wird.“

„Das Hauptgebot der Medizin lautet „keinen Schaden zufügen“. Und das kann nicht nur passiv geschehen, sondern auch aktiv – etwa durch „unterlassene Hilfeleistung“. So ähnlich sollte es bei jedem Versuch laufen, KI durch kurzfristige, lokale oder pragmatische Interessen von menschlichen Organisationen präventiv oder reaktiv zu kontrollieren – und somit einem kleineren Übel eine viel größere Gefahr entgegenzustellen.“

Das Dilemma lässt sich nicht ohne Aufklärung, Bildung und Förderung systemischen Denkens lösten

Was sich in der Theorie einfach fordern lasse, stelle sich in der aktuellen Wirklichkeit als komplexes, aber notwendiges Unterfangen dar. Eine wesentliche Rolle spiele dabei Aufklärung, die schon heute auf die zukünftige Mensch-KI-Intersubjektivität vorbereiten müsse. Und das sei gar nicht so einfach zu erreichen, denn das dafür notwendige systemische Denken sei grundlegend anders als heute verbreitete Denkweisen: Relational und nicht faktenbezogen, und einhergehend mit der Einräumung eine höheren (Eigen-)Verantwortung des sich orientierenden Subjekts – gegenüber unterkomplexen, naiv-realistischen Weltbildern.

„Vollendet ist diese Aufklärung erst dann, wenn es zur Selbstverständlichkeit wird, dass Vielfalt mehr Wert hat als Klarheit, wenn den intrinsisch motivierten Denkertum selbstverständlicherweise der höhere Respekt entgegengebracht wird als etwa den nach den strikten ,klaren‘ Regeln untereinander und unter gesundheitsschädlichem Einsatz konkurrierenden Athleten.“

Bezogen auf die Datenqualität ergebe sich daraus: „Je ,echter‘ – also fließender, dynamischer und somit individueller – die Daten sind, desto präsenter werden auch einzelne Personen, Zustände und somit auch ihre „wahrhaftigen“ Potenziale.“

Dies geht nach Einschätzung von Dr. Tsvasman nicht ohne ein konzeptionelles „Upgrade“ von Governance, Wirtschaft und Bildung: „Wenn Personengruppen aufgrund von selektiven Merkmalen wie Hautfarbe, Herkunft, Gesundheitszustand präventiv schützen wollen, werden im Gegenzug automatisch Personen mit anderen Merkmal-Konstellationen oder die gleichen Personen mit nicht gruppentypischen Verhaltensweisen oder in nicht klassifizierbaren Lebenssituationen diskriminiert.“ Diese Verzerrungen seien auch schon deshalb „einprogrammiert“, weil aktuell in jeder einzelnen Gemeinschaft oder gar geopolitisch unterschiedliche Relevanzleitkulturen priorisiert werden.

Dr. Tsvasmans Fazit: „Solange wir selbst nicht genau wissen, was ,das Wohl der Menschen ausmacht‘, können wir von keiner Hilfsintelligenz verlangen, in diesem Sinne ,gerecht‘ zu entscheiden.“ Den Ausweg, so der KI-Experte, böten die Konzepte, die in den bisherigen Folgen unserer Gesprächsreihe, schon ausführlich vorgestellt wurden: „Die Lösung kann nur sein, diese Hilfsintelligenz so zu konzipieren, dass sie uns dazu befähigt, die entscheidenden Erkenntnisfragen selbst zu beantworten.“

Quellen und Referenzen

[1] https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
 [2] https://www.nature.com/articles/d41586-019-03228-6
 [3] https://www.linkedin.com/in/tsvasman/
 [4] https://www.techtag.de/it-und-hightech/kuenstliche-intelligenz/data-science-lifecycle-iterativ-zum-erfolgreichen-ki-projekt/

Interview geführt durch:

Bei dieser Interviewreihe handelt es sich um den adaptierten Reprint der Originalpublikation auf intelligente-welt.de Die Interviewreihe „KI: Thoroughly explained“ wurde zuvor vom Magazin Intelligente Welt veröffentlicht und findet sich unter folgenden Links:
Unsere Interview-Reihe zu Künstlicher Intelligenz: Inside KI
360 Grad KI: Unsere Serie rund um Künstliche Intelligenz

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

26314

share

Artikel teilen

Top Artikel

Ähnliche Artikel