Die größte KI-Bedrohung für die Menschheit ist der Mensch

Künstliche Intelligenz gilt als technische Innovation mit enormem gesellschaftlichem Potenzial – doch sie spiegelt in erster Linie uns selbst. Dieser Beitrag analysiert, wie KI bestehende Machtstrukturen, Vorurteile und Widersprüche nicht nur abbildet, sondern systematisch verstärkt. Anhand aktueller Beispiele und Studien zeigt der Text: Die größte Gefahr der KI liegt nicht in ihrer Intelligenz, sondern in einem menschlichen System, das Verantwortung zunehmend auslagert.
Von   Carsten Ries   |  CIO   |  neko Systems GmbH
14. Oktober 2025

Die größte KI-Bedrohung für die Menschheit ist der Mensch

 

 

Künstliche Intelligenz hat sich rasch von einem Nischenthema zu einem gesellschaftspolitischen Reizthema entwickelt. In den Medien wird sie mal als Jobvernichter, mal als Wertezerstörer oder als Zukunftshoffnung inszeniert. Die öffentliche Reaktion pendelt zwischen Faszination und Angst. Doch häufig bleibt der zentrale Punkt verborgen: Es geht nicht nur um Technik, es geht um uns.

KI ist keine neutrale Maschine und auch kein unabhängiger Akteur. Sie ist ein technisches System – ein Spiegel, der auf menschliche Auswahl reagiert. Menschen bestimmen, mit welchen Daten sie trainiert wird, welche Ziele sie verfolgt und in welchen Kontexten sie eingesetzt wird (1)(2).

Die bedrohliche Dimension liegt nicht darin, dass diese Systeme irgendwann intelligenter werden könnten. Viel beunruhigender ist, dass sie anfangen, uns exakt zu spiegeln. Und dort, in diesem Spiegel, sehen wir oft das, was wir lieber verdrängen – Diskriminierung, Kurzsichtigkeit, Machtungleichheiten (3).

Dabei ist KI nicht ursächlich fehlerhaft, sondern exekutiert, was wir ihr entworfen haben. Wenn sie polarisiert, zensiert oder lügt, dann nicht aus eigenem Antrieb, sondern weil diese Muster Bestandteil der Trainingsdaten sind. Untersuchungen belegen etwa, dass Sprachmodelle Dialekte wie African American English mit negativen Stereotypen assoziieren, obwohl die Zuschreibungen subtiler sind als direkte Diskriminierung (4).

In diesem Licht wird die Frage essenziell: Wenn KI genau das reproduziert, was wir ihr vorleben, wollen wir dann wirklich in diesen Spiegel schauen?

 

Was KI ist – und was nicht

Der Begriff künstliche Intelligenz ist irreführend. Er suggeriert ein Denken, das es nicht gibt, und eine Autonomie, die technisch nicht existiert. Was heute gemeinhin KI genannt wird, sind rechenintensive, statistisch optimierte Systeme. Sie verarbeiten große Datenmengen, erkennen wiederkehrende Muster und liefern Antworten auf vorgegebene Aufgaben. Ein zentrales Merkmal des menschlichen Denkens fehlt dabei vollständig: Bedeutung.

KI versteht nicht. Sie hat kein Bewusstsein, keine Emotionen und keine Absichten. Ihre Antworten entstehen nur aufgrund statistischer Wahrscheinlichkeiten im Rahmen eines mathematisch definierten Modells. Wenn ein Sprachmodell wie GPT auf eine Frage reagiert, liegt das nicht an Einsicht, sondern an Wahrscheinlichkeitsberechnungen, die auf historischem Sprachgebrauch basieren (1)(2).

Auch moralische Kategorien sind ihr fremd. KI unterscheidet nicht zwischen richtig oder falsch, sondern zwischen statistisch passend oder unpassend in den Daten. Wenn ein System diskriminiert, dann nicht aus Vorsatz, sondern weil solche Muster Teil der Datenbasis sind. Wenn es polarisiert, dann häufig deshalb, weil Polarisierung in digitalen Plattformen mit Reichweite belohnt wird (3).

Eine Studie belegte exemplarisch, dass Sprachmodelle gegenüber Sprecher:innen des African American English (AAVE) deutlich negativere Zuschreibungen machten – etwa bei Jobempfehlungen oder juristischen Bewertungen. Das Modell selbst trifft keine Entscheidung – es spiegelt, was wir ihm zeigen (4).

KI handelt nicht. Sie rechnet – konsequent, effizient und emotionslos. Sie skaliert Fehler und Erfolge. Sie verstärkt Vorurteile, aber auch Einsicht – je nachdem, was in ihren Daten liegt. Ihre Rechenlogik wird zur neuen Macht, weil sie konsequenter ist als wir.

So wird KI keine denkende Entität, aber ein politisch wirkmächtiges Werkzeug. Was sie verstärkt, gilt schnell als objektiv. Was sie ignoriert, verschwindet aus dem Blick. Was sie bewertet, wird selten hinterfragt.

Die entscheidende Frage lautet also nicht, ob KI denken kann. Sondern: Haben wir verstanden, was passiert, wenn sie uns täuschend echt simuliert?

 

Der Spiegel der Gesellschaft

KI ist keine neutrale Technologie. Sie spiegelt gesellschaftliche Muster, Vorurteile und Machtverhältnisse wider – und zwar deutlich, wenn man untersucht, wie sie trainiert wird. Ihre Leistung beruht auf historischen Daten, auf dem, was Menschen gesagt, geschrieben oder getan haben. KI lernt nicht aus Idealen, sondern aus der Realität.

Diese Realität ist alles andere als objektiv. Sie ist durchzogen von Diskriminierungen, struktureller Ungleichheit und kulturellen Verzerrungen. Die Studie Gender Shades aus dem Jahr 2018 zeigte, dass kommerzielle Gesichtserkennungssysteme People of Color deutlich schlechter erkennen als weiße Männer. Dies lag nicht am Algorithmus, sondern an der Auswahl der Trainingsdaten. Systeme lernten zu häufig mit hellhäutigen Gesichtern. Die Folge waren messbare Verzerrungen mit realen Konsequenzen, etwa bei polizeilicher Überwachung oder Zugangskontrollen (5).

Ähnliche Muster zeigen sich bei Sprachmodellen. Standford-Forscher konnten nachweisen, dass KI stereotype Zuschreibungen reproduziert: Männer wurden eher mit technischen Berufen assoziiert, Frauen mit Pflege oder Hausarbeit. Diese kulturellen Vorurteile, die in den Trainingsdaten enthalten waren, wurden nicht nur übernommen, sondern verstärkt (6).

Diese Effekte sind kein Zufall. Sie resultieren aus einem Design, das Effizienz über Reflexion stellt. KI verarbeitet Daten, wie sie sind. Sie stellt keine Fragen, sie prüft keine Quellen, und sie hinterfragt keine sozialen Kontexte. Dadurch entfaltet sich eine gefährliche Dynamik: KI macht soziale Ungleichheit nicht nur sichtbar, sondern legitimiert sie, weil ihre Ergebnisse als „objektiv“ gelten.

Wenn heute KI-Systeme eingesetzt werden, um Bewerberauswahl, Kreditwürdigkeit oder polizeiliche Risikoprofile zu bewerten, werden bestehende gesellschaftliche Ungleichheiten algorithmisch stabilisiert. Die Maschine reproduziert nicht nur Vorurteile, sie kodifiziert sie.

Jede KI ist somit auch ein soziales Artefakt. Sie zeigt uns nicht, was möglich ist, sondern was wir waren und möglicherweise noch sind. Die Frage lautet: Wollen wir das erkennen und daran etwas ändern?

 

Die Widersprüche unserer Welt

Unsere Gegenwart ist geprägt von offensichtlichen Widersprüchen, die immer sichtbarer, aber gleichzeitig folgenloser werden. Menschen setzen sich für Klimaschutz ein und fliegen dennoch regelmäßig in den Urlaub. Unternehmen propagieren Diversität, während sie globale Lieferketten betreiben, die auf Ausbeutung basieren. Politiker sprechen von Solidarität mit Geflüchteten und unterstützen zugleich Abkommen mit Staaten, die Menschenrechte systematisch verletzen.

Ein besonders klares Beispiel ist die Flüchtlingspolitik der EU. Während europäische Institutionen die Achtung der Menschenwürde betonen, werden Schutzsuchende systematisch an den Außengrenzen zurückgewiesen. Zu diesen Maßnahmen zählen Pushbacks, Lager in Drittstaaten wie Libyen und Abkommen mit der Türkei, die faktisch eine Verwahrung von Schutzsuchenden gegen finanzielle Unterstützung darstellen. Diese Politik widerspricht deutlich den eigenen normativen Grundlagen, beispielsweise der Charta der Grundrechte der EU (7).

Solche Doppelmoral hat nicht nur ethische, sondern auch technologische Konsequenzen. KI-Systeme lernen nicht aus Prinzipien, sondern aus dem, was wir tun. Sie analysieren Handeln, nicht Heuchelei. Wenn Diskriminierung, Inkonsistenz und strategisches Schweigen dominieren, übernehmen die Algorithmen diese Muster.

Die Rolle digitaler Plattformen ist hierbei besonders bezeichnend. Dienste wie YouTube, Facebook und TikTok betonen Verantwortung im Umgang mit Hassrede und Desinformation. Studien zeigen jedoch, dass ihre Empfehlungsalgorithmen bevorzugt Inhalte mit emotionalem oder kontroversem Charakter verbreiten. Der Grund dafür ist ökonomisch: Aufmerksamkeit wird monetarisiert, und Polarisierung erzeugt mehr Engagement als Ausgewogenheit (8).

Auch hier gilt: Die Maschinen spiegeln nicht unsere Werte, sondern unsere Widersprüche. Sie zeigen nicht unsere besten Absichten, sondern unsere meistgeklickten Impulse.

Wenn KI auf dieser Grundlage entwickelt wird, wird sie nicht zur moralischen Instanz. Sie verstärkt vielmehr jene Inkohärenzen, die unsere Gesellschaft bereits lähmen. Zwischen Anspruch und Realität. Zwischen Moral und Macht. Zwischen Reden und Handeln.

 

Macht, Kontrolle und Ideologie

Künstliche Intelligenz wird oft als technisches Werkzeug beschrieben. Doch wer sie kontrolliert, beeinflusst nicht nur ihre Nutzung, sondern auch ihren Zweck. KI ist kein einfaches Produkt. Sie ist eine infrastrukturelle Technologie, deren Entwicklung und Verbreitung tief in ökonomische und politische Machtstrukturen eingebettet ist.

Im westlichen Kontext bestimmen vor allem Tech-Giganten wie OpenAI und viele mehr, die Richtung der KI-Entwicklung. Diese Unternehmen verfügen über immense Rechenressourcen, enorme Datenmengen und das Kapital, um großskalige Systeme weltweit zu betreiben. Ihre wirtschaftlichen Interessen prägen nicht nur, welche Systeme verfügbar sind, sondern auch deren Zielrichtung. Priorität hat selten der gesellschaftliche Fortschritt, meistens liegt der Fokus auf Nutzerbindung, Werbeerfolg und Marktanteilen (9).

Die Algorithmen folgen vorwiegend ökonomischer Rationalität. Sie streben nach Effizienz, Wachstum und Profit. Moralische Überlegungen spielen meist nur dann eine Rolle, wenn sie durch Regulierungsdruck oder öffentlichen Druck forciert werden. In diesem Sinne wird technologische Infrastruktur zu einem Ausdruck kapitalistischer Prioritäten. Sie kodifiziert nicht das Gemeinwohl, sondern Geschäftsmodelle.

Diese Form der Technologiekontrolle hat historische Wurzeln. Ihre ideologische Herkunft liegt in der neoliberalen Wirtschaftsphilosophie des 20. Jahrhunderts. Die Mont Pelerin Society, ein intellektuelles Netzwerk um 1947 gegründet von Persönlichkeiten wie Friedrich Hayek und Milton Friedman, verfolgte das Ziel, staatliche Verantwortung zugunsten freier Märkte zurückzudrängen. Viele heutige politische und ökonomische Strukturen, etwa die Privatisierung öffentlicher Güter und die Marktlogik in Bildung oder Gesundheit – lassen sich auf ihre Ideen zurückführen (10).

Wenn KI-Systeme in einem Umfeld entstehen, das von Marktinteressen, politischem Einfluss und ideologischer Steuerung geprägt ist, dann sind sie nicht neutral. Sie sind technologische Instantiationen einer spezifischen Weltanschauung. Und sie tragen zur Reproduktion dieser Weltsicht bei, durch algorithmische Entscheidungen, durch gewisse Modellannahmen und durch systematische Auslassungen.

Ein aktuelles Beispiel unterstreicht diesen Punkt: Auf Truth Social, der Plattform von Donald Trump, wurde 2025 ein KI-gestütztes System namens Truth Search AI eingeführt. Ziel war eine vermeintlich „wahrheitsorientierte“ Suchfunktion. Doch das System begann, Aussagen zu korrigieren, die von Trump propagiert wurden, etwa zur Wahl 2020 oder zu Zöllen – und entfernte widerstrebende Ergebnisse aus dem Rampenlicht. Zwar wurde es nicht offiziell abgeschaltet, aber diese kritischen Hinweise wurden sukzessive aus der Öffentlichkeit gedreht (11)(12).

Dieses Beispiel zeigt, wie politische Akteure versuchen, KI zur Bestätigung ihrer Narrative zu instrumentalisieren und wie schwer es ist, Wahrheitsanspruch und Machtinteresse zu trennen.

Wenn die Entwicklung von KI in den Händen ideologisch geprägter Machtzentren liegt, dann ist zu befürchten, dass sie nicht zur Bewältigung gesellschaftlicher Herausforderungen beiträgt, sondern als effizienter Verstärker fungiert.

 

Das strukturelle Schweigen

Wenn KI gesellschaftliche Schieflagen aufdeckt oder sogar reproduziert, bleibt zu hinterfragen, warum der Widerstand so begrenzt ist. Technologische Kritik existiert, Studien belegen Missstände, ethische Leitlinien liegen vor. Doch politisch wie gesellschaftlich dominiert oft ein strukturelles Schweigen – nicht aus Unwissen, sondern aus Kalkül, Angst oder Überforderung.

Dieses Schweigen lässt sich als ein soziales Dreieck beschreiben, in dem drei Gruppen verankert sind: die Unten, die Oben und die Mitte.

Die unteren sozialen Schichten stehen häufig unmittelbar unter dem Einfluss ungerechter Systeme. Sie erleben algorithmische Diskriminierung bei Jobsuche, Kreditvergabe oder Überwachung. Doch sie sind meist von Entscheidungsprozessen ausgeschlossen. Politische Entfremdung, eingeschränkte Bildungschancen und ökonomischer Druck führen dazu, dass viele resignieren, oder sich radikalen Bewegungen zuwenden, die simple Lösungen versprechen (13).

Die oberen Schichten profitieren vom Status quo. Sie verfügen über Ressourcen, Einfluss und Zugang und viele gestalten technologische Entwicklungen aktiv mit oder nutzen sie strategisch. Kritik am System würde die eigene Position gefährden. Deshalb dominieren Schweigen, Relativierung oder symbolische Aktionen wie etwa unverbindliche Ethikleitlinien.

Die Mitte erkennt durchaus die problematische Entwicklung: soziale Ungleichheit, demokratische Aushöhlung und ideologische Verengung. Doch sie agiert in einem Spannungsfeld. Einerseits fürchtet sie sozialen Abstieg, andererseits hofft sie auf Aufstieg. Das Resultat: eine Passivität, die Tragweite hat. Es wird verstanden, aber nicht gehandelt.

In diesem Geflecht entstehen keine kollektiven Impulse für Veränderung. Im Gegenteil: Wer Kritik äußert, wird marginalisiert. Wer schweigt, bleibt integriert. Wer zu laut wird, kann politisch vereinnahmt werden.

Diese Dynamik überträgt sich auf KI-Entwicklung und -Einsatz. Ethikleitlinien werden erlassen, ohne kontrollierte Umsetzung. Forschung mahnt zur Verantwortlichkeit – während Politik und Wirtschaft weiterhin auf Wachstum und Tempo setzen. So entstehen Systeme, die das Bestehende zementieren. Ungerechtigkeit wird nicht nur toleriert sie wird formalisiert, durch Ratings, Gewichtungen und Trainingsdaten.

Was nicht ausgesprochen wird, wird nicht gelernt. Was nicht gelernt wird, wird systematisch ignoriert. Und was ignoriert wird, wird algorithmisch gelöscht.

 

Werte in der Maschine

Künstliche Intelligenz ist nicht nur ein technisches System. Sie ist auch ein ethisches Versprechen. In ihr liegt die Erwartung, Entscheidungen effizienter, fairer und objektiver treffen zu können. Doch diese Hoffnung übersieht eine zentrale Schwäche: KI hat keine eigenen Werte. Sie kennt nur Zielparameter, mathematische Optimierung und statistische Wahrscheinlichkeiten. Ihre Moral ist das, was wir ihr einprogrammieren und genau das ist das Problem.

Eine funktionierende KI braucht mehr als Rechenleistung und Datenzugang. Sie braucht ein stabiles normatives Fundament. Doch welches Wertesystem soll ihr als Orientierung dienen? Gesellschaftlich herrscht in dieser Frage erhebliche Uneinigkeit. Was als gerecht gilt, variiert kulturell. Was als diskriminierend empfunden wird, hängt vom Kontext ab. Und selbst universelle Prinzipien wie Menschenwürde, Gleichheit oder Freiheit werden politisch unterschiedlich ausgelegt.

Ein traditionelles Beispiel ist das ethische Prinzip „Liebe deinen Nächsten wie dich selbst“, das in vielen Religionen als universelle Norm gilt. Doch im Alltag verliert es seine Wirkung: LGBTQ+-Personen, Geflüchtete oder wirtschaftlich Benachteiligte erfahren diese Nächstenliebe häufig nicht. Gleiches gilt für Begriffe wie Freiheit oder Verantwortung. Sie gehören zur öffentlichen Debatte, bleiben aber oft selektiv. Freiheit wird für sich beansprucht, nicht für andere. Verantwortung wird gefordert, selten jedoch dort übernommen, wo sie systemisch notwendig wäre.

Auch aktuelle Bemühungen um ethische Standards für KI spiegeln diese Ambivalenz wider. Initiativen wie die OECD Principles on AI oder der EU AI Act sind Schritte in die richtige Richtung. Doch eine Untersuchung von 84 ethischen Leitlinien weltweit zeigt: Werte wie Transparenz, Gerechtigkeit oder Nichtdiskriminierung tauchen zwar regelhaft auf, sind jedoch selten klar definiert, operationalisiert oder rechtlich verbindlich (14).

Ein weiteres Grundproblem ist, dass viele ethische Anforderungen in technischer Sprache formuliert werden müssen. Maschinenlogik kennt keine moralische Grauzone. Während Menschen abwägen können, trifft KI binär. „Vermeide Diskriminierung“ klingt ethisch eindeutig, doch im Code bleibt es oft unkonkret. Entwicklerinnen und Entwickler arbeiten so entweder mit vagen Vorgaben oder übersetzen ethische Normen nach praktischen oder wirtschaftlichen Kriterien.

Das führt zu Systemen, die gefährlich oder bedeutungslos sein können. Bedeutungslose Systeme, weil moralische Standards so flexibel sind, dass sie jeder Machtlogik folgen können. Gefährliche Systeme, weil sie unter dem Deckmantel der Objektivität Entscheidungen treffen, die keiner politisch-gesellschaftlichen Kontrolle mehr unterliegen.

Werte, die sich jeder Situation anpassen lassen, sind keine Werte. Sie sind bloße Dekoration. Und eine KI, die darauf basiert, wird nicht zum moralischen Kompass. Sie bleibt ein politisch formbares Werkzeug.

 

Der denkvermeidende Mensch

In der öffentlichen Debatte um Künstliche Intelligenz wird oft die Frage diskutiert, ob Maschinen irgendwann den Menschen übertreffen können – intellektuell, moralisch oder gar gefährlicher. Dabei übersieht man einen entscheidenden Punkt: Die größte Gefahr liegt nicht in einer KI, die klüger wird, sondern in einem Menschen, der aufhört zu denken.

Zahlreiche Technologien zeigen heute weniger, was Maschinen leisten, als vielmehr, was Menschen abgeben. Navigation ersetzt Orientierung, Autovervollständigung ersetzt Formulierung, Empfehlungssysteme ersetzen Eigenrecherche. Denken wird ausgelagert. Wir verlassen uns auf Systeme, die Entscheidungen übernehmen und vergessen dabei, dass diese Systeme nicht objektiv sind, sondern vom Menschen gestaltet.

Der Philosoph Günther Anders formulierte in den 1950er Jahren dafür den Begriff der prometheischen Scham: Sie beschreibt die Scham des Menschen angesichts seiner eigenen, perfekt funktionierenden Schöpfungen, eine Erfahrung der Minderwertigkeit gegenüber der Maschine (15). Anders zufolge entsteht diese Scham nicht, weil Maschinen dem Menschen über sein Selbst bewusst sind, sondern weil der Mensch erkennt, dass er selbst fehlbar ist, während seine Geräte stets funktionieren.

In unserer digitalen Gegenwart zeigt sich eine moderne Variante dieser Scham: Nicht die Überlegenheit der Technik ist das Problem, sondern unsere Bereitschaft, ihr Verantwortung zu übertragen, um Konflikten auszuweichen. Wir delegieren Entscheidungen an Systeme, weil sie berechenbar erscheinen und entziehen uns damit der unangenehmen Aufgabe, selbst zu denken. Doch genau darin liegt die Gefahr. KI kennt kein Zögern, keine Intuition, keine Reue. Sie handelt strikt nach Vorgaben – ohne Kontext, Gedächtnis oder Gewissen.

Wenn KI heute Bewerbungen sortiert, soziale Leistungen bewertet oder Risikoprofile erstellt, agiert sie effizient, aber nicht gerecht. Sie berücksichtigt keine individuelle Biografie, keine Brüche, keine Chance zur Veränderung. Die vermeintliche Objektivität ist eine Illusion, genährt von menschlicher Bequemlichkeit. Die wahre Bedrohung ist folglich kein denkendes System, sondern ein menschliches System, das Denken delegiert und reflexloser Automatisierung vertraut.

Systeme, die Konformität über Kritik stellen, Geschwindigkeit über Gründlichkeit und Anpassung über Reflexion belohnen, ersetzen menschliche Verantwortung durch digitale Scheinobjektivität.

Angesichts wachsender Komplexität, wachsender Unsicherheit und globaler Krisen vergrößert sich die Sehnsucht nach einfachen Lösungen und KI wird dafür zur vermeintlichen Antwort: schnell, unermüdlich, präzise. Doch Präzision ist keine Wahrheit, Automatisierung keine Gerechtigkeit.

Was fehlt, ist nicht die nächste technologische Innovation, sondern eine Gesellschaft, die bereit ist, sich selbst zu befragen, bevor sie Maschinen beauftragt, die Welt zu ordnen.

 

Was jetzt notwendig wäre

Wenn KI-Systeme heute unsere Gesellschaft formen, ist das mehr als eine technologische Entwicklung – es ist ein kultureller Wendepunkt. Die zentrale Frage lautet nicht mehr, ob wir KI einsetzen, sondern wie, und vor allem: Wer entscheidet darüber, zu welchem Zweck, auf welcher Grundlage und zu wessen Nutzen.

Eine demokratische Gestaltung von KI verlangt drei grundlegende Veränderungen – institutionell, normativ und gesellschaftlich:

Erstens braucht es verbindliche und umsetzbare Regeln. Technologische Entwicklungen dürfen nicht schneller sein als deren Regulierung. Der EU AI Act bildet einen ersten Schritt. Er verankert Anforderungen wie Transparenz und Risikoabschätzungen rechtlich. Doch Kritik wächst: Wirtschaftliche Interessen dominieren, Schlupflöcher bleiben, und Aufsichtsmechanismen sind unzureichend. Eine wirksame Regulierung muss durchsetzbar, kontrollierbar und sanktionierbar sein (16)(17), etwa durch die Schließung von Lücken, die Big Tech Spielräume bieten.

Zweitens müssen Werte präzisiert und operationalisierbar gemacht werden. Begriffe wie Fairness oder Verantwortung müssen so definiert werden, dass Systeme sie umsetzen können, ohne ihre ethische Substanz zu verlieren. Dazu braucht es interdisziplinäre Zusammenarbeit. Informatiker, Ethiker, Juristen und Sozialwissenschaftler müssen gemeinsam Standards erarbeiten, die über symbolische Ethik hinausgehen, das erfordert Ressourcen, Bildung und Zeit.

Drittens braucht es gesellschaftliche Reflexion, weit über Technikfolgenabschätzung hinaus. Wir müssen öffentlich diskutieren, welche Aufgaben wir automatisieren wollen und welche nicht. Welche Entscheidungen überlassen wir Maschinen und welche bleiben menschliche Zuständigkeit? Welche Werte können wir in Code übersetzen und welche sind unprogrammierbar? Diese Fragen sind nicht technisch, sondern demokratisch und müssen laufend verhandelt werden.

Ein Hebel dafür sind Bildungsinstitutionen. Schulen und Universitäten sollten KI nicht nur technisch, sondern auch ethisch-politisch behandeln. Menschen müssen verstehen, wie KI funktioniert und welche Annahmen sie reproduziert, nur dann entwickelt sich eine kritische und reflektierte Haltung.

Zivilgesellschaftliche Organisationen sind ebenso essenziell. Initiativen wie AlgorithmWatch, die AI Now Institute oder das Alan Turing Institute zeigen, wie unabhängige Forschung und öffentliche Aufklärung Debatten fördern und Machtverhältnisse sichtbarer machen können (18)(19).

Letztlich geht es um Verantwortung, nicht nur bei Entwickelnden, sondern auch bei Nutzer:innen, Regulierenden und der gesamten Gesellschaft. Technik verändert sich nur durch menschliches Handeln. Wenn wir eine KI wollen, die gerecht, transparent und nützlich ist, muss unsere Antwort sein: eigene Entscheidungen übernehmen, statt sie Maschinen zu überlassen.

 

Quellen

(1) Russell, S., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach.
(2) Mitchell, M. (2019). Artificial Intelligence: A Guide for Thinking Humans.
(3) Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence.
(4) Hofmann, V., Caliskan, A., et al. (2024). Covert Dialect Bias in Large Language Models. Nature. https://www.nature.com/articles/s41586-024-07856-5
(5) Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification sciencepolicy.hsites.harvard.edu
(6) Stanford University (2018). Algorithms reveal changes in stereotypes
(7) Carrera, S. et al. (2018). The EU‑Turkey Statement: A Model of Externalisation of Migration Control. CEPS Policy Insights.
(8) Milli, S. et al. (2025). Engagement, User Satisfaction, and the Amplification of Divisive Content on Social Media. PNAS Nexus.
(9) Zuboff, S. (2019). The Age of Surveillance Capitalism
(10) Slobodian, Q. (2018). Globalists: The End of Empire and the Birth of Neoliberalism
(11) Harwell, D. (2025, August 10). New chatbot on Trump’s Truth Social platform keeps contradicting him. The Washington Post.
(12) WIRED (2025, August 8). Truth Social’s New AI Chatbot Is Donald Trump’s Media Diet Incarnate
(13) Kawakami, A., Coston, A., Heidari, H., Holstein, K., & Zhu, H. (2024). Studying Up Public Sector AI: How Networks of Power Relations Shape Agency Decisions Around AI Design and Use.
(14) Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence.
(15) Anders, G. The concept of prometheische Scham as the human sense of inadequacy before flawless technological artifacts (e.g., the „electronic brain“).
(16) European Center for Not‑for‑Profit Law et al. (2024). Packed with loopholes: why the AI Act fails to protect civic space and rule of law
(17) Wachter, S. (2025). Limitations and Loopholes in the EU AI Act and AI Liability – lobt übermäßige Selbstregulierung und schwachen Überblick (PDF)
(18) AlgorithmWatch. Non‑profit research NGO evaluating AI‑based decision systems
(19) AI Now Institute. Research institute studying social implications of AI

Carsten Ries ist CIO und IT-Consultant mit über 950 Projekten in IT, ERP, Events und Organisationsentwicklung. Mit Schwerpunkt auf Cybersecurity, Digitalisierung und Green IT verbindet er technisches Know-how mit strategischer Transformation.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

53661

share

Artikel teilen

Top Artikel

Ähnliche Artikel