Von ELIZA zu ChatGPT: Vertrauensvoller KI-Einsatz im Journalismus

Künstliche Intelligenz (KI) verändert unsere Medienlandschaft. KI-Systeme wie ChatGPT können eigenständig Artikel verfassen, Redaktionen bei Recherchen unterstützen und Medienschaffende bei der Verbreitung ihrer Produkte helfen. Gleichzeitig birgt der Einsatz der KI-Systeme auch Herausforderungen für die offene Meinungsbildung zu politischen Themen sowie für die Arbeitsrealität von Journalistinnen und Journalisten. Ein verantwortungsvoller KI-Einsatz in den Medien erfordert daher eine kritische und transparente Prüfung der Systeme, Aus- und Weiterbildungen von Medienschaffenden und Aufklärung für Nutzerinnen und Nutzer.
12. April 2023

ChatGPT hat einen Wandel der öffentlichen Wahrnehmung von KI-Systemen bewirkt: Künstliche Intelligenz blieb lange Zeit eine Verheißung, ein nicht eingelöstes Versprechen. Das scheint sich gerade zu ändern: Bisher arbeiteten KI-Systeme eher im Hintergrund – in Suchmaschinen, auf Social Media-Plattformen oder im Online-Handel, die Ergebnisse von ChatGPT sind hingegen direkt sichtbar.

Die Fähigkeit des Chatbots, auf offen formulierte Fragen spontan, elaboriert und zudem häufig richtig zu antworten – auch in Form langer Texte – ist äußerst verblüffend und übersteigt das bisher Gesehene. Das sorgt für einige Aufregung und beschert der KI-Entwicklung eine völlig neue Bedeutung in der öffentlichen Wahrnehmung. In vielen Bereichen experimentieren die Menschen mit ChatGPT, loten Wirtschaft, Wissenschaft und Politik die positiven und negativen Möglichkeiten aus.

Selbstbestimmung im Fokus beim KI-Einsatz

Angesichts der erstaunlichen Ergebnisse von ChatGPT vergisst man leicht, dass kein Geist in der Maschine ist. Auf dieses Phänomen hat bereits der Computerpionier Joseph Weizenbaum hingewiesen, der vor hundert Jahren in Berlin geboren ist. In den frühen 1960er-Jahren programmierte er einen der ersten Chatbots mit dem Namen ELIZA. Dieser war in der Lage, aus heutiger Perspektive eher schlichte Antworten in Therapiegesprächen zu geben. Trotz der einfachen Antworten beobachtete Weizenbaum, dass Testpersonen eine emotionale Beziehung zu ELIZA aufbauten und sich verstanden fühlten.

Weizenbaum erkannte, dass die eigentlichen Herausforderungen nicht aus den durchaus limitierten Fähigkeiten dieser Systeme resultierten. Stattdessen ergebe sich das größte Risikopotenzial aus zwei falschen Annahmen: erstens, dass der Mensch berechenbar ist und in etwa wie ein suboptimales Computersystem funktioniert. Diese Annahme ist Weizenbaum zufolge falsch, da Respekt, Verständnis, Liebe, Unbewusstes und Autonomie maschinell nicht ersetzbar seien. Zweitens, dass Computersysteme dem Menschen überlegen sind und die logische Konsequenz die Unterwerfung des Menschen unter diese Systeme ist. Auch diese Annahme sei falsch: Der Computer sei nicht mehr und nicht weniger als ein Werkzeug, das bestimmte Aufgaben besser und schneller bewältigen kann, und diesem Werkzeug sollten somit nicht alle Aufgaben übertragen werden.

Mit Fragen rund um die Digitalisierung und ihrer Wirkung in Politik, Medien, Wirtschaft und Zivilgesellschaft beschäftigt sich das Weizenbaum-Institut für die vernetzte Gesellschaft in Berlin. Es wurde 2017 gegründet und wird von einem Verbund aus sieben Universitäten und Forschungseinrichtungen getragen. Im Zentrum der Arbeit der Forscherinnen und Forscher steht – wie sich aus dem Werk des Namensgebers ergibt – die Frage nach Selbstbestimmung. Sie stellt sich etwa für die Öffentlichkeit, dem zentralen Ort der kollektiven Selbstverständigung und Selbstbestimmung in der Demokratie. Angestrebt wird eine Öffentlichkeit, die den Raum für einen vielfältigen, respektvollen und rationalen Diskurs zu Streitfragen bietet und politische Entscheidungen vorbereitet. Medienschaffende prägen diesen Raum in bedeutendem Umfang: Sie wählen Themen aus, stellen Informationen bereit, vertreten Positionen und moderieren im öffentlichen Diskurs.

Wie ein verantwortungsvoller KI-Einsatz im Journalismus gelingt

Rund 60 Jahre nach ELIZA sind KI-Systeme vielfältig im Einsatz. Im Journalismus helfen sie etwa beim Aufspüren neuer Themen, identifizieren Falschmeldungen und schreiben eigenständig Texte wie Wetter- und Börsennachrichten. Für Nutzerinnen und Nutzer ist der KI-Einsatz nur zum Teil sichtbar, etwa bei der Personalisierung des Nachrichtenmenüs oder durch das automatische Verfassen von Untertiteln in Videobeiträgen.

Der KI-Einsatz erleichtert Journalistinnen und Journalisten die Arbeit und kann ihnen monotone Tätigkeiten abnehmen, sodass sie sich auf kreativere Tätigkeiten fokussieren können. Darüber hinaus kann der Einsatz von KI-Systemen zu einer höheren Qualität des Medienangebots führen. Andererseits entstehen zentrale Herausforderungen durch den KI-Einsatz. Expertinnen und Experten der Arbeitsgruppe IT-Sicherheit, Privacy, Ethik und Recht der Plattform Lernende Systeme liefern in ihrem Whitepaper „Künstliche Intelligenz im Journalismus“ eine Bestandsaufnahme zum Thema und zeigen auf, welche neuen Möglichkeiten und Chancen, aber auch welche Herausforderungen und Grenzen dem Einsatz von KI-Systemen hierbei gesetzt sind. Um den Einsatz von KI als Werkzeug im Journalismus anhand ethischer und rechtlicher Prinzipien auszurichten, bedarf es geeigneter Rahmenbedingungen, für deren Gestaltung die Autorinnen und Autoren Handlungsempfehlungen geben.

So muss etwa sichergestellt werden, dass Medienschaffende trotz des KI-Einsatzes die volle Kontrolle über den redaktionellen Prozess haben. Professionelle Standards müssen stets eingehalten werden. Die mithilfe von KI-Systemen generierten Produkte müssen daher kritisch überprüft werden. KI-Anwendungen können fehlerhafte, polarisierende und gar diskriminierende Ergebnisse liefern, wenn solche Verzerrungen in ihren Trainingsdaten enthalten sind. Daher müssen Medienschaffende ein waches Auge auf die verwendeten Daten und für die Produkte von KI-Systemen haben – und gegebenenfalls entsprechende Kompetenzen aufbauen. Ein weiterer Punkt betrifft die Transparenz und die Frage, inwiefern Nutzerinnen und Nutzer über den KI-Einsatz bei einem Medienprodukt aufgeklärt werden. Hier stellt eine transparente Kennzeichnung von KI-Anwendungen eine wichtige Grundlage für das Vertrauen von Menschen in Medien dar. Die genannten Herausforderungen erfordern eine besonders sensible und aktive Gestaltung des KI-Einsatzes in den Medien.

Maßhalten als Gebot der Stunde

Trotz ihrer Vorzüge müssen KI-Anwendungen mit Augenmaß genutzt werden, wobei hier nicht nur Medienschaffende in der Pflicht sind: Auch durch Aufsichtsgremien und durch die Politik sollte KI-basierter Journalismus so gestaltet werden, dass er seinem demokratischen Auftrag gerecht wird. Wie beschrieben sind die Prüfung von Sicherheits- und Qualitätsstandards, die Förderung der Weiterbildung von Medienschaffenden und Nutzenden, der kritische Umgang mit KI-Systemen sowie die bessere Aufklärung über die Fähigkeiten und Limitationen der Systeme wichtige Schlüsselfaktoren, um einen verantwortungsvollen Einsatz von KI-Systemen im Journalismus zu gewährleisten.

Nicht alle Aufgaben sollten einem Computer übertragen werden, fand Joseph Weizenbaum. Auch bei den großen Sprachmodellen der Gegenwart wie ChatGPT stellt sich diese Frage. Noch gibt es in der Öffentlichkeit keine Chatbots, die miteinander diskutieren, das könnte sich allerdings ändern. Eine Demokratie-Simulation, die uns als Bürgerinnen und Bürger zentrale Tätigkeiten wie das Informieren, Reflektieren, Diskutieren, Mobilisieren und Mitbestimmen abnimmt, wäre das Ende von Selbstbestimmung und Mündigkeit in der Demokratie. Daher gilt für den Einsatz von KI-Systemen im Journalismus, aber auch in anderen Einsatzfeldern: Maßhalten ist das Gebot der Stunde.

Christoph Neuberger ist Wissenschaftlicher Geschäftsführer und Direktor des Weizenbaum-Instituts für die vernetzte Gesellschaft und Professor für Publizistik und Kommunikationswissenschaft mit dem Schwerpunkt „Digitalisierung und Partizipation“ an der Freien Universität Berlin. Er ist Mitglied der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ der Plattform Lernende Systeme.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

34543

share

Artikel teilen

Top Artikel

Ähnliche Artikel