Die betroffenen Beobachter

Bei KI sind Menschen das Problem und die Lösung

Marlis Prinzing

Dr. Marlis Prinzing arbeitet als freie Journalistin, Moderatorin und Journalismusforscherin. Sie ist Professorin an der Hochschule Macromedia in Köln.

Verantwortung verbindet die beiden Herausforderungen, die KI-Anwendungen an Journalist:innen stellen: einerseits Verantwortung für die Implementierung in die eigenen Arbeitsroutinen und andererseits Verantwortung für die sachgerechte, vollständige Berichterstattung über solche Techniken, zumal sie alle Bereiche unserer Gesellschaft umfassen und verändern. Bislang ist da noch Luft nach oben. Das ist riskant.

Printausgabe mediendiskurs: 28. Jg., 2/2024 (Ausgabe 108), S. 66-71

Vollständiger Beitrag als:

Diskurszünder ChatGPT

Seit rund 60 Jahren gibt es den Begriff „künstliche Intelligenz (KI)“, und zwar als Bezeichnung für die Möglichkeit, mit Maschinen das Lernen und andere Merkmale menschlicher Intelligenz zu simulieren. Den Grundstein legte bereits 1936 der britische Mathematiker Alan Turing, der nachwies, dass eine Rechenmaschine kognitive Prozesse ausführen kann, wenn diese sich in Einzelschritten und durch einen Algorithmus beschreiben lassen. Doch erst die Veröffentlichung des Chatbots GPT durch OpenAI im November 2022 wurde zum „Diskurszünder“, der das Thema breit ins Bewusstsein der Öffentlichkeit und ins Gespräch gebracht hat und uns letztlich zwingt, über die Folgen solcher Instrumente nachzudenken und einen vernachlässigten Reflexionsprozess nachzuholen.

Journalismus ist davon doppelt betroffen: Zum einen hat er ein Forum für die öffentliche Debatte über Themen bereitzustellen, die, wie dieses, unsere Gesellschaft von Grund auf transformieren und prägen. Zum anderen ist auch in der Branche eine solche Debatte unerlässlich, weil dort solche Instrumente eingesetzt und teilweise entwickelt werden.
 

Generelle Herausforderungen

Fortschritt, auch die KI-Technik, muss dem Wohl der Menschen dienen. Die Technik an sich ist nicht das Hauptproblem. Menschen sind diejenigen, die die Probleme erzeugen sowie die Chancen. Problematisch sind Menschen, die leichtfertig experimentieren, rücksichtslos eigene Interessen durchsetzen, üble Absichten haben, aber auch jene, die sich verweigern und uninformiert bleiben wollen. Uns nützt weder naive Begeisterung, die KI schlicht zum Hype erklärt, noch Furcht, Menschen könnten bald als solche ersetzt werden (was weder technisch möglich noch das Kernthema ist).
 


Wir müssen heute beispielsweise eher ein Smartphone bedienen können als eine Pferdekutsche.



Menschen sind zudem diejenigen, die die Qualität von KI-Werkzeugen bestimmen. Menschliches Können entscheidet, was KI kann und was nicht und in welchen Gebieten dies geschieht. Menschliches Verantwortungsbewusstsein entscheidet, ob KI nützt oder schadet. Menschliche Neugier, Expeditionslust und Lernfähigkeit sind gefragt, um Dinge anders und neu zu sehen und um zu überlegen, welche Fertigkeiten man verlernen kann, sobald man bestimmte Werkzeuge oder Geräte nutzt, und welche man sich erhalten sollte. Wir müssen heute beispielsweise eher ein Smartphone bedienen können als eine Pferdekutsche.

Tools sind Folgen und Fehler egal. Teilweise trifft das aber auch für Personen oder für Unternehmen zu. Deshalb bedarf es der Leitplanken, also einer Governance mit Regulierung und Selbstregulierung. Das ist auch unerlässlich, um klar zuzuweisen, wer auf welcher Grundlage wofür zur Verantwortung gezogen werden kann. Nur Personen und sicher keine Tools können Verantwortung übernehmen.

Eine Folge von KI-Anwendungen, insbesondere von missbräuchlichen, ist die Verunsicherung. Den eigenen Augen trauen und weitere scheinbar unverrückbare Gewissheiten gelten nicht mehr: Trägt der Papst wirklich eine weiße Daunenjacke oder ist das Bild von einer KI generiert? Ist das Bild von Abertausenden, die an einer Demonstration gegen rechts teilnahmen, Fake oder echt? (Siggelkow 2024)
 

KI im Journalismus

KI-Anwendungen durchdringen alle Bereiche der Gesellschaft, das ist ein Faktum. Auch im Journalismus sind sie nichts Neues. Bislang lassen sich beispielsweise bezogen auf die Produktion von Inhalten drei Phasen unterscheiden.

  • Zunächst ging es um die Automatisierung von datengesteuerten Informationen (Spielergebnissen, Wahlergebnissen, Börse etc.), entsprechende Tools setzen längst viele Redaktionen und Agenturen ein.
  • Phase zwei kennzeichnet die Erweiterung von Berichterstattung mittels maschinellen Lernens und Sprachverarbeitung, um große Datenmengen zu analysieren und Trends bzw. Muster zu erkennen. Das wurde (und wird) eingesetzt auf Projekt- und Organisationsebene (z. B. in KI-Labs mit Datenanalyst:innen und Entwickler:innen, die Datenjournalismus-Projekte unterstützen).
  • Die dritte Phase kennzeichnet generative KI, also Sprach-, Code- oder Bilder-Generatoren. Der Bot ChatGPT bzw. große Sprachmodelle sind Treiber, die im Handumdrehen aus ihnen zur Verfügung gestellten Daten immense Mengen an Erzähltext erzeugen können. KI unterstützt bereits den kompletten Produktionsprozess in Redaktionen – von der Recherche bis zur Distribution (Schützeneder u. a. 2024) – bei Datenanalyse, Übersetzung, Transkription, Verifikation, Untertitelung, zur Verschlagwortung für die Archivierung, aber auch im Vertrieb u. a. bei Empfehlungssystemen und der Analyse von Zielgruppen, Reichweiten oder Social-Media-Aktivitäten.

Die Entwicklung ist voll im Gange. Das Reuters Institute der Universität Oxford befragte rund 300 Führungspersonen in Medienhäusern in 50 Ländern nach den geplanten Einsatzbereichen für 2024 (Newman 2024). Die drei wichtigsten sind demnach Backend-Automatisierung, Personalisierung und Inhalte-Erstellung – ausdrücklich mit menschlicher Kontrolle (ebd., S. 27). Gut jeder zweite der Befragten ist sich des Risikos bewusst, bei der Inhalte-Erstellung Reputation einzubüßen (ebd., S. 30), ein Großteil vermutet beträchtliche gesellschaftliche Folgen – hier artikuliert als Vertrauen in Nachrichten (ebd., S. 33): 70 % der Befragten rechnen damit, dass KI und insbesondere generative KI das Vertrauen in Nachrichten generell eher senken.

Das äußert sich auch darin, dass etliche Medienhäuser – aber auch die Branche insgesamt – sich nun Richtlinien geben. Der Deutsche Journalisten-Verband (DJV) plädierte in einem im April 2023 veröffentlichten Positionspapier für einen sorgfältigen und differenzierten Umgang mit künstlicher Intelligenz im Journalismus und für eine möglicherweise sogar gesetzlich zu verankernde Kennzeichnungspflicht, um für Nutzer:innen kenntlich zu machen, wenn Inhalte unter Zuhilfenahme von KI entstanden sind (DJV 2023). Der Deutsche Presserat, die zentrale Selbstregulierungsinstanz der Branche, hält hingegen gegenwärtig mehrheitlich keine erweiterten Richtlinien bezogen auf KI-Anwendungen für erforderlich; die Einhaltung der journalistischen Sorgfaltspflicht sei ausreichend, „weil sie unabhängig davon gilt, ob Texte automatisch oder durch Menschen erstellt werden“ (Deutscher Presserat 2022, S. 11).

Medienhausinterne Regeln werden deutlicher. Sie betonen zum einen, dass sie für eine zukunftsgewandte, offene, teamorientierte Innovationskultur stehen und Veränderungen an klar kommunizierten Werten ausrichten wollen, und sie versichern, sich der ökonomischen, gesellschaftlichen und ethischen Risiken sowie Chancen bewusst zu sein, die solche Techniken haben (Beispiele: Ippen Media 2023; Express.de 2023). Das AI + Automation Lab des Bayerischen Rundfunks publizierte schon 2020 Richtlinien mit ähnlichen Punkten, führte sie aber detaillierter aus (Bedford-Strohm u. a. 2020). Besonderes Augenmerk gilt ferner der Datenerhebung und dem Umgang mit möglichen Vorurteilen in Trainingsdaten. Man möchte möglichst divers zusammengesetzte Teams und eine „bewusste Datenkultur“ pflegen gegenüber externen Dienstleistern wie auch bei internen Entwicklungen.
 


Die drei wichtigsten Einsatzbereiche von KI sind Backend-Automatisierung, Personalisierung und Inhalte-Erstellung.



Die Nichtregierungsorganisation Reporter ohne Grenzen adressiert im November 2023 in ihrer Paris Charter on AI and Journalism auf internationaler Ebene vergleichbare Grundsatzpositionen und verlangt, die Herkunft und Rückverfolgbarkeit von Inhalten sicherzustellen, bei KI-basierten Personalisierungen sowie bei Empfehlungen von Inhalten die Vielfalt und Integrität von Informationen zu wahren; zudem, so die NGO, sollten Journalist:innen und Medienorganisationen sich an der KI-Governance beteiligen.

Auf Regulierungsebene passiert gegenwärtig einiges: Der Europarat erarbeitet eine KI-Konvention, die Europäische Union eine KI-Verordnung. Erklärtermaßen sollen diese Regelwerke in den Mitgliedstaaten gewährleisten, dass der Einsatz KI-basierter Systeme keine negativen Auswirkungen auf die Sicherheit, Gesundheit und Grundrechte von Menschen hat. Doch ist das so?
 

Eine visuelle Darstellung von KI (Bild: FSF/erstellt mit Midjourney)


 

KI als Thema

Diese Frage soll den Blick nun darauf lenken, dass KI-Regulierung auch ein Beispiel für ein Thema ist, über das Journalist:innen berichten müssen, und zugleich ein Beispiel dafür, wie lückenhaft dies oft geschieht. An dieser Stelle ist teils nur der beobachtende Blick möglich, wiewohl eine aktuelle, umfassende Analyse der Themenbreite in der Berichterstattung über KI wünschenswert wäre.

Man liest zwar Einschätzungen von Politiker:innen zur KI-Verordnung, aber es wird kaum bewertet, welche Risiken der aktuelle Entwurf der KI-Verordnung birgt. Eine Ausnahme ist die Nichtregierungsorganisation AlgorithmWatch. Sie übernimmt im Grunde eine Aufgabe, die Journalismus hätte, erreicht aber nur teilweise dieselben Zielgruppen. AlgorithmWatch (2024b) und über 30 weitere zivilgesellschaftliche Organisationen rufen die verhandelnden Staaten auf, die Techunternehmen stärker zu kontrollieren. Die Bedenken: Behörden und private Unternehmen würden teilweise aus dem Geltungsbereich der Regeln entlassen, Menschen in prekären Situationen nur lückenhaft vor staatlicher Überwachung und Kontrolle geschützt; Unternehmen wie OpenAI, Google/Alphabet, Microsoft, Amazon oder Meta profitierten nicht nur vom KI-Hype, sondern hofften auf Regelungen, über die Regierungen ihnen Spielräume für das Entwickeln und Testen neuer KI-Anwendungen einräumen könnten. Private Unternehmen wie sie haben, anders als öffentliche, keine Verpflichtung, vor dem Einsatz eines risikoreichen KI-Systems eine Folgenabschätzung für die Grundrechte durchzuführen und solche Systeme in einer öffentlichen Datenbank zu registrieren. KI-Anbieter können laut aktuellem Regelentwurf Auflagen für risikoreiche KI-Systeme umgehen, wenn sie behaupten, dass ihre Systeme nur vorbereitende oder beschränkte Aufgaben erfüllen. „Erst wird groß angekündigt, die Big-Tech-Konzerne stärker in die Pflicht zu nehmen. Im Laufe der politischen Verhandlungen lösen sich solche Pläne dann auf. Das dürfte nicht zuletzt an den vielen Millionen Euro liegen, die Big Tech für die Lobbyarbeit bei Entscheidungsträger*innen ausgibt“, kritisiert Matthias Spielkamp, Geschäftsführer von AlgorithmWatch (zitiert in: AlgorithmWatch 2024a).
 


KI-Anbieter können laut aktuellem Regelentwurf Auflagen für risikoreiche KI-Systeme umgehen, wenn sie behaupten, dass ihre Systeme nur vorbereitende oder beschränkte Aufgaben erfüllen.



„Nationale Sicherheit“ ist ein Schlüsselargument. Es kann zum Freifahrtschein für KI-Systeme werden. Denn mit diesem Argument können sie vom Geltungsbereich der Gesetze ausgenommen werden. Konkret: So kann man rechtfertigen, Onlinenachrichten vorzuselektieren, Werbung zu steuern, Migranten zu überwachen, Polizeiarbeit zu beeinflussen (wie viele Streifenwagen patrouillieren durch welches Stadtviertel?) und manches mehr. Über die Folgen, die dies für das Miteinander in der Gesellschaft hat, und insbesondere über die Vorstellung, dass europaweit zwar ein gesetzlicher Rahmen geschaffen wird, der aber auch den gezielten Missbrauch sowie haarsträubende Fehler einpreist und Menschen zu Testobjekten macht, wird kaum berichtet. Und auch kaum über die Wissensdefizite bei den Verhandlungspartnern – aufseiten von Politiker:innen oft bezogen auf Technikfolgen, aufseiten mancher CEOs von Techunternehmen bezogen auf Demokratie und Werteorientierung.

Ein anderes Beispiel für Lücken in der Berichterstattung: Statt Technikanwendungen mit Begriffen wie „Kollege KI“ zu „vermenschlichen“, sollte erklärt werden, was z. B. Chatbots im Kern sind. Das dürfte ernüchtern. Denn Chatbots schreiben nicht wirklich, es scheint nur so; sie ermitteln mit Methoden der Wahrscheinlichkeitsrechnung, welches Wort auf welches folgen könnte. Chatbots lesen auch nicht. Sie wandeln Wörter und Buchstaben in Zahlen und Vektoren um. Für KI ist ein Text also ein Datensatz; daher rührt eine weitere Herausforderung. Denn in den USA und in der EU lassen sich Datensätze urheberrechtlich nicht schützen; als kreativ kann erst das Sammeln von Daten gelten.
 


Für KI ist ein Text also ein Datensatz; daher rührt eine weitere Herausforderung. Denn in den USA und in der EU lassen sich Datensätze urheberrechtlich nicht schützen



Weitere Befunde machen das Ausmaß des Handlungsbedarfs noch deutlicher: Es fehlt an Vielfalt bei Quellen und bei Expert:innen. Redaktionen, so eine Untersuchung bezogen auf britische Medien, vertrauen stark auf die Expertise von Dritten, vor allem auf jene mit Industriebezug (Brennen u. a. 2018). Die Mehrheit der Medienbeiträge ist auf die Bedenken der Industrie ausgerichtet und stützt sich auf Informationen aus der Industrie. Die Berichterstattung verstärkt die Unternehmenseinschätzung zur Sinnhaftigkeit und zu den Potenzialen von KI-Technik, es wird kaum ein Gesamtbild gezeigt. Die Politisierung des Themas folgt Blattlinien: Eher rechtsgerichtete Medien betonen wirtschaftliche und geopolitische Fragen rund um KI-Technik, linksgerichtete Medien Fragen der Ethik und der Diskriminierung. Jede dritte Quelle stammt aus der Industrie, nur 17 % der Beiträge beziehen sich auf die Wissenschaft. Eine Folgestudie (Brennen u. a. 2019) bezogen auf die Wissenschaftler:innen ergab: 70 % der Erwähnungen beschränken sich auf wenige Personen. Diese haben meist gute Kontakte in die Industrie und werden in der wissenschaftlichen Gemeinschaft eher selten zitiert, fast alle sind männlich.
 

Fazit

Journalist:innen tragen bei Themen, die die Gesellschaft durchgängig verändern, eine doppelte Verantwortung. Wie am Beispiel der KI-Anwendungen klar wird, sind sie dann Betroffene und Beobachtende. Bezogen auf die eigene Arbeit wird ein innovationsoffenes und wertebewusstes Vorgehen zumindest als Absicht erklärt und es gibt bis auf wenige Ausnahmen bislang keine Fehlleistungen.
 


Nicht nur Journalist:innen, alle, die publizieren, haben Zugang zu Bild- oder Text-Generatoren und sollten Risiken wie Potenziale erkennen können.



Bezogen auf die Berichterstattung hingegen sieht es weniger gut aus (Prinzing 2024). Mehr Themenfacetten, mehr kritische Beobachtung, mehr Erklärung der technischen Prinzipien sowie der Governance-Prozesse, eine höhere Vielfalt an Expert:innen und Quellen, eine vielseitigere Nutzung des eigenen Handwerkskastens z. B. für investigative Recherchen zu Firmen wie OpenAI und deren Arbeitsweisen, mehr Diskurs über Folgefragen, die uns als Gesellschaft umtreiben, und mehr Augenmerk für das Publikum wären notwendig. Zu Letzterem gehört neben der Sensibilisierung für Technikfolgen auch ein Medienkompetenztraining. Nicht nur Journalist:innen, alle, die publizieren, haben Zugang zu Bild- oder Text-Generatoren und sollten Risiken wie Potenziale erkennen können. Und schließlich zeigt diese Auflistung: KI ist kein Thema für wenige Medien oder für das Tech-Ressort, sondern ein Querschnittsthema, das alle Ressorts betrifft und möglichst breit aufgegriffen werden sollte. Die Beispiele dürften eine Ahnung davon geben, wie riskant es ist, wenn hier weiterhin viel Luft nach oben bleibt.
 

Literatur

AlgorithmWatch: Europa reguliert KI – zugunsten von Big Tech und Sicherheit-Hardlinern. Pressemitteilung, 25.01.2024a. Abrufbar unter: https://algorithmwatch.org (letzter Zugriff: 12.03.2024)

AlgorithmWatch: Open Letter to Council of Europe AI Convention Negotiators: Do not water down our Rights. Offener Brief, 05.03.2024b. Abrufbar unter: https://algorithmwatch.org (letzter Zugriff: 12.03.2024

Bedford-Strohm, J./Köppen, U./ Schneider, C.: Ethik der Künstlichen Intelligenz. Unsere KI-Richt-linien im Bayerischen Rundfunk. München, 30.11.2020. Abrufbar unter: www.br.de (letzter Zugriff: 12.03.2024)

Brennen, J. S./Howard, P. N./Nielsen, R. K.: An Industry-Led Debate: How UK Media Cover Artificial Intelligence. In: Reuters Institute der Universität Oxford, Dezember 2018. Abrufbar unter: https://reutersinstitute.politics.ox.ac.uk (letzter Zugriff: 12.03.2024)

Brennen, J. S./Schulz, A./ Howard, P. N./Nielsen, R. K.: Industry, Experts, or Industry Experts? Academic Sourcing in News Coverage of AI. In: Reuters Institute der Universität Oxford, 17.12.2019. Abrufbar unter: https://reutersinstitute.politics.ox.ac. uk (letzter Zugriff: 12.03.2024)

Deutscher Journalisten-Verband (DJV): Positionspapier bezüglich des Einsatzes Künstlicher Intelligenz im Journalismus. Berlin/Bonn 2023. Abrufbar unter: www.djv.de (letzter Zugriff: 24.03.2024)

Deutscher Presserat: Jahresbericht 2022. Berlin 2022

Express.de: Unsere redaktionellen Richtlinien für den Umgang mit Künstlicher Intelligenz. In: Express.de, 13.06.2023. Abrufbar unter: www.express.de (letzter Zugriff: 12.03.2024)

Ippen Media: Die KI-Prinzipien von Ippen Digital. In: Ippen Media, 04.09.2023. Abrufbar unter: www.ippen.media (letzter Zugriff: 12.03.2024)

Newman, N.: Journalism, Media, and Technology Trends and Predictions 2024. In: Reuters Institute der Universität Oxford, 09.01.2024. Abrufbar unter: reutersinstitute.politics.ox.ac.uk (letzter Zugriff: 12.03.2024)

Prinzing, M.: Alte Normen, neue Formen: Hin zu einer zukunftstauglichen Medien-Governance. In: M. Prinzing/J. Seethaler/M. Eisenegger/P. Ettinger (Hrsg.): Regulierung, Governance und Medienethik in der digitalen Gesellschaft. Wiesbaden 2024, S. 1–22

Reporter ohne Grenzen: Paris Charter on AI and Journalism. Paris 2023

Schützeneder, J./Graßl, M./Meier, K.: Grenzen überwinden, Chancen gestalten. KI im journalistischen Newsroom – Bestandsaufnahme, Perspektiven und Empfehlungen für Journalismus und Politik. In: FES impuls (Friedrich-Ebert-Stiftung [Hrsg.]), Januar 2024. Abrufbar unter: https://library.fes.de (letzter Zugriff: 12.03.2024)

Siggelkow, P.: Falsche Behauptungen über Demo-Bilder. In: ARD-Faktenfinder, 22.01.2024. Abrufbar unter: www.tagesschau.de (letzter Zugriff: 24.03.2024)