Künstliche Intelligenz: Faszination und Sorge
Der Ruf nach Regulierung wird konkreter
Der intelligente Chatbot ChatGPT hat in kürzester Zeit große Aufmerksamkeit generiert und täglich gibt es dazu Neuigkeiten. Doch in Neugier und Begeisterung mischen sich zunehmend auch Ängste und Sorgen, nicht nur in der Politik. Welche Gefahren birgt diese clevere Form der künstlichen Intelligenz?
Italien hatte als erstes Land ein Verbot ausgesprochen
Als erstes Land war Italien aktiv geworden und hatte ChatGPT verboten. Offiziell begründete Italien das Verbot mit Verstößen gegen den Daten- und den Jugendschutz. Laut italienischen Behörden waren die Angaben der Betreiberfirma OpenAI darüber, wie und welche Benutzerdaten gesammelt werden, unzureichend. Außerdem wurde kritisiert, dass der Chatbot zuweilen unzutreffende Antworten gebe.
Auch der Jugendschutz sei laut Angaben der Behörde nicht gesichert, denn ChatGPT kontrolliere bei der Anmeldung das Alter der Nutzer nicht, obwohl der Bot eigentlich erst für ab 13‑Jährige verfügbar sein sollte. Die Behörde gab der Betreiberfirma 20 Tage Zeit, um mitzuteilen, wie die Probleme behoben werden könnten. Andernfalls würde eine Strafe von bis zu 20 Mio. Euro oder 4 % des weltweiten Jahresumsatzes angedroht. (Kirst 2023)
Am 29. April wurde das Verbot dann wieder aufgehoben, nachdem sich OpenAI kooperativ gezeigt und zumindest die Bedenken im Datenschutz zum großen Teil ausgeräumt hatte. Sam Altman, Chef von OpenAI twitterte:
we’re excited chatgpt is available in Italy again!“ (Altmann 2023).
„Der Sprachroboter ChatGPT ist in Italien wieder verfügbar. Das amerikanische Unternehmen OpenAI habe der Datenschutzbehörde Maßnahmen erläutert, mit denen es den Aufforderungen zum besseren Datenschutz nachkommt, wie die Behörde am Freitagabend mitteilte. ‚OpenAI stellt den Dienst in Italien mit verbesserter Transparenz und verbesserten Rechten für europäische Benutzer wieder her.‘ Das Unternehmen erfülle nun eine Reihe von Bedingungen, die die Behörde gefordert hatte, um das Verbot des Textroboters aufzuheben. Die Behörde forderte allerdings weitere Maßnahmen wie ein System, um das Alter von Nutzern zu verifizieren. Die Ermittlungen gegen OpenAI würden fortgesetzt.“ (dpa 2023)
Skepsis auch in der EU
Insgesamt wurde das Verbot Italiens vielfach kritisiert, die Gründe seien nicht nachvollziehbar, es gehe wohl mehr um die Bewahrung der italienischen Tradition. Eine gewisse Skepsis gegenüber der neuen Künstlichen Intelligenz gibt es inzwischen allerdings auch in Deutschland und in der EU, selbst aus den gewohnt technikaffinen USA kommen kritische Töne. Sogar Elon Musk fordert in einem offenen Brief, den 1.000 hochrangige Persönlichkeiten aus IT-Konzernen mitunterschrieben haben, eine Entwicklungspause von sechs Monaten einzulegen, um die Risiken der Entwicklung in diesem Bereich besser abschätzen zu können. Der Tenor:
KI-Systeme mit einer dem Menschen ebenbürtigen Intelligenz können tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen.“ (Hensen 2023)
Mitunterzeichner sind Apple-Gründer Steve Wozniak, Universitätsprofessoren, KI-Unternehmer und führende Wissenschaftler aus diesem Bereich.
Dem Brief zufolge müsse der „tiefgreifende Wandel in der Geschichte des Lebens auf der Erde“ mit „entsprechender Sorgfalt“ und „entsprechenden Ressourcen“ kontrolliert werden. Bislang gibt es für die Entwicklung von KI so gut wie keine Grenzen – und schon gar keine Kontrollen. Nach Meinung der Experten äußere sich das derzeit in einem „außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe“. Der Vorwurf: Nicht einmal die Entwickler würden verstehen, was sie da gerade eigentlich tun. (Vgl. ebd.)
Interessengeleitete Skepsis
Allerdings sind die Forderungen nicht frei von jeweiligen Interessen: „Der Computeringenieur und Apple-Mitbegründer Steve Wozniak ist da schon von seinem beruflichen Hintergrund deutlich näher an der optimistischen Utopie daran. Schließlich steht Apple allein schon mit seinem historischen Claim ‚Think different‘ für die positive Kraft der Innovation und den Mut zu neuen Ideen. Dass er für ein Moratorium der generativen KI eintritt, ist bemerkenswert, wenn man bedenkt, wie regelmäßig er öffentlich den Mangel an echter Innovation im eigenen Unternehmen beklagt.“ (Campillo-Lundbeck 2023) Auch Elon Musk könnte bei seiner Brief-Initiative eigennützige Hintergedanken gehabt haben: „Er gehörte nicht nur zu den ursprünglichen Gesellschaftern von OpenAI. Musk gab vor Kurzem auch den Start seiner eigenen KI-Firma X.AI bekannt, die das in seinen Augen drängendste Problem der neuen Technologie lösen soll: dass die KI ausschließlich ‚woke‘ Antworten liefert.“ (Ebd.)
KI ist hervorragend, macht aber immer auch Fehler
„Große Sprachmodelle basieren auf Maschine-Learning-Algorithmen, sie werden durch große Datenmengen aus allen Bereichen des Internets trainiert, um mit knappem Input schnell neue Texte zu erzeugen. ChatGPT-3 ist mit 175 Milliarden Parametern das bisher weltweit größte KI-Modell für die Verarbeitung menschlicher Sprache, und der Nachfolger GPT-4 ist nochmals sehr viel besser. Diese KI kann menschliche Sprache so reproduzieren, als hätte sie ein Mensch verfasst.“ (Nejdl 2023).
Sprachmodelle machen aber Fehler, die Informatik nennt sie Halluzination der Modelle: bei komplexer Sprachtiefenstruktur fehlen die nötigen Informationen, sodass die KI sie interpretieren muss. So können aus diesen Lücken Fehlinterpretationen entstehen. Die Texte klingen gut, sind aber in Teilen falsch oder zumindest nicht ganz präzise. Das kann fatale Auswirkungen haben. Dennoch: Die Programme und die ihnen zugrundeliegenden großen Modelle stellen einen immensen Sprung dar, was die Feinheit, Raffinesse, Innovationsgeschwindigkeit und die Fähigkeiten dieser NLP-Technologie anbelangt (Vgl. ebd.).
Wolfgang Nejdl, derzeit Direktor des L3S Forschungszentrums an der Leibniz Universität Hannover und Mitglied der Plattform „Lernende Systeme“ hebt die Chancen der KI unter anderem für die Medizin hervor: „Sprachmodelle haben speziell für die Medizin enormes Potenzial. Sie eröffnen der Ärztin oder dem Arzt die Möglichkeit, auf alle relevanten Informationen in natürlicher Sprache zuzugreifen. Mit BioGPT hat Microsoft ein ebenfalls auf der GPT-2-Architektur aufbauendes generatives Transformer-Sprachmodell entwickelt, das mit umfangreicher wissenschaftlicher Literatur der Biomedizin trainiert wurde. BioGPT ermöglicht nun die Analyse biomedizinischer Texte und die Extraktion relevanter Informationen für einen konkreten Anwendungsfall, etwa einen multiresistenten Erreger (MRE). Besonders für immungeschwächte Menschen sind MRE eine ernsthafte Bedrohung, wenn der Behandlungserfolg einer Infektion aufgrund von Resistenzen ausbleibt.“ (Ebd.)
Er gibt aber zu bedenken: „In der Plattform ‚Lernende Systeme‘ setzen wir uns mit ethischen, rechtlichen und technischen Anforderungen an eine vertrauenswürdige Künstliche Intelligenz auseinander. Aus anspruchsvollen Standards kann ein Nachteil erwachsen, wenn andere Wirtschaftsregionen schneller und pragmatischer KI-basierte Produkte und Dienstleistungen in den Markt bringen. Es kann aber auch eine Chance sein, auf Basis von offenen europäischen Sprachmodellen wie Open GPT-X und anderen KI-Anwendungen ‚made in Europe‘ zu einem weltweiten Qualitäts- und Verantwortungsstandard zu machen.“ (Ebd.)
Bild: Rolf van Root/Unsplash
Bundesregierung will Rechtsrahmen
Die Bundesregierung setzt sich für die Schaffung eines „klaren Rechtsrahmens“ ein, so eine Sprecherin von Innenministerin Nancy Faeser (SPD) gegenüber dem „Handelsblatt“. Geregelt werden müssten datenschutzrechtliche Aspekte sowie der Umgang mit Fehlern der KI und die Vermeidung möglicher Diskriminierung. Eine Rolle spiele auch die Erklärbarkeit und Nachvollziehbarkeit von KI-Ergebnissen. (Vgl. Becker et al. 2023)
Kennzeichnungspflicht?
Auch die Co-Vorsitzende der SPD, Saskia Esken, sprach sich für eine Kennzeichnungspflicht von KI-Inhalten aus und warnte: „Wenn wir nicht mehr wissen, was echt und falsch ist, geraten wir in große Schwierigkeiten.“ (Ebd.) Ähnliches fordert Digitalminister Volker Wissing (FDP). „Es ist atemberaubend, was Künstliche Intelligenz inzwischen kann“, sagte Wissing der „Bild am Sonntag“. „Die künstliche Intelligenz ist im Alltag angekommen und sie wird unser Leben grundlegend verändern.“ (Ebd.) Wissing forderte die EU auf, schnell zu reagieren und künstliche Intelligenz vernünftig zu regulieren. Es müsse sichergestellt werden, dass „diese neue Technologie nur dann eingesetzt werden darf, wenn sie sich an europäische Werte wie Demokratie, Transparenz und Neutralität hält.“ (Ebd.)
Auch die EU wird aktiv
Auch auf der Ebene der EU-Kommission werden Vorschriften diskutiert, die sicherstellen sollen, dass in der EU verwendete KI-Systeme „sicher, transparent, ethisch, unparteiisch und unter menschlicher Kontrolle sind“ (EU-Kommission o. J.).
Folgende Punkte erklärt die EU als hohes Risiko:
- Wenn kritische Infrastrukturen wie der Verkehr betroffen sind und „das Leben und die Gesundheit der Bürger gefährdet werden könnten“
- Wenn in Prüfungen nicht mehr zwischen Eigenleistung und KI als Autor unterschieden werden kann
- Wenn die KI in sicherheitsrelevanten Bereichen wie in der roboterassistierten Chirurgie eingesetzt wird
- Wenn KI zur Auswertung von Lebensläufen für Einstellungsverfahren oder zur Beurteilung der Zahlungsfähigkeit verwendet wird, wenn die KI in die Grundrechte der Menschen eingreifen könnte, z. B. durch Überprüfung der Echtheit von Beweismitteln in der Strafverfolgung
- Bei der Überprüfung der Echtheit von Reisedokumenten bei Migration und Asyl bei Grenzkontrollen
- In der Rechtspflege und in demokratischen Prozessen, etwa in der Anwendung von Rechtsvorschriften auf konkrete Sachverhalte.
Weiterhin gibt es auch geringere Risiken – „Für KI-Systeme wie ‚Chatbots‘ gelten minimale Transparenzverpflichtungen, die es den mit ihnen interagierenden Nutzern ermöglichen sollen, fundierte Entscheidungen zu treffen. Die Nutzer können dann entscheiden, ob sie die Anwendung weiter nutzen oder nicht“ (Ebd.) – und geringe Risiken: „Kostenlose Nutzung von Anwendungen wie KI-gestützten Videospielen oder Spamfiltern. Unter diese Kategorie, in der die neuen Vorschriften nicht greifen, fällt die große Mehrzahl der KI-Systeme, weil diese Systeme nur ein minimales oder kein Risiko für die Bürgerrechte oder die Sicherheit darstellen.“ (Ebd.) Derzeit denkt man vor allem über Regulierungsmaßnahmen für die hohen Risiken nach.
Was ist geplant?
- „Eine öffentlich-private Partnerschaft für künstliche Intelligenz, Daten und Robotik zur Festlegung, Umsetzung und Förderung einer gemeinsamen strategischen Forschungs-, Innovations- und Einführungsagenda für Europa
- Zusätzliche Netze von KI-Exzellenzzentren für einen breiteren Austausch von Wissen und Know-how, zur Zusammenarbeit mit der Industrie sowie für mehr Vielfalt und Inklusion
- Test- und Versuchseinrichtungen zur Erprobung modernster Technologien unter realen Bedingungen
- Digitale Innovationszentren, zentrale Anlaufstellen für den Zugang zu technischem Fachwissen und Experimenten, damit Unternehmen ‚vor der Investition testen‘ können
- Eine KI-Plattform auf Abruf als zentrales europäisches Instrumentarium für KI-Ressourcen (z. B. Fachwissen, Algorithmen, Softwarerahmen, Entwicklungstools), die von der Industrie und vom öffentlichen Sektor genutzt werden können“ (EU-Kommission o. J.)
Nun gibt es wohl eine Einigung im EU-Parlament „Die Vorschläge sehen vor, dass KI-Systeme nach ihrem Risikoniveau eingestuft werden, von minimal über begrenzt und hoch bis inakzeptabel. Systeme mit hohem Risiko würden zwar nicht verboten, bei ihrem Einsatz wäre jedoch ein hohes Maß an Transparenz vorgeschrieben. Bei generativer KI müsste offenlegt werden, ob urheberrechtlich geschütztes Material bei der Entwicklung verwendet wurde.“ (SZ/Reuters/gut/amh 2023)
Ermittlung von Datenschützern und die Reaktion
Inzwischen ermitteln auch deutsche Datenschützer in einem Verwaltungsverfahren gegen OpenAI. Es geht um die Frage, ob die von der KI eingesetzten Algorithmen die Anforderungen der EU-Datenschutzgrundverordnung (DSGVO) erfüllen. „Von Interesse sei nicht nur die Herkunft der Daten für das Training der KI, sondern ebenfalls, wie mit den im Laufe der Nutzung entstandenen Daten umgegangen werde: Werden Betroffenenrechte, wie die Möglichkeit zur Auskunft, Berichtigung und Löschung der eingegebenen Daten, eingehalten? Wie werden die Daten minderjähriger Nutzer behandelt? Welche Mechanismen stellen den Jugendschutz sicher? Die Antworten auf die sechsseitigen Fragebögen sollen für die deutschen Behörden Licht ins Dunkle bringen und Transparenz schaffen.“ (Schweitzer 2023) Bis zum 7. Juni hat OpenAI Zeit, die Bedenken auszuräumen.
Nun hat OpenAI zum ersten Mal in Bezug auf den Datenschutz reagiert. „Ab sofort können Nutzerinnen und Nutzer von ChatGPT ihren Chatverlauf deaktivieren. Unterhaltungen, die bei deaktiviertem Chatverlauf begonnen werden, werden nicht zum Trainieren von ChatGPT verwendet. Es gab zwar bereits ein Opt-Out-Verfahren, das aber ziemlich versteckt war. Allerdings gelten sowohl die neue als auch die alte Opt-Out-Möglichkeit nicht rückwirkend. Vergangene Chats können also weiter für das Training der Software verwendet werden. […] Wer ChatGPT nicht mehr mit seinen Daten füttern will, muss in den Einstellungen den Schieberegler ‚ChatVerlauf & Training‘ deaktivieren. Die Unterhaltungen werden dann noch 30 Tage gespeichert. In dieser Zeit kann OpenAI sie ‚bei Bedarf überprüfen, um sie auf Missbrauch zu kontrollieren‘, wie es auf der Website des Unternehmens heißt. Dann werden sie komplett gelöscht.“ (Oswald 2023). Damit würde OpenAI zumindest zwei Kritikpunkte aus der Welt räumen und damit auf das künftige EU-Regelwerk für Künstliche Intelligenz reagieren.
Kein Verbot von KI
Ein Verbot von KI ist bisher nicht geplant, davor wird eher gewarnt. Zuweilen wird die Meinung vertreten, die Gesetzgebung hinke der technischen Entwicklung ohnehin immer hinterher und sei schon längst auf einem anderen Level, wenn die Gesetze dann in Kraft treten: „Nun soll endlich auch die ultimative digitale Technologie geregelt werden: die aus der massenhaften Auswertung von Daten gewonnene künstliche Intelligenz (KI). Europa werde damit zum ‚globalen Zentrum für vertrauenswürdige KI‘, tönte die Kommission bei der Vorstellung des Gesetzentwurfs im April 2021. Im Parlament gibt es bei den Beratungen aber noch nicht einmal Einigkeit darüber, was KI genau ist.“ (Kelnberger 2023). Verbreitet ist die Angst, durch die Regulierungsunsicherheit würde Europa von der technischen Entwicklung der KI bezüglich deren Weiterentwicklung und ihrer Nutzung abgehängt.
„Das Verbot einer neuen Technik ist natürlich nie der erste Schritt, sondern Ultima Ratio – nach sorgfältiger Prüfung und Bewertung der Sachlage oder bei besonderen Gefahrenlagen. Betroffene Unternehmen können sich gegen Untersagungsverfügungen wehren und eine gerichtliche Überprüfung herbeiführen. Die deutschen Datenschutzbehörden haben sich koordiniert und Fragen zu ChatGPT formuliert, um sich zunächst ein klares Bild über die Software zu verschaffen. […] Der Berichterstatter des Europäischen Parlaments für die KI-Haftungs-Richtlinie, Axel Voss, hat sich gemeinsam mit dem früheren Landesbeauftragten für den Datenschutz des Landes Baden-Württemberg, Stefan Brink, und Rolf Schwartmann als Vorsitzendem der Gesellschaft für Datenschutz und Datensicherheit (GDD) e. V., in einem offenen Brief an OpenAI gewandt. Danach soll der Dienst in Europa nicht pauschal verboten, sondern in den bestehenden rechtlichen Rahmen eingefügt werden.“ (Hansen et al. 2023) Eine rechtliche, noch weitgehend ungeklärte Frage ist, dass ChatGPT ausschließlich Daten von anderen nutzt: „Die Datenverarbeitung zu journalistischen Zwecken ist privilegiert, was auch die Datenschutzgrundverordnung (DSGVO) anerkennt. Was aber bedeutet das für ChatGPT? Originär eigene Inhalte liefert der Dienst nicht. Es ist ein Werkzeug, das aus datenschutzrechtlich privilegierter Berichterstattung im Netz ebenso schöpft wie aus nichtjournalistisch-redaktionellen und damit nichtprivilegierten Quellen. Die eine Datenausgabe anfragende Person, vielleicht eine Journalistin, weiß nicht, in welchem Kontext die ursprüngliche Daten- und Informationsverarbeitung stand.“ (Ebd.)
KI und Journalismus
Warnungen kommen auch vom Deutschen Journalistenverband (DJV). KI-Anwendungen handeln „fernab von Ethik und einem Wertesystem und sind daher nicht in der Lage, die Wächterfunktion, die Journalisten und Journalistinnen seit jeher zukommt, zu übernehmen“, heißt es in einem Positionspapier des DJV-Vorstands (koe/epd 2023). Es gehe auch darum, dass KI den Journalismus nicht ersetzen dürfe. Letztlich basiere die KI auf der Analyse vieler journalistischer Texte, die sie dann neu kombiniere: „Einen großangelegten Inhalteklau durch den Kollegen Roboter darf es nicht geben“, so der DJV-Vorsitzende Frank Überall (ebd.).
Trotz Kritik: Alle versuchen, wie man KI einsetzen kann
Aber der Reiz, mit KI zu experimentieren, ist für viele größer als die Angst vor Risiken. Zehn Unternehmen haben ihre Marketingkampagnen mit KI erarbeitet, die Begeisterung war aber unterschiedlich. KI kann hervorragend Massen von Daten analysieren, daraus lernen und die Daten bei gestellten Aufgaben nach Wahrscheinlichkeitsalgorithmen zu einem eigenen Ergebnis zusammenfügen. Dabei kommen teilweise scheinbar ausgezeichnete Ergebnisse heraus. Kritiklos glauben kann man die KI-generierten Inhalte nicht, man kann sie aber gut zur Vorbereitung eigener Texte verwenden, wenn man die Fehler herausfiltert: „Für jede Menge Diskussionsstoff hat wohl die diesjährige Festivalkampagne des Art Directors Club für Deutschland (ADC) gesorgt. Diese kommt von dem langjährigen ADC-Mitglied Arno Lindemann, Creative Partner von Scholz & Friends, der die Motive von der Bild-KI Midjourney erstellen lassen hat. Nach der Veröffentlichung der Kampagne im Februar äußerten jedoch einige der ADC-Mitglieder ihren Unmut darüber. Die Fachbereiche Editorial und Design veröffentlichten sogar eine Stellungnahme, in der man sich von der Kampagne distanzierte: „‚Wir glauben, dass die Kampagne nicht zum Besuch des Festivals einlädt und weder nach außen noch nach innen inspirierend und verständlich wirkt.‘ Für Aufmerksamkeit für das bevorstehende Festival im Juni hat sie allemal gesorgt.“ (Adam 2023).
Obwohl von vielen Ängste in Bezug auf den Ersatz von Mitarbeitern und den Verlust von Arbeitsplätzen durch KI geäußert werden, hat die Mehrheit der Deutschen keine Angst, ihren Arbeitsplatz zu verlieren: „Eine Mehrheit der Menschen in Deutschland befürchtet nach einer Umfrage des Marktforschers Yougov nicht, dass ihre berufliche Tätigkeit durch Künstliche Intelligenz ersetzt wird. 52 Prozent gaben demnach an, davon eher nicht oder überhaupt nicht auszugehen. Sechs Prozent befürchten dagegen sehr, dass solche Software eines Tages ihre Tätigkeit übernimmt, 12 Prozent rechnen eher damit.“ (dpa [a] 2023).
Fazit
KI ist erstaunlich gut und wird mit der Zeit immer besser. Je mehr Menschen sie durch Aktivitäten im Netz füttern, desto besser wird sie (vgl. iKnowReview 2023). Die angedachten Regulierungsideen sind nachvollziehbar, aber es bleibt abzuwarten, ob sie angesichts der Masse umzusetzen und zu kontrollieren sind. KI kann auch Journalisten nicht ersetzen, denn wenn diese keine Inhalte produzieren und ins Netz stellen, wird die KI sprachlos: Recherchieren kann sie (noch) nicht selbst, sie braucht Daten als Grundlage für ihre Inhalte. Wir sollten lernen, sie richtig zu verwenden: Sie hilft und unterstützt Menschen, aber sie ersetzt sie nicht.
Quellen:
Adam, M.: COCA-COLA, ADC, FRIDAYS FOR FUTURE & CO. Diese 11 Kampagnen sind von Bild-KI gemacht. In: Horizont, 25.04.2023. Abrufbar unter www.horizont.net
Altman, S.: We’re excited chatgpt is available in ???????? again! In: www.twitter.com, 28.04.2023.
Becker, K./Gill, C./Pokraka, D.:Regeln für Künstliche Intelligenz. Innenministerium will KI-Einsatz regulieren. In: Tagesschau, 16.04.2023. Abrufbar unter: www.tagesschau.de
Campillo-Lundbeck, S.: ELON MUSK, STEVE WOZNIAK & YUVAL NOAH HARARI. Gefährliche KI-Kassandras. In: Horizont, 26.04.2023. Abrufbar unter: www.horizont.net
dpa (a): Umfrage zur künstlichen Intelligenz. Mehrheit der Deutschen sieht eigene Jobs durch KI nicht gefährdet. In:Horizont, 24.04.2023. Abrufbar unter: www.horizont.net
dpa (b): Künstliche Intelligenz – ChatGPT ist in Italien wieder verfügbar. In: FAZ.Net, 28.04.2023. Abrufbar unter: www.faz.net
EU-Kommission: Künstliche Intelligenz. Exzellenz und Vertrauen. In: Europäische Kommission, o. J. Abrufbar unter: commission.europa.eu
Hansen, M./Keber, T./Rixen, S./Schwartmann, R.: Künstliche Intelligenz: Es bringt nichts, ChatGPT zu verbieten. In: FAZ Net, 27.04.2023. Abrufbar unter: www.faz.net
Hensen, C.: CHATGPT, Mindjourney und Co. Sofortige Entwicklungspause gefordert: Elon Musk und über 1000 Tech-Riesen warnen in offenem Brief vor KI. In:Stern, 29.03.2023. Abrufbar unter: www.stern.de
iKnowReview: Deswegen ist künstliche Intelligenz nicht gefährlich! In: YouTube,22.04.2023. Abrufbar unter: www.youtube.com
Kelnberger, J.: Künstliche Intelligenz: Im Wettlauf mit der KI fällt die EU weiter zurück. In: Süddeutsche Zeitung, 12.04.2023. Abrufbar unter: www.sueddeutsche.de
Kirst, V.: Warum Italien plötzlich ChatGPT verbietet. In: Welt, 04.04.2023. Abrufbar unter: www.welt.de
koe/epd: Journalistenverband warnt: KI agiert fernab von Ethik und Werten. In: epd medien aktuell, 24.04.2023. Abrufbar unter: w.epd.de
Nejdl, W.: ChatGPT – ein Meilenstein für die digitale Medizin? In: Tagesspiegel Background, 20.04.2023. Abrufbar unter: background.tagesspiegel.de
Oswald, B.: OpenAI gibt ChatGPT-Nutzern mehr Kontrolle über ihre Daten. In: BR 24, 26.04.2003. Abrufbar unter: www.br.de
Schweitzer, T.: Fragen an Open AI: Datenschützer haben ChatGPT im Visier. In: FAZ, 22.04.2023. Abrufbar unter: www.faz.net
SZ/Reuters/gut/amh: Brüssel. Europaparlament einigt sich auf Regeln für künstliche Intelligenz. In: Süddeutsche Zeitung, 28.04.2023. Abrufbar unter: www.sueddeutsche.de