Die Geister, die ich rief

KI-Entwickler warnen vor den Gefahren ihrer Produkte

Joachim von Gottberg

Prof. Joachim von Gottberg ist Chefredakteur der Fachzeitschrift MEDIENDISKURS.

Die EU hat mit dem AI Act Pläne zur Regulierung von Künstlicher Intelligenz vorgelegt. Sie ist jedoch nicht allein in ihrer Sorge um die potenziellen Gefahren, die KI für die Gesellschaft mit sich bringen kann. Selbst KI-Entwickler warnen vor den Risiken, die mit ihren eigenen Produkten verbunden sind.

Online seit 15.06.2023: https://mediendiskurs.online/beitrag/die-geister-die-ich-rief-beitrag-772/

 

 

Künstliche Intelligenz und kein Ende: Inzwischen warnen selbst ihre Entwickler vor den möglicherweise zerstörerischen Eigenschaften. Vor Kurzem berichtete ein Vertreter der US Air Force von einer Simulation, in der eine KI-gesteuerte Drohne ihren menschlichen Wächter umgebracht habe – später korrigierte die Air Force, es habe sich lediglich um ein Gedankenexperiment gehandelt (The Guardian 2023). Dennoch: Sam Altman, CEO von OpenAI, ruft angesichts des allgemeinen KI-Fortschritts nach Regulierung – aber eben auch nicht zu viel. Schon im März haben Elon Musk und andere eine Entwicklungspause gefordert. Aber was soll das bringen? Und wer soll sie kontrollieren? Versucht wird ein Spagat: Einerseits sind alle auf die Entwicklungschancen der KI gespannt, andererseits will man durch die Regulierung Katastrophen verhindern. Ob das funktioniert?

ChatGPT ist seit Dezember 2022 am Start und erregt seitdem die Gemüter – und zwar sowohl die der Nutzer, die über Antworten von ChatGPT auf die absurdesten Fragen begeistert sind, als auch die der Warnenden, denen vor den möglichen Folgen angst und bange wird. Dass man nicht mehr genau sagen kann, ob ein Student oder ein Buchautor seine Texte selbst verfasst oder dabei heimlich die Hilfe der KI in Anspruch genommen hat, ist als Risiko noch überschaubar. Zumindest im Vergleich mit einer anderen potenziellen Gefahr, die vor Kurzem in einem Statement von Experten an die Wand gemalt wurde. Selbst die Tatsache, dass man mit KI Stimmen und Gesichter Prominenter simulieren kann und nicht mehr weiß, ob das, was angeblich der Bundeskanzler sagt, tatsächlich vom Bundeskanzler stammt, ist noch ein vergleichsweise geringes Problem.
 

KI und das Ende der Menschheit?

Mehr als 350 Personen haben eine kurze Erklärung unterschrieben. In nur einem Satz wird davor gewarnt, dass KI unter Umständen das Ende der Menschheit bedeuten könne (Center for AI Safety):

Es sollte global priorisiert werden, das Risiko der Auslöschung durch KI zu verringern – auf einer Stufe mit anderen Risiken für die gesamte Gesellschaft, wie etwa Pandemien und Nuklearkriege“ (Übersetzung von Business Insider, Handke 2023).

Das Erstaunliche ist, dass die Unterzeichner keine ängstlichen Pädagogen sind, die in neuen Techniken womöglich zuerst die Probleme sehen, sondern Wissenschaftler und Fachleute. Unterschrieben haben unter anderem der CEO der ChatGPT-Entwicklerfirma OpenAI, Sam Altmann, der Apple-Mitbegründer Steve Wozniak, „Demis Hassabis, der Chef der auf KI spezialisierten Google-Schwesterfirma Deepmind, sowie Geoffrey Hinton, einer der führenden Forscher in dem Bereich.“ (Ebd.)

Bisher lag der Fokus in der Debatte um KI eher auf den positiven Potenzialen der neuen Technik. Sie kann in extremer Geschwindigkeit alle möglichen Daten zusammensuchen und miteinander kombinieren, verfolgt dabei bislang aber kein eigenes Ziel. Wenn sie Schaden anrichtet, dann steckt in der Regel ein Mensch dahinter, der die Maschine entsprechend programmiert.

Es gibt aber Befürchtungen, dass die künstliche Intelligenz dem Menschen über den Kopf wächst, intelligenter wird als er selbst und ein Eigenleben entwickelt. „In Interviews mit der britischen BBC und der ‚New York Times‘ warnte der Experte [Geoffrey Hinton, ehem. Google] vor kaum kontrollierbaren Folgen der neuen technologischen Entwicklungen: Die KI-Programme seien ‚derzeit noch nicht intelligenter als wir, soweit ich das beurteilen kann. Aber sie könnten es bald sein.‘ Google und das Unternehmen OpenAI […] setzen lernende Software ein, die sehr viel größere Datenmenge nutzt als zuvor. Grundlage dafür war auch Hintons Forschung zu ‚Deep Learning‘ und sogenannten ‚neuronalen Netzen‘.“ (Tagesschau 2023)
 

Bild: Mojahid Mottakin/Unsplash


 

Regulierung gerne, aber bitte nicht zu viel

Hintons ehemaliger Arbeitgeber Google nimmt die Kritik nicht so ernst: „Google fühle sich auch weiterhin ‚zu einem verantwortungsvollen Umgang mit KI verpflichtet‘. Google lerne beim Verständnis der Risiken beständig dazu – und führe gleichzeitig weiterhin ‚kühn‘ Neuerungen ein.“ (Tagesschau 2023)

Sam Altman erläuterte seinen Standpunkt während einer Diskussion an der Technischen Universität München (TUM): „Altman erklärte, warum OpenAI die Technologie in einem frühen Stadium nach der Devise ‚show, not tell‘ öffentlich nutzbar gemacht habe: ‚Wir glauben fest daran, dass wir die Welt darüber aufklären und den Menschen Zeit geben sollten, die Technologie nach und nach zu adaptieren.‘ So könne eine Diskussion über den Umgang mit Künstlicher Intelligenz geführt werden. Dies sei besser, als Technologien lange im Labor geheim zu halten, weil es vermeintlich Menschen verängstigen würde, sie zu früh [zu] veröffentlichen.“ (TUM 2023)

Die Anregung aus dem Publikum, OpenAI könne im Rahmen seiner Offenheits-Offensive doch seinen Code freigeben, lehnte er allerdings ab: „‚Wenn wir etwas Open Source machen, wollen wir relativ sicher sein, dass wir seine Fähigkeiten und die Auswirkungen auf die Gesellschaft verstehen – denn wir können es dann nicht mehr zurückholen.‘ Grundsätzlich müsse der Mensch die Kontrolle über die Technologie behalten.“ (Ebd.) Deshalb würde Altman auch eine vernünftige Regulierung künstlicher Intelligenz prinzipiell befürworten: „‚Eine Art internationale Rahmenordnung ist eine sehr gute Idee und wir sollten damit so schnell wie möglich beginnen.‘ Als Beispiel nannte der CEO die Arbeit der Internationalen Atomenergie-Organisation. Altman sprach sich gegen eine Pause bei der Entwicklung leistungsfähiger KI aus, die andere Unternehmer:innen kürzlich gefordert hatten. OpenAI wolle nun erfahren, welche Werte und Grenzen sich die Nutzer:innen für ChatGPT wünschen und wie das System je nach Land, Gesetzgebung und Kultur angepasst werden sollte.“ (Ebd.)

Zu viel gesetzliche Steuerung empfindet Altmann dann aber doch als belastend. Er wünscht sich eher einen großzügigeren Rahmen: „Elegant umschifft er auch das große Feld der Regulierung. Regulierung sei für neue Technologien immer gut und wichtig, so Altman. Aber bitte nicht zu viel, es wäre doch viel besser, nur die äußeren Grenzen zu definieren und dann den Spielraum im Inneren zu nutzen. Von der geplanten EU-Regelung von KI war er eindeutig nicht begeistert, aber er wolle sich erst endgültig äußern, wenn er eine endgültige Fassung kenne. Konkreter will er nicht werden.“ (Lahrts 2023)
 

Einheitliche Werte und Regeln für KI-Systeme?

Wie könnte ein solcher Rahmen für Altman aussehen? Einer der OpenAI-Entwickler, der bei der Veranstaltung neben seinem Chef saß, schlug vor, die allgemeinen Menschenrechte zur Grundlage zu machen. Und auch aus dem Publikum wäre die Hoffnung auf weltweit einheitliche Regeln geäußert worden (vgl. ebd.). „Denn sonst würden die Länder mit den schärferen Gesetzen in puncto Forschung und Entwicklung abgehängt“ (ebd.).

Insgesamt ist die Frage, mit welchen Absichten und Werten die Menschheit mit KI umgeht, das Entscheidende. KI kann uns helfen, Krankheiten zu besiegen, vielleicht sogar den Klimawandel zu stoppen oder, wie einige hoffen, unser Leben zu verlängern oder gar den Tod zu besiegen. Das Problem: Wie der Ukrainekrieg zeigt, differieren die Wertvorstellungen und die politischen Absichten in den unterschiedlichen Regionen der Welt extrem – KI als Instrument in der Hand von Putin? Ein beunruhigender Gedanke.
 

AI Act der EU könnte Europa von der Entwicklung abhängen

Aber kann die EU mit ihrem geplanten AI Act eine solche Entwicklung verhindern? (Vgl. Gottberg 2023) Die EU will künstliche Intelligenz in verschiedene Risikogruppen einteilen, die sich vor allem an der gesellschaftlichen Relevanz orientieren (vgl. auch Algorithm Watch 2023). Die größte Gruppe ist die mit den geringsten anzunehmenden Risiken, also Spiele, Spamfilter oder Ähnliches. Auf der anderen Seite des Spektrums steht die Gruppe der Programme, die gesellschaftlich nicht gewollt sind und deshalb nicht erlaubt werden: Unter anderem das Social Scoring, also das Einteilen und Bewerten von Menschen nach bestimmten Gesichtspunkten durch Behörden, wie es in China praktiziert wird. Allerdings: In Teilen Vergleichbares gibt es auch in der EU schon lange, etwa den Score der Schufa, der ganz praktisch darüber entscheidet, ob jemand einen Kredit oder einen Handyvertrag erhält. Die Risikogruppe darunter ist die des „hohen Risikos“. In diese Gruppe fallen Programme, die in kritischer Infrastruktur angewendet werden, beispielsweise im Verkehr und bei Passkontrollen an Grenzen. Außerdem gehören KI-Systeme dazu, die im Personalmanagement bei beruflichen Auswahlverfahren Lebensläufe auswerten – auch das ist bei vielen Unternehmen bereits üblich. Programme dieser Risikogruppe sind zwar generell zulässig, die Anbieter müssen aber eine transparente Dokumentation vorlegen, um überprüfbar zu machen, wie die betreffende KI arbeitet. Zusätzlich müssen die Risiken dieser KI bewertet werden.

Schwammige Kriterien

Die Ausführungen zum AI Act sind bisher unzureichend, beispielweise sind die Definitionen der Risikogruppen unpräzise.Das ist auch nachvollziehbar, denn zum einen müssen die Kriterien und die Kontrolle der Programme umsetzbar sein. Zum anderen will man die Weiterentwicklung der KI nicht behindern. Definitionen müssten daher zukunftsoffen formuliert sein, meint auch Matthias Kettemann, Medienrechtler am Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI) (Bigalke et al. 2023).

Inzwischen hat die EU den Begriff des „Foundation Models“ in den Entwurf des AI Acts eingebracht. Die Abgeordneten wollen damit auf die viel beachtete Entwicklung von Sprachmodellen wie ChatGPT oder Bildgeneratoren reagieren. Foundation Models trainieren mit großen Datensätzen, um verschiedene Aufgaben zu erfüllen. Und weil sie für verschiedene Zwecke eingesetzt werden können, sollen für Anbieter solcher „Allzweck-KIs“ zusätzliche Transparenzanforderungen gelten. Es solle sichergestellt werden, dass KI-gefällte Entscheidungen nachvollziehbar seien, so Kettemann (vgl. ebd.).
 

Kritik am AI Act

Aber auch gegenüber den Regelungsideen der EU wird Kritik geübt. Befürchtet wird vor allem, dass diese Regulierung die weitere Entwicklung von KI in Europa ausbremst, insbesondere die von Open-Source-Modellen, bei denen der Quellcode frei verfügbar, öffentlich einsehbar und unter bestimmten Voraussetzungen änderbar ist. Das sei mit den geplanten Vorschriften aber kaum möglich, so Hilde Kuehne, Professorin für Computer Vision and Machine Learning an der Universität Frankfurt:

Wir brauchen diese Forschung ganz dringend, um überhaupt zu verstehen, wie diese Modelle lernen, was sie lernen, [und um] negative Effekte überhaupt zu erkennen und öffentlich zu machen und dementsprechend auch die Möglichkeit zu haben, die Modelle zu verbessern, darauf zu reagieren.“ (Ebd.)

Philipp Hacker, Inhaber des Lehrstuhls für Recht und Ethik der Digitalen Gesellschaft an der European New School of Digital Studies, hat das EU-Parlament in Sachen AI Act beraten. Er sieht die Warnung des Experten-Brandbriefes kritisch. Das Statement sei in seiner Kürze überzogen, sogar gefährlich. Natürlich sei es sinnvoll, darüber nachzudenken, wohin die Entwicklung künstlicher Intelligenz in den nächsten Jahren führen könne. Ins Zentrum der politischen Debatte um KI gehörten aber andere Aspekte (vgl. ebd.). Im Interview mit Deutschlandfunk Kultur sagte Hacker:

KI kann durchaus helfen in einer ganz großen Zahl von wirklich jetzt schon relevanten, riesigen Problemen. Ich sage mal nur Fachmangel, Medizin, Unterversorgung in ganz großen Teilen der Welt, aber auch in Deutschland, Pandemien, Verteidigung des Westens, Ukraine-Konflikt.“ (Ebd.)

Es müssten konkrete Probleme angegangen werden. Hacker nannte des Weiteren Diskriminierung, Datenschutzprobleme, Fake News und Hate Speech, die bereits jetzt automatisiert würde. „Und letztlich muss man dann auch noch sagen, es ist ja durchaus ironisch, dass der Aufruf zu einer Befassung mit Existenzrisiken, die jetzt von KI ausgehen, gerade von den Personen kommt, die ihr Leben diesen Modellen und der Entwicklung dieser Modelle widmen. Also dann hätte ich von diesen Personen auch gerne ein paar Vorschläge gehört, wie sie das denn genau angehen wollen, wie das analysiert werden soll.“ (Hacker, zitiert nach Bigalke et. al 2023)
 

AI Act – übervorsichtig?

Hacker ist dem AI Act gegenüber skeptisch: „Ich sehe da momentan eher Angst und Vorsicht am Werk und zwar zu viel davon. Und das Problem ist, dass wir damit insgesamt Gefahr laufen, in Europa und in Deutschland ganz konkret den Anschluss zu verlieren. Wir müssen aufpassen, dass nicht am Ende das Diktum richtig ist, dass die USA Weltmeister der KI sind und die EU lediglich Weltmeister der KI-Regulierung.“ (Ebd.)

Noch ist der AI Act nicht beschlossen. Am 14. Juni stimmte das Europäischen Parlament der letzten Fassung zu, nun starten die Verhandlungen im EU-Gesetzgebungsprozess. Wenn es schnell geht, könnte er dieses Jahr noch verabschiedet werden. Der erste Entwurf wurde dem EU-Parlament im April 2021 vorgestellt: KI ist da schneller.
 

Quellen:

Algorithm Watch:  Ein Leitfaden zum AI Act: Wie die EU KI regulieren will und was das für uns alle bedeutet. In: algorithmwatch.org, 26.06.2023. Abrufbar unter: algorithmwatch.org (letzter Zugriff: 14.06.2023)

Bigalke, K./Böttcher, M./Terschüren, H./Gohlke, N./Hennig, M.: Kritik am AI-Act, Panik ums Heizungsgesetz, Ernüchterung im Valley. In: Breitband, 03.06.2023. Abrufbar unter: www.deutschlandfunkkultur.de (letzter Zugriff: 14.06.2023)

Center for AI Safety: Statement on AI Risk. AI experts and public figures express their concern about AI risk. In: Center for AI Safety. Abrufbar unter: www.safe.ai (letzter Zugriff: 14.06.2023)

Gottberg, J. v.: Künstliche Intelligenz: Faszination und Sorge. Der Ruf nach Regulierung wird konkreter. In: mediendiskurs.online, 03.05.2023. Abrufbar unter: mediendiskurs.online (letzter Zugriff: 14.06.2023)

Handke, C.: „Das Risiko der Auslöschung durch Künstliche Intelligenz verringern“: KI-Entwickler warnen vor dem Ende der Menschheit. In: Business Insider, 02.06.2023. Abrufbar unter: www.businessinsider.de (letzter Zugriff: 14.06.2023)

Lahrts, S.: „Er redet wie Chat-GPT-4“: Was der KI-Pionier Sam Altman in München zur Regulierung sagt. In: Neue Züricher Zeitung, 25.05.2023. Abrufbar unter: www.nzz.ch (letzter Zugriff: 14.06.2023)

Tagesschau: Warnung vor Risiken Künstlicher Intelligenz. Chatbots bald „intelligenter als wir“?.In: www.tagesschau.de, 02.05.2023. Abrufbar unter: www.tagesschau.de (letzter Zugriff: 14.06.2023)

Technische Universität München (TUM): Gründer von OpenAI zu Gast in München. Sam Altman diskutiert an der TUM über ChatGPT.Pressemitteilung der TUM. In: www.tum.de 25.05.2023, Abrufbar unter: www.tum.de (letzter Zugriff: 14.06.2023)

The Guardian: US air force denies running simulation in which AI drone ‘killed’ operator. In: The Guardian, 02.06.2023. Abrufbar unter: www.theguardian.com (letzter Zugriff: 14.06.2023)