Künstliche Intelligenz und ihre ethische Dimension
Dringender Handlungsbedarf
„Wenn wir nicht lernen, wie wir uns auf die potenziellen Risiken vorbereiten und sie vermeiden können, könnte die künstliche Intelligenz das schlimmste Ereignis in der Geschichte unserer Zivilisation sein. Sie bringt Gefahren mit sich, wie z. B. mächtige autonome Waffen oder neue Wege für die wenigen, um die vielen zu unterdrücken. Sie könnte große Störungen unserer Wirtschaft verursachen“ (Hawking, zitiert nach Kharpal 2017). So ordnete Stephen Hawking sogenannte künstliche Intelligenz (KI) ein. Auch Elon Musk (Mitgründer des Onlinebezahlsystems PayPal, Gründer von Tesla sowie von Space X), den man aus ethischer Sicht sicherlich für vieles kritisieren, ihm aber nicht den Vorwurf machen kann, technologiefeindlich zu sein, fordert eine normative Reflexion zur künstlichen Intelligenz:
Künstliche Intelligenz ist viel gefährlicher als Atomwaffen. Viel gefährlicher. Warum haben wir also keine Regulierungsaufsicht?“ (Musk, zitiert nach Clifford 2018).
Im Folgenden soll künstliche Intelligenz (KI) in ihrer ethischen Dimension durchdrungen werden (vgl. Kirchschläger 2024). Dies geschieht auf der Basis, technologiebasierten Fortschritt und Ethik in einer Interaktion zu denken (vgl. Kirchschläger 2021).
KI erweist sich als datenbasiertes System (DS)
Hinter sogenannter künstlicher Intelligenz (KI) stehen Maschinen, die kognitive Fähigkeiten des menschlichen Denkens zu simulieren versuchen und sich selbst aufgrund von eigenen Fehlern korrigieren können. Im Zuge einer ethischen Kritik von sogenannter KI wird deutlich, dass sie weder die Summe menschlichen Wissens umfasst noch objektiv, fair und neutral ist. Sie stützt sich nur auf gewisse Daten, die zunehmend auch diejenigen Daten beinhalten, die sogenannte generative KI (wie z. B. ChatGPT) selbst generiert. Dies hat zur Folge, dass sogenannte KI immer dümmer wird.
Ebenso zeigt sich, dass sich einige Bereiche der menschlichen Intelligenz der technologiebasierten Erreichbarkeit entziehen und sogenannte künstliche Intelligenz der menschlichen Intelligenz in gewissen Intelligenzbereichen maximal ähnlich wird, aber nie gleich sein kann:
Systeme können soziale und emotionale Intelligenz nur simulieren, weil ihnen echte Emotionalität und Gefühle fehlen.
Beispielsweise können Menschen einem Pflegeroboter antrainieren, dass er weinen soll, wenn die Patient:innen in Tränen ausbrechen. Dies wird der Pflegeroboter perfekt umsetzen. Niemand würde aber behaupten wollen, dass der Pflegeroboter authentisch Empathie für die Patient:innen aufbringt. Er setzt einfach das um, was man ihm aufgetragen hat, nicht mehr und nicht weniger. Entsprechend könnte demselben Pflegeroboter auch beigebracht werden, den Patient:innen eine Ohrfeige zu geben, wenn sie zu weinen beginnen. Auch diesen Befehl würde die Maschine ohne Zögern und ohne Mitgefühl befolgen.
An diesem Beispiel wird zudem erkennbar, dass von Maschinen keine Moralfähigkeit ausgesagt werden kann, weil ihnen die dazu notwendige Freiheit fehlt, die bei einer menschlichen Pflegefachperson die Verantwortung bewirken würde, sich dem Auftrag der Ohrfeige zu widersetzen. Technologien werden von Menschen entworfen, entwickelt und gebaut, d. h., sie werden heteronom produziert. Daher wird auch das Erlernen von ethischen Prinzipien und Normen von Menschen geleitet. In letzter Konsequenz werden Maschinen immer von außen gesteuert werden. Bildlich gesprochen:
Maschinen – auch selbstlernende Maschinen – werden auf eine erste Codezeile zurückgehen, die immer vom Menschen stammt.
Moralfähigkeit umfasst das Potenzial der Menschen, für sich selbst ethische Prinzipien und Normen als verbindlich zu erkennen und zu setzen, um dann ihr Entscheiden und Handeln danach auszurichten. Zu Letzterem sind auch Maschinen fähig, sie müssen sich dabei aber auf Regeln stützen, die ihnen von Menschen vorgegeben wurden, anstatt diese Regeln selbst zu schreiben.
Die Maschine erkennt sie nicht selbst, sie setzt sich selbst keine ethischen Prinzipien und Normen, anhand derer sie zwischen ethisch richtig und falsch, gut und schlecht entscheiden könnte – nur wir können der Maschine dies beibringen. Sie kann sich auch selbst keine ethische Qualität von Regeln erschließen.
Einem selbstfahrenden Auto kann man z. B. beibringen, dass es keine Menschen überfahren soll. Man könnte demselben Fahrzeug aber auch beibringen: Ich möchte möglichst schnell von A nach B, also überfahre alles, was dir in den Weg kommt. Das Fahrzeug würde genauso konsequent diese Regel anwenden und entsprechend handeln, ohne dass es merken würde, dass das etwas ethisch Falsches ist. In anderen Worten:
Maschinen würden auch nicht ethische oder unethische Regeln in gleichem Maße respektieren.
Aufgrund dieser fehlenden Freiheit kann man Maschinen auch keine Verantwortung übertragen. Beispielsweise macht es keinen Sinn, ein selbstfahrendes Auto für einen Unfall mit Stromentzug oder mit Verschrottung zu bestrafen; Menschen müssen die Verantwortung übernehmen.
Wegen solcher Überlegungen ist der Begriff „künstliche Intelligenz“ zu vermeiden, weil er Erwartungen schürt, die die Technologien nicht einhalten können. Zudem löst er Übervertrauen in die Maschinen aus, was sich aus ethischer Sicht als problematisch erweist, da so Aufgaben an Technologien übertragen werden, die in menschlichen Händen bleiben sollten, weil ihnen Maschinen nicht gewachsen sind. Diese Innovationen sind adäquater als datenbasierte Systeme (DS) zu bezeichnen (vgl. Kirchschläger 2024). Denn ihre Leistung fußt auf ihrem Vermögen, große Datenmengen zu generieren, zu sammeln, auszuwerten und darauf basierend Handlungen zu vollziehen.
Ethische Chancen und Risiken der DS
Neben ethischen Chancen, die DS für die Menschheit und den Planeten mit sich bringen – beispielsweise übertreffen DS im Bereich der medizinischen Bilderkennung Ärzt:innen und können die medizinische Behandlung von Menschen fördern –, ergeben sich also auch ethische Risiken für Menschen und für die Natur, u. a.:
- DS dienen vor allem den Partikularinteressen einiger weniger multinationaler Technologiekonzerne, verstärken globale Ungleichheiten und vergrößern die bereits bestehende digitale Kluft dramatisch.
- Die ständige Missachtung der Privatsphäre und des Datenschutzes stellt einen massiven Angriff auf die Freiheit aller Menschen dar. Wann immer möglich, werden Daten von Menschen gestohlen und an den Meistbietenden weiterverkauft.
- Manipulation und Desinformation führen zu einer Destabilisierung von Ländern. Die sich rasant entwickelnden technischen Möglichkeiten zu Desinformation und Manipulation von Menschen durch große Sprachmodelle wie ChatGPT eröffnen diesbezüglich neue Horizonte. Es ist davon auszugehen, dass generative DS das für Gesellschaften bereits verheerende Phänomen der Fake News durch Deep Fakes weiter verstärken werden. Darüber hinaus betrifft die wirtschaftliche Manipulation den Menschen in seiner Rolle als Konsument:in. Mit DS kann man genau wissen – um eine Metapher zu verwenden –, welche Klaviertasten angeschlagen werden müssen, damit die Musik spielt, mit anderen Worten, damit die Menschen so einkaufen, wie man es mit DS will.
- Die mentale Gesundheit von Kindern und Jugendlichen wird durch den Einfluss sozialer Medien genauso wie die physische Gesundheit und das Leben von uns allen geschädigt. Diesbezüglich spricht Bände, dass Steve Jobs als Erfinder des iPhones den eigenen Kindern die Nutzung seiner Erfindung verboten hat (vgl. Linn 2004) und dass ein Co-Gründer von Facebook seine Kinder von Social Media fernhält, um sie vor den negativen Auswirkungen zu schützen (vgl. Zuboff 2019) …
- Existenzielle negative Folgen von DS-basierten Cyberangriffen und von militärischen Anwendungen von DS ergeben sich für den globalen Frieden und die weltweite Sicherheit.
Daher ist es notwendig, ethische Chancen und ethische Risiken genau und frühzeitig zu erkennen, um die ethischen Vorteile von DS nachhaltig zu nutzen und die ethischen Nachteile von DS zu meistern oder zu vermeiden. Bei der Vermeidung und Bewältigung der Schattenseiten können technologiebasierte Innovationen wiederum eine wesentliche Rolle spielen. Die drei folgenden konkreten Handlungsschritte sollten aus ethischer Sicht diesbezüglich prioritär angegangen werden (natürlich handelt es sich dabei weder um eine abschließende Liste von zu ergreifenden Maßnahmen noch um die Behauptung, dass die Ethik allein alle Probleme lösen kann).
Interaktion zwischen Technologien und Ethik
Die Beziehung zwischen der Wissenschaft der Ethik und Technologien sollte als Interaktion gestaltet werden, was bedeutet, dass Expert:innen in den Technologiedisziplinen und Ethiker:innen bei einem Forschungs- oder Innovationsprozess von Anfang an miteinander im Austausch stehen sollten. Dies würde erlauben, dass frühzeitig Fragen geklärt, gegenseitiges Verständnis geschaffen und ethische Weichenstellungen im Hinblick auf die Legitimität des Forschungs- und Innovationsvorhabens frühzeitig und laufend vorgenommen werden könnten. Die Anwendung bahnbrechender Technologien verändert oft das ethische Umfeld, indem sie neue Lösungen für gesellschaftliche Herausforderungen und neue Werte schafft. Gleichzeitig führen Forschende in den Technologiedisziplinen ihre Arbeit in einem ethisch fundierten Kontext aus. Zudem trägt die Ethik zum technologischen Fortschritt insofern bei, als sie technologische Innovationen fördert, technologische Erfindungen anerkennt und ethische Orientierungshilfen bietet.
Man könnte sogar noch weiter gehen und behaupten, dass die Ethik zu den Technologien gehört. Sinnhorizonte und ethische Ziele prägen Technologien in einem ethischen Sinne. Die Ethik sollte von Anfang an berücksichtigt werden, weil Technologien eine menschliche Schöpfung sind. Paradoxal führen technologiebasierte Innovationen dazu, dass die Menschen in gewissen Aufgaben und Lebensbereichen obsolet werden, während die aufgrund der Moralfähigkeit exklusive menschliche Verantwortung für Technologien wegen des technologischen Fortschritts wächst (während Menschen selbst ethische Regeln für sich als verbindlich erkennen und setzen können, müssen ethische Regeln Technologien antrainiert werden; sie können sich selbst Regeln setzen, aber nicht ethische Regeln). Wer sonst als die Ethik sollte bei der Festlegung von Agenden für die Forschung und Entwicklung die Prioritäten bestimmen?
Die Ethik wirkt sich auch auf Technologien aus, indem sie den Rahmen vorgibt, in dem Forschung, Entwicklung, Diskussionen und Studien durchgeführt werden können. Niemand sollte sich der Illusion hingeben, dass die Freiheit der Forschung nicht beeinträchtigt werden kann. Neue Ideen und Entdeckungen wurden schon immer unterdrückt, weil sie vermeintliche absolute Wahrheiten infrage gestellt oder die Durchsetzung wirtschaftlicher oder politischer Machtstrukturen untergraben haben. Auch in der heutigen Welt besteht die Gefahr, dass Mitglieder der Wissenschafts- und Technologiegemeinschaft ihre Forschung nicht frei und unabhängig betreiben können.
Die Ethik kann auch auf andere Weise nützlich sein, indem sie die oft vagen oder übertriebenen Behauptungen hinterfragt, die mit den neuen Technologien verbunden sind. Dies konnte beispielsweise bereits oben anhand des Begriffs „künstliche Intelligenz“ aufgezeigt werden.
Menschenrechtsbasierte DS
Um die aktuelle Situation der Menschheit, die durch die oben genannten globalen Bedrohungen geprägt ist, ernst zu nehmen, können die Menschenrechte als ethischer Bezugsrahmen die notwendige normative Orientierung bieten. Für die Menschenrechte spricht ihre ethische Begründbarkeit mit dem Prinzip der Verletzbarkeit (vgl. Kirchschläger 2013a). Des Weiteren spricht für die Menschenrechte als ethische Referenzpunkte für DS, dass sie nur einen Mindeststandard darstellen, der allen Menschen immer und überall ein physisches Überleben und ein menschenwürdiges Leben – ein Leben als Mensch – garantiert. Außerdem ermutigen und fördern die Menschenrechte Innovationen und technologischen Fortschritt, indem sie die Freiheit des Denkens, der Meinungsäußerung und des Zugangs zu Informationen schützen sowie den Pluralismus fördern, da sie das Selbstbestimmungsrecht jedes Menschen achten und durchsetzen.
Ausgehend von diesen Überlegungen sollten menschenrechtsbasierte DS (human rights-based DS [HRBDS]) (vgl. Kirchschläger 2013b) geschaffen werden. HRBDS bedeutet mit anderen Worten, dass die Menschenrechte im gesamten Lebenszyklus von DS und in der gesamten Wertschöpfungskette von DS geachtet, geschützt, umgesetzt und verwirklicht werden (d. h. bei der Schürfung der für DS notwendigen Rohstoffe, der Gestaltung, der Entwicklung, der Herstellung, dem Vertrieb, der Nutzung oder der Nichtnutzung von DS aufgrund von Menschenrechtsbedenken).
Internationale Agentur für datenbasierte Systeme (IDA)
Zur Umsetzung von HRBDS sollte bei der UNO – analog zur Internationalen Atomenergie-Organisation (IAEA) – eine Internationale Agentur für datenbasierte Systeme (IDA) (International Data-Based Systems Agency) geschaffen werden. Sie sollte eine Plattform für die globale technische Zusammenarbeit im Bereich der DS für staatliche und nicht staatliche Akteure (einschließlich des privaten Sektors und der Zivilgesellschaft) sein, die die Menschenrechte, die Nachhaltigkeit, die Sicherheit und die friedliche Nutzung von DS fördert sowie eine globale Aufsichts- und Monitoring-Institution und Regulierungsbehörde im Bereich der DS darstellt, die für eine Marktzulassungsprüfung verantwortlich ist.
Die IDA bei der UNO sollte nach dem Vorbild der IAEA als Institution mit Zähnen aufgebaut werden, denn dank ihrer rechtlichen Befugnisse, Funktionen, Durchsetzungsmechanismen und Instrumente war die IAEA in der Lage, die Innovation und die ethischen Chancen zu fördern und gleichzeitig die Menschheit und den Planeten vor den existenziellen Risiken im Bereich der Nukleartechnologien zu schützen. Letztere teilen mit DS den gleichen dualen Charakter, der sowohl ethische Vor- als auch Nachteile beinhaltet. Auf der Grundlage der Erfahrungen mit den Nukleartechnologien und der Gründung der IAEA würde die Einrichtung der IDA bei der UNO einen gangbaren Weg zu einer wirksamen globalen Steuerung existenzieller Risiken von DS darstellen, weil sie eine verantwortungsvolle und ethische Entwicklung von DS zum Wohle der Menschheit und des Planeten gewährleistet.
Die Schaffung der IDA bei der UNO ist realistisch, denn die Menschheit hat bereits in der Vergangenheit gezeigt, dass sie in der Lage ist, nicht immer blind alles technisch Mögliche umzusetzen, sondern sich auf das technisch Machbare zu beschränken, wenn es um das Wohl der Menschheit und des Planeten geht. So hat die Menschheit z. B. auf dem Gebiet der Nukleartechnologie vereinfacht gesagt geforscht, Atombomben entwickelt und sie sogar mehrfach eingesetzt. Aber um noch Schlimmeres zu verhindern, hat der Mensch dann die Forschung und Entwicklung auf dem Gebiet der Kerntechnik trotz massiven Widerstandes substanziell eingeschränkt. Letzteres ist insbesondere wegen internationaler Richtlinien, konkreter Durchsetzungsmechanismen und dank der damaligen Schaffung der IAEA bei der UNO weitestgehend gelungen.
IDA löst global positives Echo aus
Neben einem wachsenden internationalen und interdisziplinären Netzwerk von Expert:innen, das menschenrechtsbasierte DS und die Einrichtung von IDA fordert (https://idaonline.ch) und an dem man sich auch ideell beteiligen kann (https://idaonline.ch/join-ida), haben die von Nelson Mandela gegründeten The Elders die konkreten Empfehlungen für menschenrechtsbasierte DS und die Errichtung einer globalen Institution bei der UNO nach dem Vorbild der IAEA aufgegriffen und die UNO aufgefordert, entsprechende Maßnahmen zu ergreifen. Hinter dem Namen The Elders steht eine unabhängige Gruppe führender Persönlichkeiten der Welt, der auch der ehemalige UN-Generalsekretär Ban Ki-moon, Ellen Johnson Sirleaf (ehemalige Präsidentin von Liberia und Afrikas erstes gewähltes weibliches Staatsoberhaupt sowie Friedensnobelpreisträgerin) und die erste weibliche Präsidentin Irlands Mary Robinson angehören. The Elders haben zwei konkrete Handlungsempfehlungen – menschenrechtsbasierte DS und die Schaffung von IDA bei der UNO nach dem Vorbild der Internationalen Atomenergie-Organisation IAEA – gefordert (vgl. The Elders 2023).
Papst Franziskus verlangt, „einen verbindlichen internationalen Vertrag zu schließen, der die Entwicklung und den Einsatz von künstlicher Intelligenz in ihren vielfältigen Formen regelt“ (Papst Franziskus 2023), und unterstützt die zwei konkreten Handlungsvorschläge – die menschenrechtsbasierten DS und die Schaffung einer Internationalen Agentur für datenbasierte Systeme (IDA) bei der UNO – zur Durchsetzung der Regulierung für DS.
UN-Generalsekretär António Guterres unterstützt die Schaffung eines internationalen KI-Überwachungsgremiums nach dem Vorbild der IAEA: „I would be favorable to the idea that we could have an artificial intelligence agency […] inspired by what the international agency of atomic energy is today“ (Nichols 2023). Er hat im UN-Sicherheitsrat am 18. Juli 2023 ein neues UN-Gremium gefordert, um Bedrohungen durch künstliche Intelligenz zu bekämpfen (vgl. Guterres 2023).
UN-Hochkommissar für Menschenrechte Volker Türk forderte in seiner Stellungnahme zu KI und Menschenrechten am 12. Juli 2023 „dringende Maßnahmen“ und schlug menschenrechtsbasierte DS und eine koordinierte globale Reaktion in Form einer institutionellen Lösung vor (vgl. Türk 2023).
Der UN-Menschenrechtsrat verabschiedete am 14. Juli 2023 einstimmig seine jüngste Resolution zum Thema New and emerging digital technologies and human rights (vgl. UN Human Rights Council 2023), in der zum ersten Mal ausdrücklich auf KI und die Förderung und den Schutz der Menschenrechte Bezug genommen wird.
Am 21. März 2024 verabschiedete die UN-Generalversammlung einstimmig die Resolution Seizing the opportunities of safe, secure and trustworthy artificial intelligence systems for sustainable development (vgl. UN General Assembly 2024) zur Förderung von safe, secure and trustworthy systems der künstlichen Intelligenz (KI), die auch der nachhaltigen Entwicklung für alle zugutekommen werden. Darin hebt die internationale Staatengemeinschaft hervor: „The same rights that people have offline must also be protected online, including throughout the life cycle of artificial intelligence systems“.
Einige Stimmen aus multinationalen Technologieunternehmen – u. a. Sam Altman (Gründer von OpenAI, dem Unternehmen, das ChatGPT entwickelt hat) – haben die Schaffung von IDA gefordert (vgl. Euronews 2023; Santelli 2024).
Die Zeit drängt, um im Bereich der DS die Basis für eine menschenwürdige und nachhaltige Zukunft für die Menschheit und den Planeten zu legen.
Literatur:
Clifford, C.: Elon Musk: ‚Mark my words – A.I. is far more dangerous than nukes‘. In: CNBC, 13./14.03.2018. Abrufbar unter: https://www.cnbc.com (letzter Zugriff: 13.09.2024)
Euronews: OpenAI’s Sam Altman calls for an international agency like the UN’s nuclear watchdog to oversee AI. In: Euronews, 07.06.2023. Abrufbar unter: https://www.euronews.com (letzter Zugriff: 13.09.2024)
Guterres, A.: Secretary-General Urges Security Council to Ensure Transparency, Accountability, Oversight, in First Debate on Artificial Intelligence. In: UN, 18.07.2023. Abrufbar unter: https://press.un.org (letzter Zugriff: 13.09.2024)
Kharpal, A.: Stephen Hawking says A.I. could be ‚worst event in the history of our civilization‘. In: CNBC, 06.11.2017. Abrufbar unter: https://www.cnbc.com (letzter Zugriff: 13.09.2024)
Kirchschläger, P. G.: Wie können Menschenrechte begründet werden? Ein für religiöse und säkulare Menschenrechtskonzeptionen anschlussfähiger Ansatz. Münster 2013a
Kirchschläger, P. G.: Human Rights as an Ethical Basis for Science. In: Journal of Law, Information and Science, 2/2013b/22, S. 1–17
Kirchschläger, P. G.: The Correlation between Ethics and Technology. In: G. Isetti/E. Innerhofer/H. Pechlaner/M. de Rachewiltz (Hrsg.): Religion in the Age of Digitalization. From New Media to Spiritual Machines. Abingdon 2021, S. 165–180
Kirchschläger, P. G.: Digitale Transformation und Ethik. Ethische Überlegungen zur Robotisierung und Automatisierung von Gesellschaft und Wirtschaft und zum Einsatz von „Künstlicher Intelligenz“. Baden-Baden 2024
Linn, S.: Consuming Kids. The Hostile Takeover of Childhood. New York 2004
Nichols, M.: UN chief backs idea of global AI watchdog like nuclear agency. In: Reuters, 12.06.2023. Abrufbar unter: https://www.reuters.com (letzter Zugriff: 13.09.2024)
Papst Franziskus: Botschaft zum 57. Weltfriedenstag. 1. Januar 2024. Vatikan, 08.12.2023. Abrufbar unter: https://www.vatican.va (letzter Zugriff: 13.09.2024)
Santelli, F.: Sam Altman: „In pochi anni l’IA sarà inarrestabile, serve un’agenzia come per l’energia atomica“. In: la Repubblica, 18.01.2024. Abrufbar unter: https://www.repubblica.it (letzter Zugriff: 13.09.2024)
The Elders: The Elders urge global co-operation to manage risks and share benefits of AI. In: The Elders, 31.05.2023. Abrufbar unter: https://theelders.org (letzter Zugriff: 13.09.2024)
Türk, V.: Artificial intelligence must be grounded in human rights, says High Commissioner. In: UN, 12.07.2023. Abrufbar unter: https://www.ohchr.org (letzter Zugriff: 13.09.2024)
UN General Assembly: Seizing the opportunities of safe, secure and trustworthy artificial intelligence systems for sustainable development. In: UN, 11.03.2024. Abrufbar unter: https://daccess-ods.un.org (letzter Zugriff: 13.09.2024)
UN Human Rights Council: Resolution New and emerging digital technologies and human rights. Nr. 41/11. In: UN, 18.07.2023. Abrufbar unter: https://documents.un.org (letzter Zugriff: 13.09.2024)
Zuboff, S.: The Age of Surveillance Capitalism. The Fight for a Human Future at the New Frontier of Power. London 2019