Kolumne: Wie streng soll Alexa sein?

Sarah Spiekermann-Hoff

Dr. Sarah Spiekermann-Hoff ist Professorin für Wirtschaftsinformatik und Gesellschaft an der Wirtschaftsuniversität Wien.

Transparenz, Gleichheit, Datenschutz, Sicherheit – fertig ist die Ethik fürs digitale Zeit­alter? So einfach ist es nicht. Sprach­assistenten verlangen ein wertebasiertes Technologiedesign, das keine Checklisten abarbeitet, sondern bereits in der Entwicklungsphase die Folgen ihrer Einführung mitbedenkt.

Printausgabe tv diskurs: 24. Jg., 1/2020 (Ausgabe 91), S. 58-59

Vollständiger Beitrag als:

Im September 2017 kursierte auf russischen Websites ein Screenshot, der zeigte, dass Sprach­assistenten unterschiedlich auf die gleiche Nutzeraussage reagieren. Teilte man der englisch­sprachigen Alexa mit: „Ich bin so traurig“, antwortete das Gerät herzlich: „Ich wünschte, ich hätte Arme, um dich zu umarmen.“ Der russische Sprachassistent Yandex hingegen reagierte kühl: „Niemand sagt, dass das Leben ein Zuckerschlecken ist.“

Das einfache Beispiel zeigt, dass Technologie eine ethische Dimension besitzt. Alle Kulturen der Welt kennen den Wert des Trostes als Quelle der Freundschaft und Nähe, als Erweis von Verbundenheit: Trost ist bedeutsam für höhere Werte, für geistige Gesundheit und Lebensfreude, für die Stärke und Identität eines Menschen. Und all das soll durch die Art beeinflusst werden, wie digitale Assistenten mit uns und unseren Kindern kommunizieren?

Analysten gehen davon aus, dass wir uns schon bald mit unseren Computern unterhalten – dass wir uns ihrer also nicht mehr tippend und wischend bedienen, sondern dass wir sie behandeln wie einen Dienstboten und Psychologen, wie einen Mitbewohner oder ein Elternteil. Die entscheidende Frage ist daher, ob wir Computer künftig noch auf Distanz halten können.

Im Einzelnen: Sind regelmäßige Nutzer von Sprachassistenten in ihrer Informationsbeschaffung noch unabhängig, wenn sie mehrere Stunden am Tag mit ihrem System sprechen? Was, wenn Amazon sein Patent US10096319 realisiert – und seinen Werbekunden den besten psychoemotionalen Moment verkauft, um Nutzern etwas anzudrehen? Wie sicher fühlen sich Kinder, die in Anwesenheit einer Sprachassistentin aufwachsen, wenn diese mal ausfallen sollte? Und was, wenn nicht Amazons Alexa den Markt bestimmt, sondern das chinesische System Xiaodu? Werden unsere Kinder dann – chinesischer?

All diese Fragen müssen wir stellen, wenn wir uns mit Ethik im digitalen Zeitalter befassen. Seit der neolithischen Revolution vor 10.000 Jahren hat kein Umbruch so massiv unser Wirtschaften und Denken, unsere Mobilität, Gesundheit, Gemeinschaft und Kriegsführung verändert. Wir müssen uns daher gleich am Anfang dieser Blitzrevolution die Frage stellen, welche Werte (für) uns wichtig sind. Ob wir unsere lokalen, kulturellen Besonderheiten bewahren wollen oder ob wir uns für globale Homogenität einsetzen – auch wenn diese möglicherweise schon bald chinesisch geprägt ist.
 


Das Nachdenken über solche kontextbezogenen Werte muss im Zentrum einer modernen Ethik stehen.



Was verstehen wir künftig unter Freundschaft und Nähe, Identität und Sicherheit, Unabhängigkeit und Freiheit, Wissen und Lernen? Das Nachdenken über solche kontextbezogenen Werte muss im Zentrum einer modernen Ethik stehen. Und zwar schnell. Andernfalls ist das Thema durch, sobald Amazon oder Baidu ihre Sprachassistenten mit bestimmten Werteinstellungen eingerichtet haben.

Jede Technologie berührt 100 und mehr Werte für verschiedene Stakeholder, die durch das Systemdesign gefördert oder verletzt werden können. Welche Werte das sind und wie sie entstehen? Für den Philosophen Max Scheler (1874 – 1928) sind Werte die „irreduziblen Grundphänomene unserer emotionalen Intuition“ – eine Art fünfte Dimension in unserer Welt, die diejenige zu sein scheint, die uns Bedeutung schenkt und Sinn verleiht. Daher die Breite unserer Werte: Sie bezeichnen, was uns wichtig ist. Und daher die Dringlichkeit der Frage: Wer kümmert sich um diesen riesigen Wertebereich beim Bau der Zukunftstechnologien? Der Gesetzgeber? Die Unternehmen, die diese Technologien bauen und betreiben? Die Nutzer?

Die gute Nachricht ist, dass sowohl Regierungen als auch Unternehmen angefangen haben, die Ethikfrage zu stellen. Seit 2016 ist die Zahl ethischer Initiativen für Technologie explodiert. Die Fachzeitschrift „Nature Machine Intelligence“ hat kürzlich einen Artikel mit dem Titel The Global Landscape of AI Ethics Guidelines veröffentlicht, in dem die Autoren ethische Richtlinien von Institutionen wie der OECD oder der EU-Kommission sowie Unternehmen und Thinktanks vorstellen: Prinzipien, die die verschiedenen Entitäten für besonders wichtig halten. Die schlechte Nachricht: Sie alle suggerieren, dass das Thema auch schon vom Tisch ist, sobald man nur ein paar zentrale Werte wie Transparenz, Gleichheit, Datenschutz, Verantwortung und Sicherheit respektiert.
 

Positiver Geist – bessere Hygiene

Doch das ist nicht der Fall. Vergleicht man die fünf Werte mit dem Wertbereich, der bei der Benutzung eines Sprachassistenten tangiert ist, so fällt ein eklatantes Gefälle auf. Die offiziellen Richtlinien mögen theoretisch richtig sein: Transparenz, Gleichheit, Datenschutz und Sicherheit sind auch für die Benutzung eines Sprachassistenten relevant. Aber sie erfassen als legislative Grundbedingungen einer gelingenden Technologiepolitik nicht die langfristige Realität einer Technologie, die uns mit viel größeren und teilweise anderen Wertherausforderungen konfrontieren wird. Dass sich reiche technische Lebensrealitäten jenseits von erwarteten Regeln und Vorschriften abspielen, beobachten wir heute bereits mit Blick auf andere Technologien. Man denke nur an Facebooks Like-Button. Wer hat ursprünglich damit gerechnet, dass ein gehobener Daumen so viel Sucht und Unglück verursachen kann? Wer hätte gedacht, dass soziale Netzwerkplattformen, die zur Förderung von Freundschaft und Nähe gebaut wurden, so viel Hass, Mobbing, Isolation und Manipulation produzieren würden?

Beim Aufbau neuer Technologien müssen wir also berücksichtigen, dass die Auswirkungen der Digitalisierung unser modernes Denken in Bezug auf einfache Modelle, Regeln und Vorschriften herausfordern: Checklisten reichen nicht. Manche mögen glauben, dass wir mit ein paar Technologieregeln die Realität des menschlichen Lebens mit seinen einzigartigen lokalen Verwurzelungen, nicht identischen Wiederholungen und unberechenbaren Naturkräften rationalisieren und organisieren können. Die Wahrheit ist: Diese Regeln sind derzeit nicht unserer Kontrolle unterworfen und beeinflussen daher unser „Schicksal“.
 

Sind wir also verloren?

Wenn man die Fülle der Werte betrachtet, die sich aus dem Beispiel der verschieden antwortenden Sprachassistenten ergibt, wird schnell deutlich: Jeder Mensch hat ein prima Gespür für die komplizierten Wertfolgen von Technologie. Wir Menschen wissen ungewusst, was wir für wichtig halten – und können uns einen bewussten Zugang zu unserer Wertsphäre verschaffen; können besser darin werden, ethisch zu denken, zu handeln – und auch vorzusorgen. Wir können Werte erkennen, sie durchdenken und in ein wertebasiertes Technologiedesign miteinbeziehen. Solch ein wertorientiertes Designdenken enthüllt ex ante viele der wahren, einzigartigen Wertherausforderungen, die einzelne Technologien mit sich bringen – jenseits der Checklisten und Regu­larien.

Und was bei einem solchen wertorientierten Denken am wichtigsten ist: Es konzentriert sich nicht auf die Vermeidung von Schäden, wie es die meisten der ethischen Richtlinien heute tun, die sich Staaten und Unternehmen verordnen. Es geht beim wertorientierten Denken nicht darum, Firmen moralische Compliance zu predigen. Es geht darum, sie zu inspirieren, die heutigen funktionsorientierten Produkt-Roadmaps durch wertorientierte Roadmaps zu ersetzen.

In diesem Szenario ist der Entwurf eines Sprachassistenten eine ganz andere Aufgabe. Es ist eine Übung, die sich um die Erschaffung des Guten dreht. Es geht darum, zu überlegen, wie Sprach­assistenten einsame Menschen trösten können, ohne sie von sich abhängig zu machen; sie auf­zuheitern, ohne ihnen vorzuspielen, sie seien menschlich; ihnen Zugang zu Wissen zu gewähren und sie gleichzeitig über die Grenzen ihrer Datenbasis zu informieren; sie zu ermutigen, sich mit anderen zu treffen, statt sich mit Sprachassistenten zu unterhalten; ihre lokalen Traditionen, Speisen und Tänze wiederzuentdecken, anstatt dem Mainstream der globalen Homogenität zu folgen.

Sprachassistenten oder Technologie so zu gestalten, macht Spaß. Nicht zuletzt Innovations- und Entwicklungsteams. Und wo Spaß und Freude und positiver Geist herrschen, herrscht auch eine größere Bereitschaft, die Hygienefaktoren ethischer Systeme zu berücksichtigen: Privatsphäre, Sicherheit und Transparenz werden leichter durchgesetzt, wenn man an etwas Gutem und Schönem baut, als wenn man nur eine Compliance-Liste abarbeitet.
 

Alle Rechte vorbehalten: © Handelsblatt GmbH – Zum Erwerb weitergehender Rechte: nutzungsrechte(at)handelsblattgroup.com