Künstliche Intelligenz in der familiären Interaktion

Joachim von Gottberg im Gespräch mit Aike Horstmann

Was verändert sich, wenn in Familien Chatbots wie Alexa Einzug halten? Sind sie ein Werkzeug oder werden sie zu einem Familienmitglied? Die Interaktion zwischen Maschinen, künstlicher Intelligenz und ihren Nutzer*innen wird angesichts der schnellen Entwicklung und Verbesserung Künstlicher Intelligenz immer häufiger Gegenstand der psychologischen und soziologischen Forschung. IMPACT ist ein solches Projekt, an dem unter anderem Dr. Aike Horstmann, Fachbereich Sozialpsychologie/Medien und Kommunikation an der Universität Duisburg-Essen, mitgearbeitet hat. mediendiskurs sprach mit ihr über das Projekt und die Ergebnisse.

Online seit 20.04.2023: https://mediendiskurs.online/beitrag/kuenstliche-intelligenz-in-der-familiaeren-interaktion-beitrag-772/

 

 

Können Sie kurz das IMPACT-Projekt vorstellen?

IMPACT ist ein interdisziplinäres Projekt, das von der VolkswagenStiftung gefördert wird. Wir arbeiten darin mit fünf Partnern: Wir von der Universität Duisburg-Essen vertreten den sozialpsychologischen Schwerpunkt, die Evangelische Hochschule Nürnberg den Schwerpunkt Ethik. Von der Universität Kassel arbeiten Rechtswissenschaftler mit, und die Universität Bielefeld ist mit den Lehrstühlen „Machine Learning“ und „Cognitive Systems“ dabei. Aus interdisziplinärer Perspektive haben wir uns angeschaut, nach welchen verschiedenen Aspekten Menschen mit intelligenten Systemen kommunizieren und interagieren. Dabei ging es vor allem um die Aspekte Kommunikation, Beziehung und Transparenz – also wie die Maschinen und ihre Funktionsweise verstanden werden: Wie müssen Gebrauchsanweisungen oder Erklärungshilfen formuliert und gestaltet sein, damit Menschen sie auch verstehen? Da man das nach Personengruppen differenziert betrachten muss, hatten wir dann zusätzlich noch den differenzierten Blick auf Senior*innen, Kinder und Erwachsene.

Wie lief das Projekt ab?

Unter anderem gab es verschiedene empirische Studien, die einen wesentlichen Teil des Projektes ausgemacht haben. Zum Beispiel haben wir als ersten Teil des Projektes eine Feldstudie über fünf Wochen mit Familien durchgeführt, die vorher noch keinen Sprachassistenten genutzt hatten. Wir haben den Familien einen Sprachassistenten zur Verfügung gestellt, um zu untersuchen, wie sich die Kommunikation entwickelt und welches Verständnis etwa Kinder von dem Sprachassistenten entwickeln, welche Metaphern sie nutzen. Wir fragten zum Beispiel: Warum und woher weiß denn Alexa so viel? Da wurden Vermutungen angestellt wie „Alexa geht zur Alexa-Schule“ oder „Alexa geht ins Internet und googelt das“. Außerdem stellten wir uns die Frage, welche Art der Kommunikation daraus entsteht, und dann ging es uns um den Beziehungsaspekt: Also wird Alexa zum Teil einer Familie oder ist es eher ein reines Werkzeug, ein Gerät, das wie eine Spülmaschine genutzt wird.

Sie haben eine Tagung in Tutzing durchgeführt. Worum ging es da?

Das war Teil des Projektes. Ein sogenannter „Citizen Science“-Bereich war schon im Antrag vorgesehen: Menschen außerhalb der Wissenschaft sollen in die Forschung einbezogen werden. Dieser Trend ist in den letzten Jahren immer stärker geworden: Man will sich nicht nur in seiner Wissenschafts- und Forschungsbubble bewegen, sondern Personen von außen einbeziehen, die ja auch auf unterschiedliche Art und Weise Expertise aus der Perspektive der einfachen oder potenzielle Nutzer*innen entwickeln können. Geplant war einmal, dass die wissenschaftlichen Laien auch in die Forschung involviert werden, also auch eigene Forschungsfragen erstellen und sogar eigene Studien planen. In dem Ausmaß hat es dann bei uns nicht stattgefunden. Wir hatten aber zu Beginn des Projektes auch noch eine „Citizen Science“-Veranstaltung hier in Mühlheim, also in unserer Nähe.

Wie sehen Sie die Beschleunigung der Entwicklung von KI aus der Perspektive Ihres Projektes? Ist das eher eine Chance oder eher ein Risiko?

Es gab ja gerade vom Ethikrat eine interessante Stellungnahme dazu. Die Entwicklung beinhaltet sowohl Risiken als auch Gefahren. Nehmen wir Alexa:

Die Box bietet Chancen für Personengruppen, die ohne den Sprachassistenten keinen Zugang zum Internet bekommen, die Probleme haben, ein Smartphone oder einen Laptop zu betätigen, etwa Kinder, die noch nicht lesen und schreiben können.

Für ältere Personen ist vielleicht die Bedienung zu kompliziert. Ihnen bietet dieser sprachbasierte Assistent einen vereinfachten Zugang: Man stellt eine Frage und erhält eine Antwort. Das wäre also eine Chance. Auf der anderen Seite ist ChatGPT natürlich gerade ein großes Thema: Man kann zu einfachen Fragen Antworten bekommen, vielleicht auch mal einen Text schreiben lassen, wenn einem gerade mal nichts einfällt. Allerdings muss man ihn danach inhaltlich überprüfen. Und hier kommen wir schon zu vielen Risiken.

Er klingt gut, aber stimmt nicht immer?

Wir nennen das „miscalculated trust“ oder „overtrust“: Man vertraut der Antwort, obwohl sie dieses Vertrauen nicht verdient hat, zum Beispiel weil vielleicht nicht die Möglichkeit besteht, die Vertrauenswürdigkeit zu überprüfen. Und das ist bei ChatGPT ein großes Problem, weil es ja schon sehr selbstbewusst wohlklingende Antworten raushaut. Wir haben ChatGPT in unserem Team mal etwas intensiver ausprobiert und da ist uns aufgefallen, wenn man nach einem wissenschaftlichen Artikel, einer Theorie oder einem wissenschaftlichen Thema fragt, bekommt man einen Artikel, der überzeugend klingt – dessen Inhalt aber in manchen Punkten nicht stimmt, ganz abgesehen von fehlerhaften Literaturangaben. Wenn man sich die mal genauer anschaut, werden Autoren genannt, die zwar mal irgendwas zu dem Thema veröffentlicht haben, aber nicht unbedingt das, was als Quelle angegeben wird.

Das Programm kann den Zusammenhang nicht bewerten?

Es kann nicht bewerten, es kann nicht beurteilen, ob eine Literaturangabe fachlich in Ordnung ist oder ob da jemand einfach mal etwas dazu geschrieben hat. Das System funktioniert, analysiert Textdateien und setzt das wieder zusammen. Das klingt auf den ersten Blick absolut überzeugend, aber man muss die Antwort auf jeden Fall überprüfen. Und da besteht das Risiko, dass man bei zu überzeugend klingenden Antworten nicht genau hinschaut. Und es ist aufwendig, das zu überprüfen. Dann kann man auch gleich einen eigenen Text schreiben.

Die Antworten wirken extrem glatt, aber auch sehr elaboriert. Man hat den Eindruck, da steckt kein Herz hinter. Wie kann man das ethisch bewerten?

Es gibt natürlich schon Bemühungen von OpenAI, da Restriktionen hineinzubringen. Es gab ja auch schon mal eine KI, die frei lernen sollte und dann letztendlich vollkommen aus dem Ruder gelaufen ist und sich nur noch Beleidigungen gemerkt und diese ausgespuckt hat. Es gibt auf jeden Fall schon Beispiele, in denen das schiefgelaufen ist.

Kommen wir noch mal zu Alexa. Haben Sie eine Box zu Hause?

Ich habe keine zu Hause, wir haben natürlich hier im Büro einige Alexa-Geräte, die wir für die Studien brauchen. Wenn man das Gerät personalisiert eingestellt hat, ist es praktisch, dass man Alexa mit anderen Smarthome-Geräten verbinden kann und sie dann auf Befehl etwa das Licht einschaltet oder die Rollläden bedient. Wir hatten solche Geräte zum Ausprobieren auch für die Teilnehmer des Seminars in Tutzing dabei, die zum Teil noch nie mit einem Sprachassistenten interagiert hatten. Und da hat man schon gemerkt, wie schnell die Geräte an ihre Grenzen kommen.

Menschen, die noch nie einen Sprachassistenten genutzt haben, hatten große Probleme, erst einmal in die Interaktion hineinzukommen: Zum Beispiel, dass man mit einer bestimmten Lautstärke in die richtige Richtung sprechen muss und lange Sätze vermeiden sollte.

Wenn man die Box zu Hause selbst nutzt, lernt man, wie man sprechen muss. Aber man kommt schnell an Grenzen, und darüber waren die Teilnehmer enttäuscht: So überzeugend ist die Box jetzt nicht, sie kann gar nicht so viel. Als Gadget ist sie ganz nett, aber im Vergleich zu ChatGPT sind die Antworten dort auf jeden Fall besser. Der Vorteil von Alexa ist, dass sie auf Sprache reagiert, früher musste man ja immer alles über Tasten eingeben. Aber die Intelligenz ist doch reduziert, sie versteht einen auch oft nicht oder falsch.
 

Sprachassistent Alexa (Bild: Nicola J. Leclercq)


 

Viele meiden Alexa aus Datenschutzgründen. Glauben Sie, dass Amazon mithört, wenn wir uns unterhalten? Technisch wäre das wohl möglich.

Da gab es auch schon den ein oder anderen Vorfall, über den die Medien berichteten, in dem wahrscheinlich jemand abgehört wurde. Zu 100 Prozent weiß ich das nicht, aber ich würde es mal vermuten. Dieses Risiko besteht aber auch bei jedem Handy.

Was machen die Anbieter mit den Daten?

Ich denke, sie wollen vor allem Geld damit verdienen. Diese Dienste sind fast umsonst, das Alexa-Gerät selbst kostet auch nicht sehr viel und ist oft im Angebot.

Dahinter müssen auf jeden Fall andere Interessen und Geldquellen stecken, Amazon ist sicher nicht selbstlos.

Aber genau kann ich das natürlich auch nicht sagen, das geben die Unternehmen nicht preis. Man könnte etwa Unterhaltungen speichern und mit KI dahin gehend auswerten, welche Konsuminteressen der Nutzer hat, und dann könnte man ihm gezielte Werbung anbieten.

Hat Alexa etwas an den familiären oder sozialen Strukturen verändert, wenn vorher keine Box benutzt wurde?

Wir haben in einer Langzeitstudie von zweieinhalb Jahren die Familien alle sechs Monate gefragt, ob sie selbst Veränderungen in ihren Beziehungen oder ihrer Kommunikation bemerkt haben. Das ist natürlich sehr subjektiv. Nach den Empfindungen der Eltern war die Veränderung relativ gering, die Sprache wurde nicht angepasst. Interessant war aber, dass zu Beginn der Messung Kinder und Eltern Alexa mit mehr Höflichkeit genutzt haben, was sich aber später in einen Befehlston verwandelt hat: Die Höflichkeit wurde weniger, wahrscheinlich, weil Alexa immer mehr als Werkzeug verstanden und genutzt wurde und nicht als Gesprächspartner. Sie hat praktische Seiten, sie spielt auf Anfrage jedes Lied ab, aber zum Interaktionspartner fehlt dann noch einiges. Wenn man fragt: Sehen Sie Alexa als Teil der Familie oder als Freund, war die Zustimmung sehr gering. Wenn man sie aber fragt, ob sie traurig wären, wenn man ihnen die Box wegnehmen würde, stimmen sie zu.

Kinder und Jugendliche spielen nach meiner Erfahrung erst mal mit der Box und zeigen wenig Berührungsängste. Die Höflichkeit gegenüber der Box findet man eher bei Erwachsenen. Kinder versuchen auch, Alexa zu testen und sie in die Enge zu treiben, bis sie nur noch unsinnige Antworten gibt. Und sie lachen darüber, dass sie das Gerät überlistet haben.

Mit Alexa haben wir das jetzt nicht speziell beobachtet, aber das Phänomen kennen wir aus der Mensch-Roboter-Interaktion. Studien zum Einsatz von Robotern in einem Einkaufszentrum zeigen, dass Kinder sehr neugierig sind, wie der Roboter zum Beispiel auf Schubsen und Treten reagiert.

Die Neugier bei Kindern ist stärker als bei Erwachsenen. Deshalb probieren sie mehr aus und wollen wissen, was passiert, wenn ich dies oder das mache.

Wir haben die Kinder gefragt, ob sie dem Sprachassistenten ein Geheimnis anvertrauen würden. Wir wollten damit testen, wie weit sie Alexa vertrauen, dass sie die Geheimnisse zum Beispiel nicht an die Eltern weitergeben würde. Zumindest am Anfang der Studie war die Bereitschaft sehr hoch. Aber das hat abgenommen: Je älter die Kinder waren, desto weniger waren sie dazu bereit. Und über die Nutzungszeit von fünf Wochen hat die Bereitschaft ebenfalls abgenommen.

Alexa kann zwar sprechen, sie antwortet auch auf Fragen relativ gut, und wahrscheinlich lernt sie, immer besser zu werden. Als Gesprächspartner ist sie aber nicht geeignet, weil sie selbst keine Fragen stellt und von sich aus kein Gespräch sucht.

Es ist natürlich schon eine Form künstlicher Intelligenz, wenn ein Gerät dazulernen kann. Aber es gibt verschiedene Level von Technologien bezüglich künstlicher Intelligenz. Alexa greift mit ihren Algorithmen auf bereits vorhandene Informationen und Daten zurück. Soweit ich weiß, legt Amazon nicht ganz offen, wie Alexa funktioniert. Aber man merkt schon den Unterschied zwischen Alexa zu ChatGPT. Alexa ist im Vergleich doch recht simpel. ChatGPT ist wesentlich besser darin zu kombinieren, neue Informationen zu integrieren und zu lernen. Alexa macht das aber schon bis zu einem bestimmten Grad.

Wann würde man eine Maschine als Gesprächspartner akzeptieren?

In unserer psychologischen Forschung zeigt sich, dass drei Voraussetzungen erfüllt sein müssen: Das ist einmal die natürliche Sprache, und die hat Alexa. Sie ist interaktiv, ich sage etwas und sie reagiert darauf. Das Zweite ist das Ausfüllen einer sozialen Rolle. Und das hat Alexa auch, etwa als Informationsgeber oder im Ausführen von Befehlen. Das reicht zumindest aus, um schon eine basische soziale Reaktion auszulösen. Wir gehen davon aus, dass hier sogenannte soziale Skripte aktiviert werden und Menschen sich dann mit dem Gerät sozial verhalten. In einer ganz bekannten Höflichkeitsstudie hat ein Computer eine Aufgabe mit Probanden durchgeführt, und die Probanden wurden anschließend aufgefordert, die Performance des Computers zu bewerten.

Wenn der Computer selber nach einer Bewertung gefragt hat, antworteten die Probanden deutlich höflicher als wenn die Bewertung an einem anderen Computer oder auf dem Papier stattfand.

Wenn man jemanden direkt Feedback gibt ist man höflicher, als wenn die Frage anonym gestellt wird. Wenn man miteinander interagiert, antwortet man höflicher, obwohl ja bei einem Computer keine Gefühle vorhanden sind, die man durch das Feedback verletzen könnte. Das wird bei Alexa zumindest in einer Interaktion auch der Fall sein. Ich vermute aber, dass so etwas über die Zeit abnimmt. Denn die Technologie ist noch nicht so weit, dass die Interaktion einwandfrei läuft. Da gibt es diesen Zustand des Suspension of Disbelief: Wenn man einen Harry Potter-Film schaut, dann weiß man natürlich, dass niemand zaubern kann. Aber wir lassen uns darauf ein, weil sonst der Film nicht funktionieren würde. So etwas gibt es auch, wenn man mit Künstlicher Intelligenz interagiert. Man lässt sich darauf ein, dass eine soziale Interaktion stattfindet. Aber wenn dann was schiefläuft, wenn sich der Roboter ausschaltet, weil seine Batterie leer ist, dann wird man aus dieser Illusion herausgerissen.

Nimmt die Bereitschaft, an die soziale Interaktion mit dem Roboter zu glauben, zu, wenn dieser menschlich aussieht?

Das glaube ich sofort. Es gibt verschiedenste Roboterarten, manche haben keine beweglichen Augen, andere haben ein LED-Display mit Augen. Das macht schon einen Unterschied. Die soziale Präsenz ist dann auf jeden Fall höher. Aber für die grundlegenden sozialen Reaktionen braucht man nicht viel.

Man könnte jetzt Alexa mit ChatGPT kombinieren, sodass sie auch in der Lage wäre, eine Rede zu halten oder ein interaktives Gespräch zu führen. Das könnte auf der Ebene eines Wissenschaftlers, aber auch des Stammtisches stattfinden. Wäre das eine ernst zu nehmende Form der Kommunikation?

Das glaube ich auf jeden Fall. Ich war letzte Woche auf einer Roboterkonferenz und da wurde ein Wettbewerb ausgeschrieben: Sie kriegen einen Roboter geschenkt, wenn Sie ChatGPT in diesen Roboter integrieren. Gegenwärtig sind die Interaktionsmöglichkeiten noch beschränkt, aber wenn man den Roboter mit ChatGPT kombinieren würde, würden die Möglichkeiten sehr viel weiter gehen. Dies geht natrülich auch mit entsprechenden Bedenken einher.

Chatbots können bald auch Stimmen imitieren. Man könnte theoretisch ein Radioprogramm mit bekannten Moderatoren mit einem Chatbot simulieren, und niemand würde es merken. So könnte ich auch meine verstorbene Großmutter oder einen Prominenten aus der Vergangenheit zurückholen. Die Grenze zwischen einem menschlichen Freund und einer Maschine als Freund verschwindet.

Bisher hatte die Technologie doch noch starke Einschränkungen. Das hat jetzt durch ChatGPT einen großen Sprung nach vorn gemacht. Da müssen wir in Projekten und in der Forschung versuchen, mehr zu erfahren und aufzuklären:

Wie reagieren Menschen, wie gefährlich ist die Technologie? Worauf müssen wir achten?

In unserem Projekt war interessant, mit Ethikern und Rechtswissenschaftlern zusammenzuarbeiten, um zu eruieren, welche Gesetze es dazu gibt und ob diese ausreichen. In dem Kontext sind dann verschiedene Policy Papers entstanden, die wir denen zur Verfügung stellen, die Entscheidungen treffen. Die Frage ist, ob diese Vorschläge wirklich ankommen.

Es gibt ja auch die Überlegung, sprechende Roboter in der Pflege beispielsweise von alten oder kranken Menschen einzusetzen, auch als Hilfe für Menschen, die mit anderen kaum noch kommunizieren.

Es geht um Companion Robot für einsame oder ältere Personen. Zu Beginn ist die Begeisterung für diese Idee immer hoch. Aber bisher ist die Technologie nicht robust genug, um auf Dauer überzeugend zu sein. Am erfolgreichsten ist bisher eine Robbe, die einfach nur auf Streicheleinheiten reagiert. Das ist relativ simpel. Aber das funktioniert besser als die Roboter, die versuchen, da eine hochklassige Konversation zu betreiben.

In Japan scheint die Reaktion auf Roboter sehr viel positiver zu sein. Dort gab es ja auch Tamagotchis, technische Wesen, die man füttern und betreuen musste.

Die Technikakzeptanz oder Begeisterung für Roboter ist tatsächlich unterschiedlich. In asiatischen Kulturen besitzen aus religiösen Sichtweisen auch Objekte eine Seele. Wobei Studien auch zeigen, dass ältere Japaner weniger Probleme damit hatten als die Jüngeren. 

Wäre es hilfreich, wenn man als Nutzer den Namen von Alexa ändern könnte, beispielsweise in den eines Freundes oder einer Freundin?

Diese Frage kam auch bei dem Workshop in Tutzing auf: Was wäre denn, wenn man Alexa einen Kosenamen wie „Schatzi“ geben könnte. Das wäre etwas, was wir noch untersuchen müssten. Aber das ist eine sehr interessante Forschungsfrage.

Hat Alexa Einfluss auf soziale Beziehungen oder das Sozialverhalten?

Aus Sicht der Eltern konnten wir da wenig Evidenz finden, abgesehen von dem erwähnten Höflichkeitsverhalten. Ich habe den Eindruck, dass Alexa hauptsächlich als Werkzeug in den Familien genutzt wurde. Sie hatten einfach Spaß daran, das Gerät zu nutzen, dass man es praktisch ohne Hände frei bedienen kann, um vielleicht den Kindern einen Song vorzuspielen oder das Wetter abzufragen, wenn man die Kinder gerade anzieht. Alexa wird also vielleicht irgendwo zu einem Teil der Familie. Aber für einen bemerkenswerten Einfluss auf das Familienleben sehe ich wenig Anhaltspunkte.

Der deutsche Ethikrat hat am 20. März 2023 eine Empfehlung für den Umgang mit KI veröffentlicht und gefordert, dass Künstliche Intelligenz zwar den Menschen unterstützen soll, aber die Intelligenz des Menschen nicht ersetzen darf. Wenn ich zum Beispiel mir eine Masterarbeit oder Hausarbeit von ChatGPT schreiben lasse, wäre das schon ein Ersetzen der menschlichen Intelligenz? Oder ist das einfach noch ein Unterstützen?

Wenn Online-Klausuren zu Hause ausgefüllt werden, könnte es sein, dass die Studierenden vielleicht schon ChatGPT nutzen. Wir haben unsere Fragen vorher schon mal getestet, und sie wurden von ChatGPT recht überzeugend beantwortet. Es stellt sich also die Herausforderung, Fragen anders zu stellen.

Wenn in Klausurfragen und Hausarbeiten weniger Wissen, sondern mehr Transferwissen abgefragt wird, ist es schon schwieriger. Da muss vieles neu gedacht werden.

Bei einer Hausarbeit oder einer Bachelorarbeit muss man ja auch unterschreiben, dass man die Arbeit ohne fremde Hilfe geschrieben hat. Das müsste auch auf ChatGPT erweitert werden, das wäre ja auch eine fremde Hilfe. Es gibt schon Tools, die wohl feststellen können, ob ein Text vielleicht von einer Künstlichen Intelligenz erzeugt wurde. Aber zuverlässig ist das nicht.

Brauchen wir Regeln und Gesetze, um den Umgang mit KI zu steuern?

Die Politik muss das steuern. Und das tut sie ja auch, zum Beispiel muss angegeben werden, ob man mit einem Chatbot oder mit einer Person interagiert. Bei der Erhebung von Daten ist eine informierte Einwilligung vorgeschrieben. Die Frage ist nur: Haben alle Nutzer die Konsequenzen wirklich verstanden, denen sie zustimmen? Werden sie nachvollziehbar und verständlich darüber informiert, was mit ihren Daten geschieht? Da ist noch viel zu optimieren.

Dr. Aike Horstmann ist Postdoktorandin am Lehrstuhl für Sozialpsychologie: Medien und Kommunikation der Universität Duisburg-Essen und koordiniert das Projekt IMPACT.

Prof. Joachim von Gottberg ist Chefredakteur der Fachzeitschrift MEDIENDISKURS.