Fremde oder Freunde?

Die Optimierung des Verhältnisses zwischen Mensch und Roboter

Joachim von Gottberg im Gespräch mit Eva Wiese

Roboter, die durch künstliche Intelligenz gesteuert werden und mit immer menschenähnlicheren Fähigkeiten ausgestattet sind, gehörten bisher vor allem zu den Wissenschaftsbereichen Physik und Informatik oder zum Ingenieurwesen. Aber inzwischen ist die Frage, wie wir Menschen mit den Maschinen umgehen und was die Maschinen brauchen, um vom Menschen akzeptiert zu werden, auch ein Thema der Psychologie. Dr. Eva Wiese, Professorin am Institut für Psychologie und Arbeitswissenschaft an der Technischen Universität Berlin, forscht zu der Frage, wie wir das Verhältnis zwischen Mensch und Roboter optimieren können. mediendiskurs sprach mit ihr.

Online seit 03.05.2022: https://mediendiskurs.online/beitrag/fremde-oder-freunde-beitrag-772/

 

 

Können Sie kurz beschreiben, woran Sie arbeiten und wie Ihre Forschung aussieht?

Ich habe in sozialen Neurowissenschaften promoviert und komme aus der Grundlagenforschung. Meine Promotion war an ein Drittmittelprojekt angeknüpft, das sich mit dem Thema „Mensch-Roboter-Interaktion“ beschäftigte. Es ging dabei um soziale Aufmerksamkeitsprozesse: Folgen wir den Blickbewegungen des Roboters genau so, wie wir es bei einem Menschen tun, wenn wir mit ihm interagieren? Es hat sich dann in meiner Doktorarbeit herausgestellt, dass das nicht der Fall ist. In mehreren Studien konnten wir zeigen, dass es vermutlich daran liegt, dass man Robotern eben nicht im gleichen Maß wie Menschen Intentionen zuschreibt. Und wenn man hinter Blickbewegungen keine Intentionen erkennt, die dann später auch zu Handlungen führen, ist man natürlich nicht so interessiert daran, auf diese sozialen Reize zu reagieren und sie überhaupt wahrzunehmen. Es geht also um die fehlende Zuschreibung von Intentionalität bei Robotern, die in sozialen Interaktionen im Vergleich zum Menschen den Unterschied ausmacht.

In der philosophischen Literatur gibt es einige gute Theorien, so zum Beispiel die von Daniel Dennett, der nennt das Intentional Stance. Und Kurt Gray oder Daniel Wagner beschreiben das als Mind Perception. Das sind Begriffe aus der Sozialpsychologie. Es geht um unsere generelle Einstellung anderen Identitäten gegenüber: Wenn wir Gegenstände als Teil der physikalischen Umwelt wahrnehmen und denen dementsprechend keine intentionalen Zustände zuschreiben, würde Dennett das als Physical Stance bezeichnen, während man bei Lebewesen Intentionen, Emotionen und Motivationen erwartet. Das würde Dennett als Intentional Stance bezeichnen. Und im Konzept von Mind Perception sagt man: Okay, ich schreibe Intentionalität auch nichtmenschlichen Agenten zu. Und dabei spielen vor allem zwei Komponenten eine Rolle, nämlich zum einen Agency und zum anderen Experience.

Agency heißt, dass ich dem Agenten zutraue zu planen, zu handeln und die Umwelt zu verändern. Und Experience bedeutet, dass der Agent aus der Sicht des Betrachters Emotionen haben kann und auf die Emotionen anderer reagiert. Menschen schreiben Robotern oft Agency zu, weil sie ja Dinge hochheben oder von A nach B transportieren können und vielleicht darin sogar besser sind als wir, wenn es um arithmetische Aufgaben geht. Aber Menschen schrecken in der Regel davor zurück, Robotern Experience zuzuschreiben. In meiner Forschung geht es um die Frage, wie sich die Haltung, die wir Robotern gegenüber haben, und die emotionalen, motivationalen und kognitiven Eigenschaften, die wir ihnen zuschreiben, auf behaviorale und neuronale Prozesse der Mensch-Roboter-Interaktion auswirken.

Ihnen geht es also nicht um die Fähigkeit der Maschinen, sondern um die Qualität der Interaktion der Maschinen mit dem Menschen?

Genau. Ich habe mich bisher auf die Menschenseite fokussiert, also wie der Roboter vom Menschen wahrgenommen wird, und zwar in Abhängigkeit sowohl von seinem Aussehen und seinem Verhalten als auch von ihm zugeschriebenen Vorannahmen. Man sollte sich das aber auch von der Roboterseite anschauen: Was weiß der Roboter über den Menschen? Welche Informationen müsste der Roboter über die Interaktion haben, sodass diese möglichst sozial gestaltet werden kann.

Werkezeuge und Maschinen helfen uns, etwas zu leisten und zu tun, was wir selbst körperlich oder inzwischen auch geistig nicht können. Der Kommunikationswissenschaftler Marshall McLuhan hat schon in den 1980er-Jahren gesagt, Medien – und das trifft auch auf Roboter und Maschinen zu – seien so etwas wie eine „Extension of Man“, also eine Erweiterung unserer reduzierten körperlichen oder geistigen Fähigkeiten. Gleichzeitig spricht er aber auch von einer Amputation. Der Neurologe Manfred Spitzer spricht vor der „Digitalen Demenz“ und meint, dadurch dass wir alles im Internet nachschauen können, würden wir unser Gedächtnis nicht mehr trainieren und uns nichts mehr merken. Schon in der Antike hat der griechische Philosoph Platon mit ähnlichen Argumenten vor der Einführung der Schrift gewarnt: Wenn man alles aufschreiben kann, muss man sich nichts mehr merken.

Es stimmt schon, dass wir bestimmte Fähigkeiten, wie zum Beispiel das Kopfrechnen oder die Navigationsfähigkeit, zumindest auf die herkömmliche Weise bis zu einem gewissen Grad etwas verlernen. Aber wir gewinnen auch neue Fähigkeiten hinzu. Gerade in der Mensch-Technik-Interaktion geht es sehr viel um metakognitive Aspekte: Ich muss entscheiden können, welche Technologie ich wann und wie einsetze – was kann ich besser als die Technologie und was kann die Technologie besser als ich. Deshalb würde ich nicht sagen, dass wir nur Fähigkeiten verlernen.

Ich beschäftige mich zum Beispiel auch mit dem Konzept des Cognitive Offloading oder der Embodied Cognition: Da geht es darum, wie ich entscheide, was ich selber machen oder was ich an die Maschine outsourcen möchte. Und wenn man die Schnittstelle zwischen Mensch und Maschine gut designt, kann man diesen Entscheidungsprozess optimieren. Die Maschine übernimmt nur Tätigkeiten, die wir entweder nicht gut können oder die wir nicht gerne machen wollen. Niemand möchte sein Arbeitsgedächtnis mit irrelevanten Fakten überladen, sondern möchte es dazu verwenden, Schlussfolgerungen zu ziehen oder kreativ zu denken. Wenn wir die Maschinen so gestalten, dass sie uns Aufgaben abnehmen, die uns sinnlos kognitive Ressourcen rauben und dafür dann Ressourcen frei machen für die Tätigkeiten, die uns wirklich Spaß machen, die uns weiterbringen und die wir wirklich gut können, wäre das aus meiner Sicht eine Bereicherung und kein Verlust.

Man könnte als Mensch eine bestimmte Kultur des Umgangs mit Maschinen entwickeln. Man kann aber auch Maschinen so gestalten, dass wir sie konzentrierter oder angemessener nutzen, um dabei nicht vollkommen zu verblöden?

Genau. In der Mensch-Maschine-Interaktion gibt es dieses Konzept der Adaptation, in der im Idealfall die Maschine ein relevantes Feedback vom Menschen bekommt und dann auch ein relevantes Feedback geben kann. Bei der Navigation könnte dann die Maschine sagen: Sie sind jetzt die Strecke schon zehnmal gefahren, vielleicht versuchen Sie es mal ohne Navi! Oder sie könnte die Hilfeleistung reduzieren, etwa den Weg nur noch visuell anzeigen und nicht mehr verbal „links“ oder „die zweite Straße rechts“ ansagen, um dem Menschen die Möglichkeit zu geben, im Rahmen der Mensch-Maschine-Interaktion seine Expertise zu erhalten.
 

Maschinen waren bisher nicht besonders gesprächig. Viele Bewerbungsgespräche werden über künstliche Intelligenz online geführt, das geschieht bisher meistens noch über Schriftsprache. Ist gesprochene Sprache für Maschinen so schwer?

Auf jeden Fall. Aber mit der Maschine sprechen zu können, ist etwas, was sich die meisten Menschen von einem sozialen Agenten wünschen. Versuchspersonen fragen zum Beispiel fast immer zuerst: Sind die Augen an, kann der Roboter mich sehen? Das ist eine Frage nach Awareness oder Consciousness. Oder kann der Roboter mich monitoren, das ist auch oft ein Gedanke. Und als Zweites wollen sie unbedingt mit ihm sprechen. Selbst wenn sie eine Aufgabe erledigen müssen, die sehr motorisch ist, finden sie das ohne gesprochene Sprache nicht wirklich stimulierend und verlieren schnell die Lust. Normale Sprache und manche Textbuchsprache können Roboter schon relativ gut generieren. Den adaptiven Aspekt hingegen – wenn wir mit Freunden sprechen, übernehmen wir nach einer Weile häufig deren Sprachstil oder verwenden bestimmte Wörter, die die andere Person häufig gebraucht – können Roboter eben nicht. Aber so etwas empfinden wir als ein Zeichen von Zuneigung. Maschinen können Sprache noch nicht einsetzen, um dem anderen das Gefühl zu vermitteln, dass er gemocht wird. Und sie können Sprache auch nicht verwenden, um eine Beziehung zu anderen Personen aufzubauen.

Kinder und Jugendliche sind im Umgang mit Maschinen viel spontaner als Erwachsene. Ich habe 14-Jährige beobachtet, die versuchten, die Maschine zu veralbern. Sie fragten Siri: Willst du mich heiraten? Und die Antwort: Das geht leider nicht, das haben mich schon zu viele gefragt. Gibt es also einen altersspezifischen Zugang?

Auf jeden Fall. In Kinderstudien mit Robotern sind die Ergebnisse oft komplett anders, wenn man sich die Akzeptanzwerte anschaut. Kinder gehen viel intuitiver mit Robotern um. Das liegt natürlich auch daran, dass sie noch keine vorgefertigten Konzepte haben. Einen Roboter, der soziale Aspekte signalisiert, finden Erwachsene suspekter als einen Industrieroboter zum Beispiel, der einem mal locker komplett die Schulter brechen kann, wohingegen der soziale Roboter einem nichts antun kann, was einem nicht auch das Internet oder ein Telefon antun könnte: nämlich irgendwelche Daten zu erheben und weiterzugeben oder so etwas. Aber sobald der Roboter menschliche Aspekte zeigt, ruft das bei Erwachsenen das Gefühl hervor, dass er einen manipulieren oder Informationen, die man ihm gibt, gegen einen verwenden könnte. Diese Skepsis haben Kinder nicht. Sie sind eher neugierig und wollen schauen, ob der Roboter so viel wie sie selbst oder mehr kann. Ihr spielerischer Ansatzpunkt ist nicht so von negativen Gefühlen geprägt.

Wenn Siri oder Alexa zum Beispiel Nachrichten vorlesen, sprechen sie grammatisch komplett richtig. Sie versprechen sich nicht und benutzen keine Füllwörter wie „äh“ oder „ähm“. Linguisten wie Noam Chomsky hätten daran ihre wahre Freude. Chomsky hat vor 50 Jahren immer vor Füllwörtern gewarnt, aber neuerdings zeigen Untersuchungen aus der Linguistik, dass Füllwörter dem Zuhörer helfen, der Sache besser zu folgen und die Gedanken strukturierter wahrzunehmen. Und es gibt auch Untersuchungen, in denen man Roboter mit und ohne solche Füllwörter hat sprechen lassen. Dabei kam heraus, dass die Glaubwürdigkeit des Roboters durch Füllwörter zunimmt.

Auf jeden Fall. Es gibt auch Studien, die zeigen, dass man Roboter, die sich entschuldigen oder die mal einen Witz machen, viel lieber mag als Roboter, die fehlerfrei agieren. Fehler im Allgemeinen und Füllwörter zeigen, dass der Roboter nicht perfekt ist und auch manchmal einen Satz nicht flüssig zu Ende bringt. Und solche Fehler sind etwas, was Maschinen sympathischer macht. In der Mensch-Roboter-Forschung spricht man von sogenannten sozialen Cues oder Hinweisreizen: Wie viele Features braucht man, um Roboter wirklich menschenähnlich zu machen? Und dazu muss man die richtigen Hinweisreize verwenden: Er muss auch mal Fehler zugeben, sich entschuldigen, beleidigt sein, einen sarkastischen Spruch bringen – das reicht manchmal schon. Sogar Agenten, die gar keinen Körper haben, wie etwa Siri, werden dann schon als sehr menschenartig wahrgenommen. Unser Gehirn simplifiziert ständig, weil die Welt ja viel komplexer ist, als wir das wahrnehmen können. Deshalb suchen wir immer nach bestimmten möglichst aussagekräftigen Hinweisreizen. Und wenn wir dann zwei, drei oder mehrere sehen, gehen wir davon aus, die Lage verstanden zu haben.

Über die Medien, Maschinen wie Google oder die über das Netz angebotenen Dienste haben wir heute ein Überangebot an zum Teil auch widersprüchlichen Informationen. Ist unser Hirn in der Lage, sich an diese neuen hohen Anforderungen anzupassen?

Ich weiß nicht, ob wir unsere Gehirnkapazität so ohne Weiteres signifikant ausweiten können. Wichtig ist eher, dass wir uns auf die aussagekräftigsten Informationsquellen fokussieren können. Wem glaube ich? Viele Informationen sind ja irrelevant oder ihre Aussagekraft ist gering. Und diese Unterscheidungsfähigkeit kann man schon lernen. Das ist das Interessante am Konzept des Anthropomorphismus, also dem Zuschreiben menschlicher Eigenschaften gegenüber Tieren, beispielsweise in der Fabel: Das funktioniert auch mit Maschinen. Sie haben keine internen Zustände oder menschlichen Fähigkeiten und werden diese wahrscheinlich auch nie so richtig haben. Aber man kann menschliches Verhalten faken. In der nahen Zukunft werden Maschinen nicht wirklich menschenartig sein. Doch weil Maschinen so komplex sind und wir in der Regel keine Erfahrungen mit Robotern haben, finden wir kein besseres mentales Modell. Es zeigt sich: Wenn die Maschine Augen, Mund und Nase hat und mit uns spricht, dann wissen wir zwar, dass es eine Maschine ist, und wir wissen nicht, wie die Maschine funktioniert. Aber wir wissen, wie andere Personen, die Mund, Nase, Augen und Sprache haben, funktionieren. Und deshalb übertragen wir dieses Modell auf die Maschine. Noch dazu entspricht das anthropomorphe Modell unserer Lebenserfahrung, weil wir ja mit Menschen schon unser Leben lang interagieren. Und wir können das Verhalten anderer Menschen am besten vorhersagen.

Bei manchen Kindern hat man den Eindruck, das Smartphone sei angewachsen. Glauben Sie, dass sich eine Kultur entwickelt, in der, beispielsweise wenn man sich zum Essen trifft oder sich unterhalten will, das Handy bis auf Notfälle tabu ist?

Unternehmen wie Facebook designen bestimmte Technologien ja genau so, dass wir das Handy nicht weglegen wollen. Dabei benutzen sie auch die aus der Psychologie bekannten Theorien über Aufmerksamkeit und Motivation. Wenn ich weiß, dass eine bestimmte Story nur eine bestimmte Anzahl von Stunden verfügbar ist und ich dann vielleicht nicht mitreden kann, wenn ich meine Freunde treffe, dann ist das eine Ausnutzung kindlicher Bedürfnisse. Bis zu einem gewissen Grad ist das ein ethisches Problem, da müssen auch die Hersteller der Technologien mehr in die Verantwortung genommen und verpflichtet werden, verantwortungsvollere Technologie zu entwickeln. Ich habe die letzten neun Jahre in den USA verbracht, und da ist das noch viel extremer als in Deutschland. Ich habe tatsächlich beobachtet, dass Studenten nebeneinander saßen und sich über das Telefon unterhielten. Auch zwischen den Vorlesungen ist kaum jemand im Gespräch mit Kommilitonen, sondern alle reden über das Telefon, während sie zur nächsten Veranstaltung gehen.

Insgesamt ist in Deutschland die Skepsis gegenüber neuer Technik sehr groß. Chinesische Jugendliche haben mit dem Überwachungssystem des Social Scorings in China kein Problem. Sie meinen, das diene doch der öffentlichen Sicherheit. Deutsche Jugendliche sehen darin die totale Überwachung. Tamagotchis, also kleine Roboter, die man als Tier oder Freund akzeptiert und die man pflegen muss, sind in Japan sehr beliebt. Wie kommt es zu dieser unterschiedlichen Nähe oder Distanz zur Technik?

In Japan hat das zum Teil religiöse Gründe, weil einige Religionen dort auch nichtbelebten Gegenständen in der Natur emotionale Zustände zuschreiben. Da gibt es dieses Phänomen des Aibo, was im Japanischen „Partner“ heißt, ein intelligenter Sony-Hund, den es schon seit den 90er-Jahren gab. Es gab wirkliche Beerdigungen und Begräbniszeremonien, wenn der Roboterhund kaputtgegangen war. Und als das Modell auslief, entstand so viel Aufruhr in der Bevölkerung, dass Sony jetzt eine neue Version dieses Hundes herausgebracht hat, weil er von vielen Menschen als ein Familienmitglied angesehen wurde. In den USA ist das etwas anders, dort herrscht eine große Innovationsfreude. Man glaubt daran, dass Technik einem viel bieten und die Gesellschaft voranbringen kann, und man fragt weniger kritisch, ob die Technik auch negative Seiten hervorbringen könnte. In Deutschland wiederum hat man meiner Meinung nach eher eine kritische Haltung gegenüber neuer Technik, so dass man deren Potenziale oft nicht voll ausschöpfen kann, weil man etwas Negatives erwartet. In den USA war es normal, wenn ich sagte, ich betreibe Roboterforschung. Hier an die TU waren erst einmal alle überrascht, dass mein Team und ich uns sozialpsychologisch mit der Mensch-Roboter-Interaktion auseinandersetzten. Ich finde es wichtig, neuen Technologien gegenüber erst einmal offen zu sein, damit überhaupt Raum für die Forschung geschaffen werden kann, die Vor- und Nachteile empirisch zu erforschen.  

Wie werden sich Maschinen zukünftig in unseren Alltag integrieren? Brauchen wir bald keine Hausangestellten mehr, weil der Roboter putzt, wäscht, kocht und uns das Essen bringt?

Dazu gibt es noch keine klaren Daten. In Kliniken sind Roboter zum Beispiel in unterschiedlichen Bereichen sehr hilfreich. Sie werden auch eingesetzt bei Kindern mit Autismus. Da sind sie ganz hervorragend geeignet, weil die soziale Interaktion hier zwar gefördert werden kann, sie aber perzeptiv aufgrund der einfacheren Architektur eines Roboters nicht so überfordernd ist wie die Interaktion mit einem Menschen, wo zeitgleich die unterschiedlichsten Reize verarbeitet werden müssen. Personen mit Autismus schauen häufig nicht gerne in Menschengesichter, weil das ein sehr perzeptiver, komplexer Reiz ist und sie diese perzeptive Komplexität oft nicht richtig verarbeiten können. Das Robotergesicht ist oft komplett aus Plastik, da bewegen sich nur die Augen und der Mund. Man kann emotionale Zustände zeigen, die viel weniger komplex sind als beim Menschen, aber dementsprechend leichter zu verarbeiten sind. Kinder mit Autismus schauen deshalb gerne Roboter an und verfolgen deren Blickbewegungen, während sie bei Menschen wegschauen, weil sie überfordert sind. Auch Kindern mit Dyslexie, also Lesestörungen, die manchmal auch mit Legasthenie verbunden sind, können Roboter sehr helfen. Für die Älteren gibt es diese emotionalen Support-Robots, die ein bisschen wie Haustiere fungieren, um die man sich dann kümmern muss, vielleicht so ein bisschen wie bei Tamagotchis. Dadurch müssen sich die Menschen bemühen, einen Tagesablauf einzuhalten. Es hat sich in verschiedensten Studien gezeigt, dass sich das nicht nur auf die Emotionen, sondern auch auf die kognitive Leistungsfähigkeit positiv auswirkt. Menschen ohne kognitive Beeinträchtigungen haben dagegen oft noch wenig Interesse an sozialen Robotern.

In Altenheimen könnte der Roboter eingesetzt werden, um beispielsweise die Pfleger beim Tragen und Heben kranker Menschen zu unterstützen, sie könnten vielleicht auch Spritzen geben oder abends die Medikamente bringen. Droht eines Tages eine Zweiklassengesellschaft, in der Reiche von einem Menschen und Ärmere von einem Roboter versorgt werden?

Das könnte natürlich passieren. Man kann Roboter nicht in die Gesellschaft integrieren, ohne diese ethischen Aspekte immer mitzudenken. Je mehr Roboter menschenähnliche Fähigkeiten besitzen, desto mehr können sie uns potenziell manipulieren oder wir könnten von ihnen abhängig werden. Und gerade mit vulnerablen Gruppen wie Kindern und älteren Menschen muss man das stärker bedenken als bei Erwachsenen, die eine normale kognitive und psychische Leistungsfähigkeit haben und zu einem gewissen Grad ihre eigenen Entscheidungen treffen können. Auf der anderen Seite wurde der Pflegenotstand in der Altenpflege nicht von Robotern erzeugt. Alte Menschen sind oft allein, es gibt nicht genügend Pfleger, und Familienmitglieder kommen nicht jeden Tag, weil sie auch anderes zu tun haben oder ihr Alltag es einfach nicht zulässt. Insofern sehe ich weniger die Gefahr, dass diese Roboter für Ältere komplett andere Menschen ersetzen. Aber sie können ihnen vielleicht im besten Fall für 30 Minuten am Tag ein besseres Gefühl erzeugen.

Wenn wir Romane lesen oder einen Film anschauen, fühlen wir uns, als wären wir für eine gewisse Zeit ein anderer Mensch in einer anderen Geschichte, obwohl wir genau wissen, dass das alles erfunden ist und dass die Figuren Schauspieler sind. Empathie und Einfühlungsvermögen sorgen dafür, dass wir uns eine Weile als jemand anderer fühlen. Roboter werden immer besser und menschenähnlicher. Könnte sich unsere Vorstellungskraft gegenüber Filmfiguren bald auch auf Roboter übertragen lassen?

Ich denke, dass das bei vielen Menschen schon der Fall ist. Leider gibt es viele schlechte Filme über Roboter, die hauptsächlich falsche Erwartungen und negative Gefühle gegenüber Robotern erzeugen. Einige sind aber auch ganz gut gemacht, beispielsweise Her mit Joaquin Phoenix. Da fühlt man mit ihm, wenn die virtuelle Agentin Samantha, in die er sich verliebt hat, gemein zu ihm ist. Da ruft man automatisch seine Schemata auf, die man auch benutzen würde, wenn es eine Mensch-Mensch-Interaktion wäre.

Also könnte man den Computer oder Roboter auch emotional wahrnehmen?

Das machen viele jetzt schon. Wenn der Computer nicht funktioniert oder wenn es ein Problem gibt, was nicht gleich geklärt werden kann, sind viele Nutzer wütend und denken, der Computer sei heute gemein oder will ihnen das Leben schwermachen. Klar weiß man rational, dass das nicht der Fall ist. Aber das ist eine intuitive, emotionale Reaktion.

Der Computer ist nicht genervt, der lässt sich geduldig alles vorhalten. Er ist auch nicht eifersüchtig, es sei denn, man programmiert ihn entsprechend. Könnte er also auch als virtueller Partner taugen wie in dem Film Ich bin dein Mensch?

Da gibt es wahrscheinlich individuelle Unterschiede. Viele Menschen würden so etwas nie in Erwägung ziehen. Andererseits gibt es auch Menschen, die Roboter mit sehr spezifischen menschlichen Fähigkeiten, zum Beispiel Sex-Robots, total faszinierend finden. Ich könnte mir so etwas nicht vorstellen, weil es um ein intimes menschliches Verhältnis geht, aber eine mehr oder weniger große Gruppe von Menschen kann sich das schon jetzt vorstellen. Da kann man derjenige sein, der die Kontrolle hat, man muss sich für nichts rechtfertigen. Aber da gibt es eine Reihe ethischer Probleme. Denn dieses kontrollierende und eventuell unangemessene Verhalten könnte man später auch auf die Mensch-Mensch-Interaktion übertragen.

Trailer Ich bin dein Mensch (DEU 2021).



Neuerdings ist es möglich, Stimmen konkreter Menschen zu simulieren. Ein Roboter könnte die Stimme des verstorbenen Partners oder eines verstorbenen Kindes annehmen. Oder ich kann die Freundin, die mich verlassen hat, virtuell wieder treffen. Wenn wir die Fortschritte der letzten zehn Jahre auf die Zukunft projizieren, ist da technisch möglicherweise noch sehr viel mehr drin. Der Roboter könnte sich Gespräche merken oder Stimmungen des Nutzers nachempfinden und optimal darauf reagieren.

Ja, das wäre möglich. Derzeit kann ich in meinen Studien allerdings beobachten, dass Erwachsene kaum Interesse daran haben, sich mit sozialen Robotern länger als 20 bis 30 Minuten zu unterhalten. Die Sprache ist noch zu statisch, zu artifiziell, sie hat keine persönliche Note. Er versteht keine Anspielungen. Wenn man mit dem Roboter jeden Tag redet, möchte man auch, dass er sich Gespräche merkt und darauf Bezug nehmen kann. Das können sie eben noch nicht. Und deshalb sind sie für Erwachsene nicht interessant. Es wäre aber in Zukunft theoretisch machbar.

Der US-Futurist Raymond Kurzweil geht davon aus, dass wir so ungefähr 2045 den Zustand der Singularität erreichen: Die Maschinen entwickeln Maschinen, Algorithmen entwickeln selbst neue und bessere Programme als der Mensch. Die Maschine wird unserer Intelligenz überlegen sein und alle Probleme dieser Welt lösen – von Unsterblichkeit bis zum Klimawandel.

In der Neurowissenschaft gibt es Wissenschaftler, die nicht einmal sagen würden, dass wir als Menschen einen komplett freien Willen haben, und die meinen, wir seien auch irgendwie determiniert. Man kann sich schon vorstellen, dass man so etwas wie unser Nervensystem artifiziell nachbauen könnte. Was solchen Systemen jedoch zunächst einmal fehlt, ist die jahrelange Erfahrung, die wir haben und die uns zu dem macht, was wir sind. Und das unterscheidet im Moment noch Menschen von Maschinen. Im Moment kann ich mir nur schwer vorstellen, dass eine Maschine unter den gleichen Bedingungen lernen kann wie wir, weil dafür in der Praxis einfach die Randbedingungen nicht gegeben sind. Aber grundsätzlich könnte es technisch machbar sein, dass eine Maschine mit der Lebenserfahrung eines Menschen auch menschliche Eigenarten entwickelt. Und dass dann auch jede Maschine in der gleichen Situation unterschiedlich reagiert und entscheidet, wie es Menschen eben auch machen würden.

Dr. Eva Wiese ist Professorin am Institut für Psychologie und Arbeitswissenschaft an der Technischen Universität Berlin und forscht zu dem Verhältnis zwischen Mensch und Roboter.

Prof. Joachim von Gottberg ist Chefredakteur von tv diskurs.