Werte und digitale Kommunikation

Thilo Hagendorff

Dr. Thilo Hagendorff ist Medienethiker am Internationalen Zentrum für Ethik in den Wissenschaften an der Universität Tübingen.

Der Artikel beschreibt, wie sich Werte und Normen in den Öffentlichkeiten digitaler sozialer Netzwerke konstituieren und sich über sie zur Geltung bringen. Dabei wird auch auf die zunehmende algorithmische Automatisierung dieser Prozesse und die sich daraus ergebenden sozialen Folgewirkungen eingegangen.

Printausgabe tv diskurs: 21. Jg., 2/2017 (Ausgabe 80), S. 26-29

Vollständiger Beitrag als:

Zu Beginn des Aufkommens digitaler sozialer Netzwerke bestand weithin die Vorstellung, dass das Internet zu einer Demokratisierung der Kommunikation sowie zu einer Einebnung von sozialen Statusunterschieden führen würde. Das Internet sollte ein Raum der Interaktion zwischen freien und gleichen Menschen sein. Mit einer gewissen Ernüchterung musste jedoch relativ rasch zur Kenntnis genommen werden, dass sich etablierte soziale Ungleichheiten im Rahmen digitaler Dienste und Plattformen nahezu eins zu eins reproduzieren. So konnte etwa gezeigt werden, dass sich soziale Ungleichheiten rund um die Hautfarbe, Ethnizität oder den sozioökonomischen Status von Menschen im Internet widerspiegeln. Beispielsweise wurde herausgefunden, dass dunkelhäutige Menschen eher MySpace und hellhäutige Menschen eher Facebook nutzen (Boyd 2012). Diese Erkenntnisse enttäuschten die einstmals hochgehaltenen Vorstellungen über die prosozialen Effekte des Internets. Heute ist die Feststellung, dass sich soziale Werte und Normen in Technologien einschreiben, in der sozialwissenschaftlichen Forschung ein Gemeinplatz. Die Frage ist aber, auf welchem Wege sich Werte und Normen von der sozialen Welt auf die Entwicklung und Nutzung von Technologien übertragen – und wie die in Technologien ausgehärteten Werte und Normen in Form von Medienwirkungen auf Mediennutzerinnen und -nutzer zurückwirken.

Werte

Werte sind Leitvorstellungen oder Ideen über normativ gebilligte Gegenstände. Sie werden genutzt, um Präferenzen zu markieren und um Orientierungsstandards zu bilden. Aus ihnen können Normen abgeleitet werden. Werte helfen, sich zur Welt zu verhalten und sie strukturiert wahrnehmen zu können. Damit leiten sie Handeln an. Gleichzeitig spiegeln sie Perspektiven und Interessen wider. Auch besitzen sie typischerweise einen gewissen Verallgemeinerungsgrad. Zudem werden Werte hierarchisiert, wobei ein Set aus Grundwerten, welche etwa im Rahmen der Allgemeinen Erklärung der Menschenrechte festgehalten sind, eine feste Basis bildet.

Die Übertragung von sozialen Werten und Normen auf Technologien wie etwa internetbasierte Plattformen erfolgt freilich auf dem offensichtlichen Wege der Prägung derselben durch die Nutzerinnen und Nutzer, welche bei der computervermittelten Kommunikation nicht von ihren Wert- und Normeinstellungen abstrahieren. Dabei gibt es auch übergeordnete Werte bei der Techniknutzung, welche etwa Datenschutz und Datensparsamkeit, Privatheit, Urheberrechte, Vertraulichkeit der Kommunikation und Kommunikationstechnik, informationelle Sicherheit, Meinungsfreiheit etc. betreffen. Zu beobachten ist dabei, dass neue Medien in der Regel zu einer Veränderung der Priorisierung von Werten führen. So hat etwa der Wert des Privaten nicht nur durch globale staatliche Überwachungspraktiken an Bedeutung verloren, sondern auch, weil Nutzerinnen und Nutzer informationstechnischer Systeme von sich aus Informationen, welche lange Zeit typischerweise unter den Schutz des Privaten gefallen sind, mehr oder minder öffentlich preisgeben. Neben der Veränderung von Werthierarchien kann es zu Wertkonflikten kommen. Diese ergeben sich beispielsweise, wenn im Kontext digitaler sozialer Netzwerke der Wert der Meinungsfreiheit, mit welchem sich gleichsam verletzende Äußerungen verteidigen lassen, auf den des Schutzes der Integrität von Personen trifft. Derartige Wertkonflikte können über eine ethische Reflexion, welche sich am Einzelfall orientiert, aufgelöst werden.

Aus ethischer Perspektive gesprochen gibt es im Zusammenhang mit digitalen Medien einen Katalog an zentralen Werten, aus welchen sich Normen ableiten lassen, welche Kommunizieren und Handeln leiten können (Grimm 2013). Dies sind erstens informationelle Normen, welche in Bezug auf Meinungsfreiheit, informationelle Selbstbestimmung oder den Schutz der Privatheit gelten. Zweitens sind dies kommunikative Normen, welche den Respekt gegenüber Kommunikationspartnern betreffen oder die Anerkennung der Netiquette digitaler Plattformen. Drittens sind dies Inhalte-Normen, welche die Achtung der Menschenwürde oder etwa den Kinder- und Jugendschutz anbelangen. Und viertens gibt es Nutzungsnormen, welche die Verantwortung im Umgang mit problematischen Inhalten wie etwa Pornografie regeln und welche eng verknüpft sind mit Distributionsnormen, welche beispielsweise die Verhinderung der Weitergabe von verletzenden oder diskriminierenden Inhalten betreffen.

Unabhängig von jenen insbesondere seitens der Medienethik propagierten Wertekonglomeraten bestehen im Rahmen digitaler sozialer Netzwerke eine ganze Reihe an hedonistischen Werten rund um die Selbstdarstellung der eigenen Persönlichkeit, die Anerkennung der dargestellten Identitätsfacetten durch andere, die Unterhaltung und Ablenkung durch gemeinsam geteilte Inhalte oder die Kontaktpflege oder Kontaktfindung mit anderen Nutzerinnen und Nutzern verschiedener Plattformen.

All diese Werte und Normen prägen das Geschehen im Rahmen digitaler Dienste und Plattformen. Sie sind das Ergebnis von Einschreibungsprozessen von sozialen Werten in die technische Verfasstheit sowie die Inhalte verschiedener Medien.

Medienwirkungen

Umgekehrt sind jedoch auch klassische Medienwirkungen zu beobachten, welche aus diesen Einschreibungsprozessen resultieren. Hier geht es etwa um psychologische Medienwirkungen rund um Aspekte der Konzentration, Erinnerungsleistungen, Lese- und Denkgewohnheiten, Sprachkompetenzen etc. Daneben lassen sich auch soziale Medienwirkungen beschreiben, welche zu gewissen Anteilen etwa aus den Eigenschaften der computervermittelten Kommunikation erklärt werden können. Hier ist insbesondere das Phänomen der Anonymität zu nennen. Anonymität begünstigt ein normverletzendes Kommunikationsverhalten, da soziale Sanktionsmechanismen nicht mehr greifen.

Bei der computervermittelten, textbasierten Kommunikation, welche den Kern digitaler sozialer Netzwerke bildet, können weder über Mimik, Gestik oder Stimmlage Informationen zwischen den Interaktionspartnern ausgetauscht werden. Dieser Umstand muss bedacht werden, wenn man sich aktuelle Debatten beispielsweise über Cybermobbing oder Hate Speech im Internet ansieht. Formen gewalthaltiger, verletzender oder diskriminierender Kommunikation werden vor allem dadurch im Rahmen digitaler sozialer Netzwerke virulent, weil jeweils die insbesondere nonverbalen Reaktionen des angegangenen, verletzten, diskriminierten Gegenübers fehlen. Kurz gesagt: Die Tränen, welche beispielsweise ein Opfer von Cybermobbing-Angriffen weint, bleiben für die Täterinnen oder Täter unsichtbar. In der Forschung zur computervermittelten Kommunikation spricht man daran anschließend von einer „entsinnlichten“ Kommunikation. Die computervermittelte Kommunikation kann die meisten Sinneskanäle nicht ansprechen und wird daher mitunter auch als eine „verarmte“ Form der Kommunikation gesehen. Es fällt schwerer, bei der computervermittelten Kommunikation Empathie füreinander aufzubringen.

Die Tränen, welche […] ein Opfer von Cybermobbing-Angriffen weint, bleiben für die Täterinnen oder Täter unsichtbar.

Die aktuellen Diskussionen um antisoziales Verhalten im Internet, insbesondere angesichts des extremen Rassismus, welcher sich in digitalen sozialen Netzwerken manifestiert, müssen vor dem Hintergrund jener Eigenschaften der computervermittelten Kommunikation gesehen werden. Doch es wäre sicherlich ein Fehler, hier lediglich technikzentrierte Erklärungen in Anschlag zu bringen. Vielmehr bedarf es auch eines sozialen Lernprozesses, im Zuge dessen sich in Anlehnung an eine Ethik der Kommunikation neue Werte für digitale soziale Netzwerke ausbilden. Im Gegensatz zu den klassischen Medien Zeitung, Radio und Fernsehen kann im Kontext neuer Medien wie Facebook, Twitter, YouTube etc. jeder zum Sender werden. Ist jedoch im Kontext klassischer Medien eine gewisse Profession und Institutionalisierung erforderlich, um als Sender fungieren zu können, entfällt diese Voraussetzung beim Web 2.0. Es bedarf also einer gewissen Ethik des Publizierens, welche für sämtliche Formen der Kommunikation gelten sollte, welche an eine wie auch immer geartete Öffentlichkeit gerichtet ist. Eine solche Ethik richtet sich insbesondere an Werten wie Wahrheit bzw. der intersubjektiven Nachprüfbarkeit publizierter Informationen, der Wahrung von Persönlichkeitsrechten sowie der Achtung der Würde von Menschen aus (Schmidt 2016).

Algorithmen

Neben offenen Wertbeziehungen zwischen Medien und Mediennutzerinnen und -nutzern gibt es gleichsam versteckte Weisen der Wertübertragung und Wertausbildung im Rahmen digitaler Technologien. Es gibt Übertragungsprozesse, in denen sich auf kaum nachvollziehbare Weise Werte und Wertannahmen aus einem genuin sozialen Kontext auf Technologien übertragen. Bezug nehmen ließe sich hier etwa auf die Funktionsweise von Lernalgorithmen. Diese agieren für sich genommen vorerst relativ neutral, unterliegen dann aber im Laufe ihrer Verwendung einer gewissen Eigendynamik, wobei sie zudem intransparent operieren. Lernalgorithmen werden durch Trainingsdatensätze optimiert, im Zuge dessen sie „lernen“, bestimmte Eigenschaften zu präferieren. Das bedeutet, dass Algorithmen die Bias aus Trainingsdatensätzen übernehmen, welche wiederum ein Abbild der Bias der Autorinnen und Autoren jener Trainingsdatensätze sind. In den vergangenen Jahren konnte so anhand verschiedener Beispiele gezeigt werden, dass Algorithmen bei Chatbots, Schönheitswettbewerben, Bewerbungsverfahren, personalisierter Onlinewerbung, dem Polizeiwesen, der Strafverfolgung und weiteren Bereichen gewollt als auch ungewollt Formen sozialer Diskriminierung perpetuieren (Datta/Tschantz/Datta 2015; Levin 2016; Misty 2016; O’Neil 2016).

Die Automatisierungsleistungen moderner Computer beispielsweise über Methoden des Maschinenlernens betreffen nicht nur individuelle Angelegenheiten einzelner Menschen, sondern gleichsam die Öffentlichkeit. Neben traditionellen Versammlungs- und Medienöffentlichkeiten entstehen durch digitale soziale Netzwerke sozial bedeutende „networked publics“ (Boyd 2014), welche jedoch einer durch einzelne IT-Unternehmen gesteuerten algorithmischen Organisation unterliegen. Dieser Umstand hat in den vergangenen Jahren zu Recht vermehrt zu Diskussionen geführt. Dabei stand im Wesentlichen das Phänomen der „Filterblasen“ im Fokus (Pariser 2011). Filterblasen sind eine Konsequenz der Personalisierung nahezu sämtlicher großer Dienste und Plattformen im Internet. Die Personalisierung führt zu einer permanenten Bestätigung eigener Interessen, Einstellungen und Wertorientierungen. Inhalte, welche quasi als Herausforderung jener Interessen, Einstellungen und Wertorientierungen wirken, werden nicht in die Echokammern von Facebook, Twitter, YouTube etc. eingelassen, um Nutzerinnen und Nutzern einen möglichst „angenehmen“ Aufenthalt auf den Plattformen zu ermöglichen.

Inhalte, welche quasi als Herausforderung jener Interessen, Einstellungen und Wertorientierungen wirken, werden nicht in die Echokammern von Facebook, Twitter, YouTube etc. eingelassen [...].

Die Diskussionen um Filterblasen machen auf den Umstand aufmerksam, dass die Verteilungs- und Verbreitungslogik von Informationen und Medieninhalten im Kontext digitaler sozialer Netzwerke weder der einzelnen Nutzerin oder dem einzelnen Nutzer noch professionalisierten Medieninstitutionen obliegt, sondern im Wesentlichen den Softwareingenieurinnen und -ingenieuren bzw. den Algorithmen der Betreiber jener Netzwerke. Sie bestimmen, nach welcher Logik sich Vergemeinschaftungsprozesse gestalten, wie Medieninhalte sich verbreiten oder an welchen Stellen sich Öffentlichkeiten herausbilden.

In die algorithmische Organisation jener Netzöffentlichkeiten mischen sich zudem automatisierte Akteure in Form von Social Bots ein, welche nicht so sehr individuelle Kommunikationszusammenhänge, sehr wohl jedoch etwa Themen-, Diskussions- oder Popularitätstrends beeinflussen bzw. verzerren. Dies alles verändert etablierte Dynamiken öffentlicher Diskussions- und Vergemeinschaftungsprozesse radikal. Richteten sich gerade politische Debatten zwischen verschiedenen politischen Lagern traditionell zumindest an einer ungefähr einheitlich wahrgenommenen Realität aus, so ist aktuell zu beobachten, dass fragmentierte Teilöffentlichkeiten gar mit fundamental unterschiedlichen Wirklichkeitsentwürfen operieren. So sind Diskussionen häufig zum Scheitern verurteilt, da bereits auf einer Sachebene völlig unterschiedliche Rationalitäten aufeinandertreffen. Dieser Zustand der Fragmentierung und Polarisierung von sozialen Gemeinschaften und Öffentlichkeiten ist, so die häufig geäußerte Überlegung, durch Filterblasen angestoßen und durch Social Bots nochmals verstärkt worden.

Letztlich bedarf es, um hier zu einer Problemlösung zu kommen, einer Methode der obligatorischen Identifizierung oder Ausweisung von künstlichen autonomen Akteuren als nicht menschlichen Kommunikationsteilnehmern im Rahmen von digitalen sozialen Netzwerken. Es muss verhindert werden, dass es zu einer schleichenden und unbemerkten „Klimavergiftung“ durch Social Bots in den Kommunikationsforen jener Netzwerke kommt.

Fazit

Nicht nur beeinflussen etablierte, genuin soziale Wertannahmen, Einstellungen, Überzeugungen, Umgangsformen etc. das Geschehen bei der computervermittelten Kommunikation im Kontext digitaler sozialer Netzwerke, sondern die Ereignisse, Diskussionen und Medieninhalte in Netzwerken wie Facebook, Twitter, YouTube u.a. wirken sich auch auf das Verhalten außerhalb dieser Netzwerke aus, sei dies bei politischen Wahlen, in der Face-to-Face-Kommunikation oder im beruflichen Umfeld. Hierbei ist immer wieder die Gefahr der neuen Medien für das Funktionieren der Demokratie herausgestellt worden.

Ohne an dieser Stelle normativ Position zu beziehen, ist in diesem Zusammenhang aus historischer Perspektive festzustellen, dass immer dann, wenn in eine Gesellschaft ein neues Verbreitungsmedium eingeführt wurde, dies zu Irritationen, Chaos, Unsicherheiten, Moralisierungen, Ängsten etc. geführt hat (Drotner 1999). Neue Verbreitungsmedien, sei dies der Buchdruck, die Fotografie, das Radio oder das Fernsehen, irritieren die etablierte kulturelle Praxis einer Gesellschaft. Und aktuell drehen sich die Irritationen und Unsicherheiten um das neue Verbreitungsmedium Internet. Bei der Einführung neuer Verbreitungsmedien in eine Gesellschaft geht es, abstrakt gesagt, um einen bestehenden Überschuss an Handlungs bzw. Kommunikationsmöglichkeiten, an welche sich Routinen und Gesellschaftsstrukturen erst langsam anpassen müssen. Hier bleibt zu hoffen, dass dieser Anpassungsprozess rasch vonstattengeht und nicht zuungunsten der Demokratie und des friedlichen Gemeinwesens geschieht.

Literatur:

Boyd, D.: White Flight in Networked Publics: How Race and Class Shaped American Teen Engagement with MySpace and Facebook. In: L. Nakamura/

P. A. Chow-White (Hrsg.): Race After the Internet. New York 2012, S. 203 – 222 Boyd, D.: It’s Complicated. The social lives of networked teens. New Haven 2014 Datta, A./Tschantz, C. M./Datta, A.: Automated Experiments on Ad Privacy Settings. A Tale of Opacity, Choice, and Discrimination. In: Proceedings on Privacy Enhancing Technologies, 1/2015, S. 92 – 112

Drotner, K.: Dangerous Media? Panic Discourses and Dilemmas of Modernity. In: Paedagogica Historica, 3/1999, S. 593 – 619

Grimm, P.: Werte- und Normenaspekte der Online-Medien – Positionsbeschreibung einer digitalen Ethik. In: M. Karmasin/M. Rath/B. Thomaß (Hrsg.): Normativität in der Kommunikationswissenschaft. Wiesbaden 2013, S. 371 – 396

Levin, S.: A beauty contest was judged by AI and the robots didn’t like dark skin. 2016. Abrufbar unter: https://www.theguardian.com/technology/2016/sep/08/ artificial-intelligence-beauty-contest-doesnt-like-black-people

Misty, A.: Microsoft Creates AI Bot – Internet Immediately Turns it Racist. 2016. Abrufbar unter: https://socialhax.com/2016/03/24/microsoft-creates-ai-botinternet- immediately-turns-racist/

O’Neil, C.: Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy. New York 2016

Pariser, E.: The Filter Bubble. What the Internet Is Hiding from You. New York 2011

Schmidt, J.-H.: Ethik des Internets. In: J. Heesen (Hrsg.): Handbuch Informationsund Medienethik. Stuttgart 2016, S. 284 – 292