Das Regime der Algorithmen als Rückkehr des Orakels

Roberto Simanowski

Dr. Roberto Simanowski lebt als freier Autor und Medienberater in Berlin und Rio de Janeiro.

Algorithmen sind das Herzstück jeder Software, die fundamentalen Bausteine der Computerwelt ausgestattet mit einer einfachen Handlungsanweisung: wenn A, dann B. Die Wenn-Dann-Kette kann komplex sein und in mehrstufigen Durchläufen ein Dann als neues Wenn verarbeiten. Immer aber handelt es sich um eine endliche Anzahl an Arbeitsschritten, die schließlich für bestimmte Inputinformationen bestimmte Outputinformationen ergeben.

Printausgabe tv diskurs: 23. Jg., 4/2019 (Ausgabe 90), S. 30-36

Vollständiger Beitrag als:

Algorithmen sind so alt wie Rechenaufgaben, denn auch Euklids Verfahren zur Berechnung des größten gemeinsamen Nenners zweier Zahlen ist nichts anderes als die Prozessierung bestimmter Wenn-Dann-Beziehungen zur Lösung eines mathematischen Problems. Ihren Höhepunkt aber erleben die Algorithmen, seit es Computer und Internet gibt. Seit also eine Maschine, die aus Wenn-Dann-Konstellationen besteht, mit einer Unmenge an Inhalten gefüttert wird. Jeder kennt die Empfehlungen auf Amazon, die aus dem statistischen Abgleich vorhandener Verkaufsdaten prognosefähige Konstellationen erzeugen: Wenn Sie dieses Buch interessiert, dann interessiert Sie wahrscheinlich auch dieses – denn so war das bei n‑Amazon-Nutzern zuvor.

In kulturwissenschaftlicher Perspektive wird der Begriff des Algorithmus naturgemäß weiter und unschärfer gefasst als im Rahmen der Computerwissenschaft. Die Distanznahme zum Fachdiskurs und die metaphorische Zuspitzung des Begriffs erlauben es, verschiedene aktuelle Themen und Debatten zusammenzubringen und einen prägnanteren Blick auf die kulturellen Effekte medientechnischer Entwicklungen zu entwickeln. Vor diesem Hintergrund sei dreierlei festgehalten:

  • Algorithmen dienen als Werkzeuge, auf die man zur Lösung eines bestimmten Problems zurückgreift, nicht ohne sie dazu gegebenenfalls den konkreten Zwecken anzupassen. Sie sind Logik plus Kontrolle, wie eine berühmte Gleichung des Computerwissenschaftlers Robert Kowalski aus dem Jahr 1979 lautet.
  • In der Umgebung der Computer sind Algorithmen nicht nur Vorschriften für technische Abläufe, sondern zugleich Durchsetzung dieser Vorschriften unabhängig von menschlicher Kontrolle oder Korrektur.
  • Algorithmen interagieren in Kombination mit anderen Algorithmen in komplexen Systemen und können zunehmend in eigener Regie operieren mit dem Risiko unvorhersehbarer Konsequenzen. Das heißt, sie sind zwar prinzipiell mathematische Manifestationen kultureller Perspektiven (bei Amazon die Perspektive der Geschmackseinheit), können in ihrer komplexen Vermischung aber ein Eigenleben entwickeln, sodass ihr Output nicht mehr notwendig ein kulturelles Input repräsentiert. In diesen automatisierten Formen der Datenauswertung liegt die bedenkliche gesellschaftliche Wirkung der Algorithmen: Sie sind nicht nur instrumentell als Problemlösungsprozeduren zu verstehen, sondern auch gesellschaftsphilosophisch als Quelle neuer Probleme. Algorithmen sind das Pandorageschenk der digitalen Revolution.
     

Filter Bubble

Aber auch unabhängig vom Problem ungewollter Konsequenzen der Algorithmen fällt ihre Bewertung ambivalent aus, je nach eingenommener Perspektive auf Gesellschaft. Ein berühmtes Beispiel stammt von Eli Pariser, der in seinem Buch Filter Bubble. Wie wir im Internet entmündigt werden (2012) beklagt, dass Facebook nicht die Updates seiner konservativen Freunde anzeigt, weil Facebooks Newsfeed-Algorithmus EdgeRank erkennt, dass Pariser sich stärker für die Updates seiner links-orientierten Freunde interessiert. Die Logik des Algorithmus (die eine statistische ist) überschreibt somit die Entscheidung Parisers (die eine ideologische ist), gelegentlich auch die Meinung der Gegenseite zur Kenntnis zu nehmen. Die von Facebook und in vielen anderen Portalen im Internet angestrebte Personalisierung des Informationsdesigns auf der Basis statistisch kalkulierter Eigeninteressen mag willkommen sein, wenn es um Werbung geht oder um Empfehlungen auf Amazon, Netflix und Dating-Sites. Sie ist zwiespältig, wenn Suchmaschinen wie Google auf das gleiche Eingabewort verschiedene Ergebnisse präsentieren, abhängig von bisherigen Suchanfragen und Onlineaktionen der Nutzer. Problematisch wird es, sobald der Konsument ein Zoon politikon sein will, die Filter Bubble aber als Informationskokon, als Schutz vor Widerspruch wirkt, was dem Subjekt so abträglich ist wie Bücher, an denen es sich nicht mehr reiben muss.

Wer in der Konfrontation unterschiedlicher Standpunkte das Lebenselixier der Demokratie sieht, wird deswegen das Internet nicht als das gelobte Land demokratischer Kommunikation verstehen, sondern mit Pariser als das gemütliche Heim der „Autopropaganda“, die das Subjekt permanent bestätigt und das, was es (noch) nicht ist, unablässig ausblendet. Personalisierungsalgorithmen unterdrücken den Zufall, die Begegnung mit dem anderen und generieren so eine informationsspezifische Fremdenfeindlichkeit, die einem zum Großteil nicht einmal bewusst wird. Der allgegenwärtige Vermessungsimpuls der Moderne wandelt sich auf der Ebene des Sozialen vom Wunsch, die Welt in ihrem innersten Zusammenhang zu erkennen, zum Werkzeug eines Abschottungsnarzissmus. Kulturwissenschaftler denken da an Brechts Keuner-Geschichte: „Ein Mann, der Herrn K. lange nicht gesehen hatte, begrüßte ihn mit den Worten: ‚Sie haben sich gar nicht verändert.‘ ‚Oh!‘ sagte Herr K. und erbleichte.“
 


Die Filter Bubble durch den Algorithmus ist insofern nur die Automatisierung und Verstetigung eines menschlichen Impulses. Sie ist letztlich kein technisches Problem, sondern ein anthropologisches.



Der Befund ist keineswegs unumstritten. Immerhin bietet gerade das Internet den gegensätzlichsten Perspektiven Raum und macht diese durch Verlinkung und Suchmaschinen auch auffindbar. Wenn aber politische Blogs zu 90 % zu ähnlich denkenden Websites verlinken, stellt sich die Frage, inwiefern von der Möglichkeit, der Bubble zu entgehen, tatsächlich Gebrauch gemacht wird. Was, wenn das eigentliche Problem, dem Menschen durch kluges Handeln entgegenwirken könnten, gar nicht der Algorithmus ist, sondern der Mensch selbst? Mit diesem viel existenzielleren „Feindbild“ operierte die Diskussion zum Filter-Bubble-Problem, bevor Pariser den Begriff populär machte und gegen den Algorithmus richtete. Um die Jahrhundertwende gingen Internettheoretiker – wie Andrew L. Shapiro in seinem Buch Control Revolution. How the Internet is Putting Individuals in Charge and Changing the World We Know (1999) – davon aus, dass der Mensch sich selbst im Wege steht, indem er alles aus dem Weg schafft, was er nicht hören oder lesen will. Man sah die digitalen Medien als Möglichkeit des Menschen, stärker als bei den klassischen Massenmedien Zeitung und Fernsehen die Information, der man sich aussetzt, zu kontrollieren. Ein Kontrollzuwachs, der aus philosophischer und demokratietheoretischer Perspektive als bedenklich gesehen wird, aus psychologischer Perspektive aber dem menschlichen Drang entspricht, ungewollte Informationen und widersprechende Ansichten fernzuhalten. Die Filter Bubble durch den Algorithmus ist insofern nur die Automatisierung und Verstetigung eines menschlichen Impulses. Sie ist letztlich kein technisches Problem, sondern ein anthropologisches.

 


Personalisierte Empfehlungen und Filter Bubble illustrieren den Einsatz des Algorithmus als Werkzeug für das Informationsmanagement. Die Wirkung dieser Art von Informationsmanagement auf die Gesellschaft ist umstritten, weil das Wünschbare umstritten ist, wie die Gesellschaft organisiert sein soll. Umstritten ist auch der Einsatz des Algorithmus als Werkzeug für die Informationsproduktion, nun allerdings mit umgekehrter Kontrollrichtung: als Kontrolle über den Menschen statt durch den Menschen.
 

Dataveillance

Im Grunde wird jede Kommunikationsplattform im Internet durch den Einsatz algorithmischer Analyse zu einer Überwachungs- und Kontrolltechnik. So erlaubt die korpuslinguistische Analyse der von Twitter gesammelten und Dritten zur Verfügung gestellten Daten Einsichten in soziale Verhaltensformen, politische Stimmungen und thematische Interessen, die sich nicht nur im Journalismus und Finanzwesen als Barometer und Frühwarnsignale nutzen lassen, sondern auch im Gesundheitswesen, in der Unternehmensführung und in der Regierungstechnik. Mit der Webcam, die uns beim Betrachten der Websites beobachtet, wird schließlich schon jeder Blick ein Beitrag zur Statistik sein. Der Algorithmus macht das Web 2.0, dessen Vorläufer im Ruch der Anarchie stand, zum Ort der Einsicht und der Aufsicht – er radikalisiert damit den Gewissenskonflikt der Soziologie, durch die Vermessung gesellschaftlicher Prozesse immer auch deren Manipulation zu optimieren.
 


Wenn-Dann-Beziehungen bieten keinen Raum für das Aber und Trotzdem, für Ambivalenz, Ironie und Skeptizismus; sie sind indifferent gegenüber dem Kontext und delegieren Entscheidungen an ein Prinzip.



Denn indem belastbare Aussagen über verschiedenste Wenn-Dann-Konstellationen möglich sind, wird auch die Frage der Intervention, um unerwünschten Dann-Folgen die Wenn-Basis zu nehmen, immer zentraler. Die Intervention mag im Interesse des Individuums erfolgen, wenn etwa die Gesundheitsgefährdung bestimmter Stoffe oder Tätigkeiten erkannt wird. Angesichts leerer Sozialversicherungskassen und der zunehmenden Gerontologisierung der Gesellschaft wird man aber immer mehr Eingriffe mit dem „Interesse der Gesellschaft“ rechtfertigen. Höhere Versicherungspolicen für Raser sind seit Langem die Folge von Unfallberichten und Straftickets. Dem kann man nun vorgreifen durch die „Blackbox“ im Auto, die Daten zum Fahrverhalten an das Portal der Versicherung schickt – und damit natürlich auch die Erstellung von Bewegungsprofilen ermöglicht. Ebenso wird man Menschen, die sich schlecht ernähren, wenig bewegen oder Suchtmittel ge- bzw. missbrauchen, zur Verantwortung ziehen. Die Diskussion zum Verbotsvorstoß des New Yorker Bürgermeisters Michael Bloomberg gegen Softdrinks in großen Flaschen im Jahr 2012 gibt einen Vorgeschmack auf künftige Debatten: Während sich die Gegner einer solchen Bevormundung auf John Stuart Mills Essay On Liberty (1859) berufen, wonach das Individuum am besten wisse, was für es gut ist, verweisen die Befürworter auf den Mangel vorausschauenden Handelns bei den meisten Menschen – als Rechtfertigung für behördliche Eingriffe im Interesse des Individuums und der Gesellschaft.

Diese juristisch-politische Diskussion ist die vielleicht ungeliebte, aber unausweichliche Konsequenz der Herrschaft der Algorithmen. Erkannte Zusammenhänge konfrontieren die Gesellschaft mit der Frage, ob sie gefährliche oder unerwünschte Folgen wissentlich in Kauf nehmen kann oder ob sie im Sinne einer verantwortlichen Zukunftsgestaltung zum Eingriff verpflichtet ist. Das Problem resultiert aus der umgekehrten Proportionalität zwischen kollektivem Wissen und individueller Freiheit: Individuelle Freiheit basiert auf gesellschaftlicher Unwissenheit – oder auf einer gesellschaftlich vereinbarten Nichtanwendung von Wissen. Die Gesellschaft befindet sich hier gewissermaßen in Geiselhaft der Data Scientists, deren Entdeckungen so wenig rückgängig gemacht werden können wie die von Naturgesetzen. Wissen ermächtigt nicht nur, es verpflichtet auch.
 

Stalins Rache

Die Problematik des Algorithmus übersteigt allerdings seine jeweilige inhaltliche Konkretheit. Denn diesseits der spezifischen Diskussionen (von gesundheitsschädlichen Softdrinks bis zu potenziellen Straftätern) über den Gebrauch des Wissens besteht die Gefahr darin, dass gesellschaftliche Prozesse zunehmend durch die Wenn-Dann-Logik des Algorithmus bestimmt werden, Vernunft also auf formale Logik reduziert wird. In der Konsequenz erübrigt dies jede Diskussion, denn Wenn-Dann-Beziehungen bieten keinen Raum für das Aber und Trotzdem, für Ambivalenz, Ironie und Skeptizismus; sie sind indifferent gegenüber dem Kontext und delegieren Entscheidungen an ein Prinzip. Die technokratische Rationalität dieses Verfahrens nimmt dem Denken das Offene und somit zwei seiner Grundtugenden: missverständlich und verführerisch zu sein. Bereinigt man Kommunikation um ihre Leerstellen und strategischen Ambivalenzen, wird aus Denken Rechnen. Es gibt dann nur noch passgerechte Entscheidungen oder eben Kombinationsfehler. Der Algorithmus reduziert das Gesellschaftliche auf Mathematik und blockiert abweichende, alternative Positionierungen.
 


Wissen ermächtigt nicht nur, es verpflichtet auch.



Die gesellschaftlichen Konsequenzen der algorithmischen Vorhersage und Regulierung werden inzwischen vehement diskutiert angesichts ihrer Nutzung durch Polizei, Versicherungen und Banken. Als ethisches Problem wird gesehen, dass die Annahme des freien Willens und die Möglichkeit der Entscheidung gegen das Naheliegende nicht mehr gilt, wenn man Menschen aufgrund von Täter- und Tatprofilen vorsorglich in Haft nimmt oder mit Sozialpädagogen und Streetworkern zusammenbringt. Darüber hinaus ist es aus philosophischer Perspektive problematisch, wenn Zukunft vorhergesagt und somit reguliert wird. Es ist zwar ein alter Menschheitstraum, die Zukunft zu wissen, aber wenn dies mittels neuer Technologien nun dazu führt, Kontinuitätsbrüche zu vermeiden, beraubt man sich einer zentralen Triebkraft gesellschaftlicher Entwicklung.

Ein drittes Problem ist die politische Logik des Algorithmus: Die Kontrollfantasien, die der Algorithmisierung des Gesellschaftlichen zugrunde liegen, erinnern nicht nur an dystopische Utopien der Ordnung, die, immer im Interesse der Allgemeinheit natürlich, auf eine effiziente Regulierung des gesellschaftlichen Lebens zielen. Sie gemahnen auch an die Realisierungsversuche einer solchen Ordnung in den vormals sozialistischen Staaten in Osteuropa, die auf ihre Weise versuchten, unerwünschte Dann-Folgen durch rechtzeitige Interventionen an der Wenn-Basis zu vermeiden. Es mag zu früh sein für die These, dass der Algorithmus Stalins und Honeckers späte Rache an der westlichen Demokratie sei. Aber die Frage drängt sich auf, wie sich die umfassende Analyse und Kontrolle des gesellschaftlichen Verhaltens durch Big Data am Ende vom vormundschaftlichen Staat realsozialistischer Prägung unterscheiden werden.
 

Internet der Dinge

Die Reduktion der Vernunft auf Kalkulation und Logik ist längst kein theoretisches Problem mehr. Mit dem Internet der Dinge – wenn der drucksensible Fußboden mit dem Beleuchtungssystem redet und der Swimmingpool mit dem Kalender – werden und sind bereits viele Entscheidungssituationen durch klare Handlungsvorschriften geregelt und automatisiert: wenn BBQ-Party, dann Aufheizen, wenn Gewicht, dann Licht. Die Plattform ifttt.com lädt – ebenso wie Zapier.com – dazu ein, „Personal Recipes“ für Wenn-Dann-Prozesse im Bereich der sozialen Medien zu erstellen und zu teilen: „Mail me if it rains tomorrow“, „When you are tagged in Facebook, the photo will be downloaded to Google Drive“, „If a Reminder is completed, append to note in Evernote“. Dies lässt sich zunächst als eine Art Man-Computer-Symbiosis verstehen, wie sie der Computerwissenschaftler J. C. R. Licklider 1960 voraussah: Der Mensch stellt die Aufgaben und setzt die Ziele, der Computer erledigt die Routinearbeit.

Perspektivisch aber nimmt das Internet der Dinge den Menschen auch die Bewertungs- und Entscheidungstätigkeit ab: durch andere Menschen, die die verschiedensten Wenn-Dann-Beziehungen konfigurieren. Das Technologietrend-Magazin „Wired“ sieht in einem Artikel unter dem Titel Programmable World schon im Mai 2013 einen Markt für Apps: „users and developers can share their simple if-then apps and, in the case of more complex relationships, make money off of apps“1. Man (ver‑)kauft dann nicht mehr Objekte oder Informationen, sondern Informationsverarbeitungsmodelle, die notwendigerweise immer mehr oder weniger vom konkreten Kontext absehen müssen.

Es liegt in der Natur der Sache, dass die damit stattfindende Standardisierung nach Maßgabe der Programmierer erfolgt, die zugleich per Hack den Wenn-Dann-Automatismus manipulieren können.

Die eigentliche Manipulierung aber erfolgt im Outsourcing der Entscheidung; in der Gewöhnung daran, die Angemessenheit einer bestimmten Reaktion auf eine bestimmte Situation nicht mehr selbst bedenken und verantworten zu müssen. Diese Verantwortungsdelegierung mag jenseits moralischer Bedeutsamkeit liegen, wenn es um das automatische Einschalten von Licht geht, das inzwischen zur Standardausrüstung eines jeden Autos und vieler öffentlicher Gebäude gehört. Sie wird zwiespältig, wenn Softwareprogramme automatisch auf unsere Umwelt reagieren und die Maps-App auf unserem iPhone z.B. in Bangkok die Straßennamen in thailändischer Schrift anzeigt. Sie wird brisant mit zunehmender Komplexität der kybernetischen Feedbackschleifen, wenn kaum noch nachvollziehbar ist, auf Grundlage welcher Daten bestimmte Wenn-Dann-Schleifen zustande kommen und welche Konsequenzen diese haben.
 

Orakel 2.0

In seinem Buch Homo Deus. Eine Geschichte von Morgen imaginiert Yuval Noah Harari die Zukunft des Datings als Konversation von Bots: „die Cortana eines potenziellen Liebespartners tritt an meine Cortana heran, und die beiden vergleichen Notizen, um zu entscheiden, ob wir zusammenpassen – ohne dass wir menschlichen Besitzer irgendetwas davon wissen.“ Die Algorithmen werden uns nicht versklaven, vermutet Harari, sondern Entscheidungen für uns so gut treffen, dass wir verrückt wären, ihrem Rat nicht zu folgen. Und er fügt hinzu: „Sobald Google, Facebook und andere Algorithmen zu allwissenden Orakeln geworden sind, können sie sich durchaus zu Akteuren und schließlich zu Souveränen weiterentwickeln.“
 


Wir wissen nicht genau, warum Cortana uns mit diesem Menschen und nicht mit jenem verbindet, aber wer sein Leben den Algorithmen am Steuer selbstfahrender Autos anvertraut, sollte ihnen auch zutrauen, uns gut durchs Leben zu steuern. Immerhin würden wir nicht bezweifeln, dass Algorithmen viel mehr Daten viel verlässlicher verarbeiten können als wir. Und um nichts anderes als die perfekte Datenverarbeitung geht es schließlich bei der Vermeidung von Kollisionen und der Beschaffung des passenden Lebenspartners. Allerdings wird das Orakel der Zukunft nur auf der Ebene der Informationsverarbeitung eine Blackbox sein. Der Output hingegen verzichtet auf all die Rätselhaftigkeit, die das klassische Orakel kennzeichnet. Es wird nicht heißen: Folge der Frau, die an einem heißen Wintertag zur Welt kam. Es wird heißen: Conny aus Hamburg passt zu 99,5 % zu dir.

Trotzdem tritt das Orakel 2.0 als Paradox auf. Es ist das Ende der Willensfreiheit im Zeichen der Selbstoptimierung und es ist die coole Wiederverzauberung der Welt auf der Grundlage ihrer absoluten Analysierbarkeit. Denn verzaubert ist die Welt, wenn aus der Blackbox die zwar unmissverständlichen, aber kaum nachprüfbaren Anweisungen kommen, wie man leben soll. Das ist, als spräche Gott zu uns, durch seine neuen Priester, die Algorithmen. Auch diesen Gedanken findet man bei Harari, der von einem „kosmischen Datenverarbeitungssystem“ spricht, dem wir alle mit unseren Daten zuarbeiten. Es wird überall sein und alles kontrollieren; und die Menschen, so scheint es, sind dazu bestimmt, in diesem „ digitalen Pantheismus“ aufzugehen.

Dieser Beitrag basiert zum Großteil auf dem Kapitel „ Algorithmen“ seines Buches Data Love. Berlin 2014, S. 76 – 89.

Anmerkung:

1) Wasik, B.: In the Programmable World, All Our Objects Will Act as One. In: Wired, 14.05.2013. Abrufbar unter: www.wired.com